画像処理装置、画像処理方法およびプログラム
【課題】ぼかしの領域の位置がずれる可能性を低減でき、ぼかしの領域を必要最小限にできる画像処理装置、画像処理方法およびプログラムを提供する。
【解決手段】画像処理装置は、画像取得部と、対象検出部と、記録部と、予測位置情報算出部と、画像処理部を有している。画像取得部は、時系列に複数の画像を取得する。対象検出部は、前記画像取得部が取得した画像から画像処理を施す対象を検出する。記録部は、前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する。予測位置算出部は、前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出する。画像処理部は、前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に前記画像処理を施す。
【解決手段】画像処理装置は、画像取得部と、対象検出部と、記録部と、予測位置情報算出部と、画像処理部を有している。画像取得部は、時系列に複数の画像を取得する。対象検出部は、前記画像取得部が取得した画像から画像処理を施す対象を検出する。記録部は、前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する。予測位置算出部は、前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出する。画像処理部は、前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に前記画像処理を施す。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理方法およびプログラムに関する。
【背景技術】
【0002】
昨今では、犯罪の防止等のため、レストラン、ホテル、マンションのエントランスなど、プライバシー性が高い場所に監視カメラが設置されている場合がある。特に、このような監視カメラによる監視業務をアウトソーシングしているような場合、複数のサービス利用ユーザや複数の拠点を遠隔で監視することになり、関係者ではない人間が監視映像を目にする。このように、部外者が多数の情報を目にしてしまうため、個人情報や、公序良俗に反する内容を表示しないようにして、監視映像におけるプライバシーを保護することが望ましい。
【0003】
ところで、上記のような人通りのある場所の監視映像をリアルタイムで目視確認するシステムにおいては、人物の有無や不審行動などを監視すれば十分である。このため、被写体となる人物のプライバシーを考慮し、顔部分にモザイクなどのぼかしをかけるようなシステムが存在する。そして、不審者が現れた時のみ、監視員がぼかしを解除したり、現地の警備員へ連絡を行なったりする。
【0004】
このとき、顔の認識は、例えば、顔の画像及び顔でない画像の大量の画像サンプルから特徴量を学習して、入力画像の特徴量と比較することにより行う方法、判別能力の低い多数の識別器を組み合わせることにより、高い識別能力を実現する方法がある。特徴量の計算に用いるパターンは、輝度の境目(Edge)、線(Line)、包囲(Center−surround)のみで顔の認識を行うことができる。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2005−94642号公報
【非特許文献】
【0006】
【非特許文献1】Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.
【非特許文献2】Rainer Lienhart and JochenMaydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、リアルタイムで監視映像を目視確認するシステムでは、リアルタイムでぼかしの処理が必要な箇所を判断している。このため、顔を検知してから、例えばモザイクを付加するまでのタイムラグがあり、人物の動きが速い場合などに、ぼかしの処理を行なう位置がずれてしまうことがある。
【0008】
ぼかしの領域を大きくすれば位置がずれる現象の頻度は下がるが、ぼかしの部分を大きくしすぎると、監視業務自体に影響を与えてしまうため、ぼかしの領域は必要最小限にしたい。
【0009】
上記課題に鑑み、ぼかしの領域の位置がずれる可能性を低減でき、ぼかしの領域を必要最小限にできる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0010】
ひとつの態様である画像処理装置は、画像取得部と、対象検出部と、記録部と、予測位置情報算出部と、画像処理部を有している。画像取得部は、時系列に複数の画像を取得する。対象検出部は、前記画像取得部が取得した画像から画像処理を施す対象を検出する。記録部は、前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する。予測位置算出部は、前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出する。画像処理部は、前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に前記画像処理を施す。
【0011】
別の態様である画像処理方法において、コンピュータは、時系列に複数の画像を取得し、取得した前記複数の画像から画像処理を施す対象を検出し、検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録する。また、コンピュータは、前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出し、前記後に取得される画像の前記予測位置情報に応じた部分に画像処理を施す。
【0012】
なお、上述した本発明に係る方法をコンピュータに行わせるためのプログラムであっても、このプログラムを当該コンピュータによって実行させることにより、上述した本発明に係る方法と同様の作用効果を奏するので、前述した課題が解決される。
【発明の効果】
【0013】
上述した態様の画像処理装置、画像処理方法およびプログラムによれば、ぼかしの領域の位置がずれる可能性を低減でき、ぼかしの領域を必要最小限にできる。
【図面の簡単な説明】
【0014】
【図1】第1の実施の形態による画像処理システムの構成を示す図である。
【図2】第1の実施の形態による画像処理システムの機能を示すブロック図である。
【図3】第1の実施の形態による画像処理を説明する概略図である。
【図4】第1の実施の形態による顔座標の一例を示す表である。
【図5】第1の実施の形態によるぼかしサイズの算出方法を説明する図であり、(a)は、動きが比較的少ない場合、(b)は、(a)よりも動きが大きい場合、(c)は、予測位置情報に対するぼかしサイズの決定方法の一例を示す。
【図6】第1の実施の形態による画像処理の時間的な流れを説明する図である。
【図7】第1の実施の形態による画像処理システムの動作を示すフローチャートである。
【図8】第1の実施の形態による変形例1による画像処理の時間的な流れを説明する図である。
【図9】第1の実施の形態の変形例2による顔の予測座標範囲のずれを示す図である。
【図10】第1の実施の形態の変形例2による顔の予測位置と実際の位置とがずれた場合に補正を行なう方法を示す図である。
【図11】第2の実施の形態による表示画像の例を示す概念図である。
【図12】第2の実施の形態による画像処理システムの動作を示すフローチャートである。
【図13】第2の実施の形態の変形例による表示画像の例を示す概念図である。
【図14】標準的なコンピュータのハードウエア構成の一例を示すブロック図である。
【発明を実施するための形態】
【0015】
(第1の実施の形態)
以下、図面を参照しながら、第1の実施の形態による画像処理システム1について説明する。図1は、第1の実施の形態による画像処理システム1の構成を示す図、図2は、第1の実施の形態による画像処理システム1の機能を示すブロック図である。
【0016】
図1に示すように、画像処理システム1は、カメラ3、画像処理装置5、表示装置17を有しており、カメラ3で撮影した画像に画像処理装置5が所定の処理を施し、表示装置17に表示するシステムである。
【0017】
カメラ3は、例えば固体撮像素子を有し、動画を撮影する撮影装置である。画像処理装置5においては、Central Processing Unit(CPU)7、記録部9、入出力部11、外部記憶装置13、ネットワーク接続部15が互いにバス16を介して接続されている。画像処理装置5は、カメラ3から画像を取得し、所定の処理を施して表示装置17に出力する装置である。
【0018】
CPU7は、画像処理装置5全体の動作を制御する演算処理装置である。記録部9は、画像処理装置5の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。記録部9は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入出力部11は、カメラ3や不図示のキーボード装置、マウス装置などからの各種情報の入力を取得し、取得した入力情報をCPU7に送付するとともに、画像処理装置5内部での処理結果を表示装置17等に出力する装置である。
【0019】
外部記憶装置13は、例えば、ハードディスクなどの記憶装置であり、CPU7により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。バス16は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
【0020】
画像処理装置5に所定の処理を実行させるプログラムは、例えば外部記憶装置13に記憶させる。CPU7は、外部記憶装置13からプログラムを読み出し、画像処理装置5に画像処理の動作を行なわせる。このとき、図2に示すように、画像処理装置5は、主制御部21、顔検出部23、予測位置算出部25、ぼかしサイズ算出部29、ぼかし用画像生成部31、画像記録部33、および顔位置記録テーブル35として機能する。
【0021】
主制御部21は、画像処理装置5の動作を制御する。顔検出部23は、カメラ3から取得した画像から、例えばプライバシーを保護するため、ぼかしを施す対象(以下、単に対象ともいう)を検出し、その位置情報および時刻情報を顔位置記録テーブル35に記録する。本実施の形態において、対象は人の「顔」を例にして説明する。また、位置情報とは、ぼかす対象のフレームにおける座標範囲を示す情報である。時刻情報とは、対象を検出した時刻や検出したフレームの順を示す番号等、対象を検出した時刻の差を算出するための情報である。
【0022】
なお、顔の検出は、画像から特徴量を抽出して学習を行い、その結果と入力画像から抽出した特徴量とを比較することにより認識する方法など、既知の方法を用いることができる。顔検出の方法は、例えば非特許文献1または非特許文献2に記載されている。
【0023】
予測位置算出部25は、顔検出部23が記録した、ぼかす対象の位置情報および時刻情報に基づき、対象の所定時刻後の予測位置を算出する。予測位置とは、対象が所定時刻後に存在すると予測される座標範囲(以下、予測座標範囲という)である。
【0024】
ぼかしサイズ算出部29は、顔検出部23が記録した対象の位置情報および時刻情報に基づき、画像を見た際に対象を視認できないようにするために、ぼかし処理など所定の画像処理を施す座標範囲(以下、ぼかし範囲という)を算出する。ぼかし処理は、例えば画像にモザイクをかけるモザイク処理を採用するようにしてもよい。
【0025】
ぼかし用画像生成部31は、予測位置算出部25で算出された予測座標範囲を含む、ぼかしサイズ算出部29で算出された座標範囲をぼかし画像など所定の画像に置き換えるための画像を生成する。
【0026】
画像記録部33は、カメラ3から取得した画像を記録する。顔位置記録テーブル35は、顔検出部23で検出された対象の位置情報および時刻情報を記録する。画像記録部33、顔位置記録テーブル35は、例えば、外部記憶装置13に含まれるようにしてもよい。
【0027】
以上のように構成される画像処理装置5における画像処理について、図3から図10を参照しながら説明する。図3は、第1の実施の形態による画像処理を説明する概略図である。図3に示すように、歩行している人が写っている画像があるとする。このとき、解析時位置51において、顔検出部23が顔50の位置情報を位置情報55と検出する。位置情報は、画像のフレーム上の所定の点を原点とするXY座標系において顔50として検出された範囲の、例えば左上の座標(以下、顔座標という)と、検出された座標範囲(以下、検出座標範囲という)の大きさで表す。
【0028】
図4は、顔座標の一例を示す表である。図4に示すように、顔座標テーブル110によれば、例えば現在の顔座標(Xn、Yn)=(150、100)、1フレーム前の顔座標(Xn−1、Yn−1)=(250、140)、2フレーム前の顔座標(Xn−2、Yn−2)=(350、120)である。顔座標テーブル110は、顔位置記録テーブル35に記録される。また、顔位置記録テーブル35は、顔座標テーブル110と合わせて、位置情報の検出座標範囲を示す情報を格納することが好ましい。また、顔座標テーブル110において、「現在のフレーム」「1つ前のフレーム」「2つ前のフレーム」が、時刻情報に相当する。
【0029】
再び図3を参照して、例えば、現在の解析時位置51よりも後に撮影されたフレームにおいて、同じ人が予測時位置53に移動しているとする。このとき、予測位置算出部25は、検出された位置情報55および時刻情報と、それ以前に顔位置記録テーブル35に記録されている顔50の位置情報および時刻情報に基づき、予測時位置53における顔50の予測位置情報57を算出する。予測位置情報57は、顔50の予測時位置53における予測顔座標と予測座標範囲を含む情報である。
【0030】
例えば、n(自然数)をフレーム番号として、各フレームにおいて所定の点を原点とするXY座標系を定義したとき、各フレームにおける顔座標は、下記のように変化するものとする。
(X1、Y1)→(X2、Y2)→・・・→(Xn−1、Yn−1)→(Xn、Yn)
【0031】
例えば、顔の移動速度が一定と仮定すると、フレーム間の時間は一定であると考えられるので、顔座標のフレーム間の変化量ΔX、ΔYは、以下の式1のように表される。
ΔX=Xn−1−Xn−2、ΔY=Yn−1−Yn−2・・・(式1)
このとき、顔の予測位置における予測顔座標は、以下の式2で表される。
Xn=Xn−1+ΔX、Yn=Yn−1+ΔY・・・(式2)
【0032】
顔の移動において加速度も考慮すれば、顔座標の変化量は、下記式3のような算出例もある。
ΔXn=ΔXn−1+Δ2X
=ΔXn−1+(ΔXn−1−ΔXn−2)
=2ΔXn−1―ΔXn−2
=2(Xn−1―Xn−2)―(Xn−2―Xn−3)
=2Xn−1―3Xn−2+Xn−3
ΔYn=2Yn−1―3Yn−2+Yn−3・・・(式3)
【0033】
ぼかしサイズ算出部29は、検出された位置情報55およびその時刻情報と、それ以前に顔位置記録テーブル35に記録されている顔50の位置情報および時刻情報に基づき、ぼかし(例えば、モザイク)を施すぼかし範囲59を算出する。このとき、ぼかし範囲59は、例えば、上記式2または式3に基づいて算出された予測顔座標に基づく予測位置情報57における顔50の予測座標範囲を含む範囲とする。
【0034】
図5は、ぼかしサイズの算出方法を説明する図であり、(a)は、動きが比較的少ない場合、(b)は、(a)よりも動きが大きい場合、(c)は、予測座標範囲に対するぼかしサイズの決定方法の一例を示す。
【0035】
図5(a)に示すように、顔50が、速度ベクトル71、73、75により移動した場合、例えば、画像処理装置5は、ぼかし範囲61を採用する。図5(b)に示すように、顔50が、速度ベクトル79、81、83により移動した場合、図5(a)よりも大きく移動するため、画像処理装置5は、例えば、ぼかし範囲61よりも大きいぼかし範囲63を採用することが好ましい。顔50の動きが大きい場合には、顔50が算出したぼかし範囲からはずれる可能性が高くなるからである。
【0036】
よって、図5(c)に示すように、ぼかしサイズ算出部29は、ぼかし範囲を、対象の移動速度に応じて決定する。すなわち、ぼかしサイズ算出部29は、顔50の予測位置情報57における顔検出サイズ65に対して、横余剰サイズ67=C×|Vx|をX方向の両側に加え、縦余剰サイズ69=C×|Vy|をY方向の両側に加えた範囲を、ぼかし範囲77とする。ここで、Cは、ぼかし範囲を決める係数、|Vx|は、顔50のX方向の移動速度ベクトルの絶対値、|Vy|は、顔50のY方向の移動速度ベクトルの絶対値である。なお、例えば、点78は、予測位置情報57における顔座標に対応する点である。
【0037】
図6は、第1の実施の形態による画像処理の時間的な流れを説明する図である。図6に示すように、カメラ3によりフレーム90−1〜90−8が時系列に撮影されているとする。図6の例では、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定している。顔検出部23は、主制御部21がカメラ3から取得したフレーム90−1において顔50を検出し、位置情報55と対応する時刻情報を顔位置記録テーブル35に記録する。
【0038】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報55および時刻情報から予測位置情報57を算出する。このとき、フレーム90−1より前の情報がある場合には、例えばフレーム90−1の一つ前、または一つ前と二つ前の不図示のフレーム90の位置情報および時刻情報を参照して予測位置情報57を算出する。ぼかしサイズ算出部29は、顔位置記録テーブル35に記録された位置情報55および時刻情報、並びに、例えばフレーム90−1の一つ前、または一つ前と二つ前の不図示のフレーム90の位置情報および時刻情報から、例えばぼかし範囲77を算出する。なお、顔位置記録テーブル35にフレーム90−1よりも前の情報がない場合には、予め位置情報55に基づいたぼかし範囲77の算出方法を定めておくようにしてもよい。
【0039】
ぼかし用画像生成部31は、算出された予測位置情報57およびぼかし範囲77に基づき、ぼかし用画像を生成し、矢印94のように、フレーム90−3に重畳する。このとき、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定しているため、同様に、フレーム90−4、90−5にもそれぞれ矢印96、98のように、フレーム90−1と同様のぼかし用画像を重畳することになる。
【0040】
続いて、顔検出部23は、主制御部21によりカメラ3から最新に取得されたフレームであるフレーム90−4について、フレーム90−1について上記のように行った処理と同様に検出および算出処理を行う。そして、ぼかし用画像生成部31が生成したぼかし用画像を、矢印102〜106のようにフレーム90−6〜90−8に重畳する。以上の処理を繰り返すことにより、図6の例では、フレーム90−3以降のフレームのぼかし処理が可能となる。
このとき、ぼかし用画像は、例えば全面同一色の画像など、フレーム90にかかわらず予め決められた画像とする。
【0041】
以下、画像処理システム1の動作をフローチャートを参照しながら説明する。図7は、第1の実施の形態による画像処理システム1の動作を示すフローチャートである。図7に示すように、主制御部21は、カメラ3の映像の最新のフレームを取得する(S131)。このとき同時に、主制御部21は、画像記録部33にカメラ3の映像を記録させる。
【0042】
顔検出部23は、取得されたフレームから、顔位置の検出を行ない、検出結果を顔位置記録テーブル35に記録する(S132)。すなわち、顔検出部23は、顔50の位置情報と時刻情報を検出し、顔位置記録テーブル35に記録する。このとき、位置情報として、上述したように、顔50の顔座標(Xn、Yn)を求めるとともに、顔50に応じた検出座標範囲を検出する。検出座標範囲は、例えば、X方向の長さ(幅)、Y方向の長さ(高さ)により表すとする。時刻情報は、検出した時刻を記録してもよいし、フレームの番号を表す情報など、情報を検出した時刻の相対関係を示す情報であればよい。
【0043】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報及び時刻情報を参照し、図6の例では、2フレーム先の顔50の予測位置情報を算出する(S133)。このとき、顔位置記録テーブル35において、参照される位置情報及び時刻情報の数(フレームの数に対応する)は、上述のように、予測位置情報を顔50の速度のみを考慮して算出するか、加速度まで考慮して算出するかなど、算出方法により変更される。
【0044】
ぼかしサイズ算出部29は、S133で算出された予測位置情報と、予測位置情報を算出する際に算出される顔50の移動速度から、例えば図5のように、ぼかし範囲77を算出する(S134)。ぼかし範囲77は、ぼかし範囲77の例えば左上の座標(ぼかし座標という)と、ぼかし範囲77の幅及び高さで表すことができる。
【0045】
ぼかし用画像生成部31は、ぼかしサイズ算出部29により算出されたぼかし範囲77に、所定の色などを施すぼかし用画像を生成する(S136)。主制御部21は、ぼかし用画像生成部31が生成したぼかし用画像を取得し、取得したぼかし用画像を、その時点でのカメラ3の映像の最新のフレームに重ね合わせることにより、表示装置17に表示する画像を生成して表示させる。主制御部21は、表示装置17に表示させた画像の次のフレームの画像を取得すると、S131からの処理を繰り返す。
【0046】
以上詳細に説明したように、第1の実施の形態による画像処理システム1によれば、主制御部21がカメラ3の映像の最新のフレームを取得すると、顔検出部23が顔50の位置情報と時刻情報とを取得し、顔位置記録テーブル35に記録する。予測位置算出部25は、顔位置記録テーブル35を参照して、顔50の移動速度、移動加速度などを考慮し、例えば3フレーム後の顔50の予測位置情報を算出する。ぼかしサイズ算出部29は、顔50の移動速度、移動加速度などを考慮して、例えばぼかし範囲77を算出する。ぼかし用画像生成部31は、算出された予測位置情報に応じたぼかし範囲77にぼかしをかけるためのぼかし用画像を生成する。主制御部21は、ぼかし用画像を、取得した最新のフレームに重ね合わせて表示用画像を生成し、表示装置17に表示する。
【0047】
以上のように、第1の実施の形態による画像処理システム1によれば、過去の複数のフレームからぼかしの対象の動きを予測し、ぼかしを施すぼかし範囲を算出するので、処理を実行している間に対象が動いても、適切にぼかしを施すことが可能になる。また、対象の移動速度に基づいてぼかし範囲を算出するので、必要以上に広範囲にぼかしを施すことを回避でき、監視などの業務に支障をきたすことを防止できる。
【0048】
(第1の実施の形態の変形例1)
次に、図8を参照しながら第1の実施の形態の変形例による画像処理システム1について説明する。本変形例は、第1の実施の形態による画像処理システム1におけるぼかしの処理の変形例である。第1の実施の形態の変形例1による画像処理システムにおいて、第1の実施の形態による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第1の実施の形態の変形例1による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0049】
図8は、第1の実施の形態の変形例1による画像処理の時間的な流れを説明する図である。図8に示すように、カメラ3によりフレーム140−1〜140−8が時系列に撮影されているとする。図8の例では、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定している。顔検出部23は、フレーム140−1を画像記録部33より読み出し、顔50を検出し、位置情報55と対応する時刻情報を顔位置記録テーブル35に記録する。
【0050】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報55および時刻情報から予測位置情報57を算出する。このとき、フレーム140−1より前の情報がある場合には、例えばフレーム140−1の一つ前、または一つ前と二つ前の不図示のフレーム140の位置情報および時刻情報も参照する。ぼかしサイズ算出部29は、顔位置記録テーブル35に記録された位置情報55および時刻情報、並びに、例えばフレーム140−1の一つ前、または一つ前と二つ前の不図示のフレーム140の位置情報および時刻情報から、例えばぼかし範囲77を算出する。
【0051】
ぼかし用画像生成部31は、算出された予測位置情報57およびぼかし範囲77に基づき、ぼかし用画像を生成する。このとき、ぼかし用画像生成部31は、矢印144のように、ぼかし用画像生成部31で算出されたぼかし範囲77をぼかしの処理に必要な情報として取得するとともに、主制御部21がカメラ3から取得した最新のフレームを、矢印146のように取得する。ぼかし用画像生成部31は、取得したフレームにおけるぼかし範囲77の内部を、例えば通常よりも大きい画素に再分割して、分割された各画素において輝度の平均をとるなど、ぼかしの処理を行う。
【0052】
ぼかし用画像生成部31は、ぼかしの処理を施された画像を矢印148のようにフレーム140−3とする。このとき、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定しているため、同様に、フレーム140−4、140−5にもそれぞれ矢印150、152のように、フレーム140−1と同様の上記のようなぼかしの処理を行うことになる。
【0053】
続いて、顔検出部23は、主制御部21が取得したフレーム140−4について、フレーム140−1について上記のように行った処理と同様に検出、算出及びぼかしの処理を行う。ぼかし用画像生成部31は、生成したぼかしの処理を施した画像を、矢印157のようにフレーム140−6とする。ぼかし用画像生成部31は、それぞれのフレーム140−7、140−8のぼかし範囲77に対応する部分に解像度を下げる処理を行い、それぞれフレーム140−7、140−8として表示装置17に表示する。以上の処理を繰り返すことにより、図8の例では、フレーム140−3以降のフレームのぼかし処理が可能となる。
【0054】
以上説明したように、本変形例では、第1の実施の形態では予め決められた画像に置き換えたぼかし範囲77について、カメラ3から取得した画像に基づいたぼかしの処理を行う。これにより、第1の実施の形態による画像処理システム1による効果に加え、ぼかしの処理を行った画像の違和感を多少低減させることができる。また、ぼかしの処理の具体的な方法を変えることにより、対象のプライバシーを侵害することなく、動きの概要を視認できるようなぼかしの処理を行うなど、利用環境に応じた処理とすることも可能である。
【0055】
(第1の実施の形態の変形例2)
次に、第1の実施の形態による変形例2について、図9、図10を参照しながら説明する。本変形例は、第1の実施の形態及びその変形例1における、ぼかし範囲77の算出方法の変形例である。第1の実施の形態の変形例2による画像処理システムにおいて、第1の実施の形態、またはその変形例1による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第1の実施の形態の変形例2による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0056】
図9は、第1の実施の形態の変形例1による表示用フレーム160を示している。上段は、表示するフレームを概念的に示し、下段は、ぼかし範囲が適切か否かを判別する方法を示している。図9に示すように、最新のフレームがフレーム160−2の場合、範囲162に示すフレーム160−1、フレーム160−2のぼかしの処理の対象の位置情報及び時刻情報に基づき、予測位置算出部25は、対象の予測位置情報を算出する。また、主制御部21は、ぼかしサイズ算出部29が算出したぼかし範囲に基づき、フレーム160−4の元画像にぼかし範囲166のぼかしを重畳した画像を表示画像とする。
【0057】
ここで、予測位置算出部25は、フレーム160−4における予測位置情報として、図9の下段に示すように、予測顔位置情報168を算出したとする。主制御部21は、フレーム160−4において実際の顔の位置を、実測顔位置情報170と検出したとする。
【0058】
図10は、予測した顔の位置と実際の位置とがずれた場合に補正を行なう方法を示している。図10において、予測顔位置情報168に基づきぼかし範囲166が設定されており、それに対して実際の対象から検出された対象の範囲は、実測顔位置情報170である。
【0059】
ここで、ぼかし範囲166では、高さHm=Cx×|Vx|、幅Wm=Cy×|Vy|であるとする。予測顔位置情報168においては、左上の座標が(Xpre、Ypre)、X方向の長さを幅Wpre、Y方向の長さを高さhpreとする。実測顔位置情報170においては、左上の座標が(Xres、Yres)、X方向の長さを幅Wres、Y方向の長さを高さhresとする。
【0060】
このとき、Cx、Cyを、以下の式4を判別式として、予測顔位置情報168と実測顔位置情報170とのずれに応じて変化させる。以下、X方向を例にして説明する。
|Xpre−Xres|+Wres/2≦Wm/2・・・(式4)
【0061】
式4を満たすときには、主制御部21は、実測顔位置情報170がぼかし範囲166からはみ出してはいないと判別する。式4を満たさない場合には、主制御部21は、実測顔位置情報170の少なくとも一部がぼかし範囲166からはみ出していると判別する。この場合には、主制御部21は、ぼかしサイズ算出部29におけるぼかしサイズ算出の際の係数Cxを増加させる。
【0062】
このとき、係数Cxは、例えば、ぼかし範囲166に実測顔位置情報170がちょうど収まるサイズになるように、以下の式5のように定める。
|Xpre−Xres|+Wres/2=Wm/2=(Cx×|Vx|)/2・・・(式5)
すなわち、係数Cxは、以下の式6で表される。
Cx=(2|Xpre−Xres|+Xres)/|Vx|・・・(式6)
Y方向についても同様に算出することにより、以下の式7が得られる。
Cy=(2|Ypre−Yres|+Yres)/|Vy|・・・(式7)
【0063】
以上説明したように、本変形例では、第1の実施の形態及びその変形例2においては固定値であった係数Cx、Cyを、顔50が算出されたぼかし範囲からはみ出していると判別された場合に、増加させる。このとき、係数Cx、Cyは、予測した顔50の位置と、実際の顔50の位置とのずれに基づき変化させる。これにより、第1の実施の形態による画像処理システム1による効果に加え、さらに的確な範囲にぼかしの処理を行うことができる。また、ぼかしの処理がより的確な範囲に行われるので、対象のプライバシーを侵害することなく、画像による監視等をさらに十分に行うことも可能である。
【0064】
(第2の実施の形態)
以下、図11、図12を参照しながら、第2の実施の形態による画像処理システムについて説明する。第2の実施の形態による画像処理システムにおいて、第1の実施の形態、その変形例1、または変形例2による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第2の実施の形態による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0065】
図11は、本実施の形態による表示画像の例を示す概念図、図12は、第2の実施の形態による画像処理システム1の動作を示すフローチャートである。図11に示すように、本実施の形態においては、表示画像200における外縁部202が、常にぼかし処理を行った状態で表示される。
【0066】
表示画像200には、人204が撮影されている。表示画像200の元の画像であるフレームにおいて、人204の顔206は、第1の実施の形態及びその変形例1、2で説明したように、顔検出部23により検出されてぼかしの処理を行う対象であるとする。上述のように、画像処理システム1においては、主制御部21が取得したフレームについて顔検出部23が顔206を検出し、例えば2フレーム後のフレームにおける顔206の位置を予測してぼかし範囲にぼかしの処理を行う。よって、顔検出部23が顔206を検出した直後はぼかしの処理が行われず、もとの画像がそのまま表示されてしまい、プライバシーが侵害されることがある。
【0067】
例えば、人204が、表示画像200における矢印208の方向に移動してきたとする。すなわち、人204は、表示画像200の向かって右側の端から移動してきたとする。このとき、例えば人204が表示画像200の右側の端に近い領域に撮影される間は、ぼかしの処理が間に合わずに、そのままの画像が表示される。そこで本実施の形態においては、表示画像200における外縁部202に常にぼかし処理を行った状態で表示することにより、ぼかしの処理が間に合わない間、ぼかしの対象が撮影されると推定される領域に常にぼかしの処理を行った状態で表示する。
【0068】
以下、図12を参照しながら本実施の形態による画像処理システム1の動作について説明する。図12に示すように、主制御部21は、カメラ3の映像の最新のフレームを取得する(S211)。このとき同時に、主制御部21は、画像記録部33にカメラ3の映像を記録させる。
【0069】
顔検出部23は、取得されたフレームから、顔位置の検出を行ない、検出結果を顔位置記録テーブル35に記録する(S212)。すなわち、顔検出部23は、顔206の位置情報と時刻情報を検出し、顔位置記録テーブル35に記録する。
【0070】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報及び時刻情報を参照し、例えば、2フレーム先の顔206の予測位置情報を算出する(S213)。このとき、顔位置記録テーブル35において、参照される位置情報及び時刻情報の数(フレームの数に対応する)は、上述のように、予測位置情報を顔206の速度のみを考慮して算出するか、加速度まで考慮して算出するかなど、算出方法により変更される。
【0071】
ぼかしサイズ算出部29は、S213で算出された予測位置情報と、予測位置情報を算出する際に算出される顔206の移動速度から、ぼかし範囲を算出する(S214)。ぼかし用画像生成部31は、ぼかしサイズ算出部29により算出されたぼかし範囲に、所定の色などを施すぼかし用画像を生成する(S215)。
【0072】
一方、主制御部21は、S211でカメラ3が取得した画像の外縁部202の解像度を下げる処理を行う(S216)。ここで、解像度を下げる処理は、例えば、外縁部202全体を均一な色及び輝度の画像に置き換える処理とすることもできる。主制御部21は、ぼかし用画像生成部31が生成したぼかし用画像を取得し、取得したぼかし用画像を、その時点でのカメラ3の映像の最新のフレームに、S216の処理を施した画像と重ね合わせることにより、表示装置17に表示する画像を生成して表示させる。主制御部21は、表示装置17に表示させた画像の次のフレームの画像を取得すると、S131からの処理を繰り返す。
【0073】
以上説明したように、第2の実施の形態による画像処理システム1においては、表示画像200の外縁部202は、常に解像度が低い状態で表示される。これにより、表示画像の端部に初めてぼかしの処理の対象が登場した場合に、ぼかしの処理が間に合わずにプライバシーを侵害することを防止することができる。
【0074】
(第2の実施の形態の変形例)
次に、第2の実施の形態による変形例について、図13を参照しながら説明する。第2の実施の形態による画像処理システムにおいて、第1の実施の形態、その変形例1、変形例2、または、第2の実施の形態による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第2の実施の形態の変形例による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0075】
図13は、本変形例による表示画像の例を示す概念図である。図13に示すように、本実施の形態においては、カメラより取得されたフレーム230における外縁部232を除いた画像234が表示される。
【0076】
フレーム230において撮影されている人204が、矢印208のように、表示画像200の向かって右側の端から移動してきたとする。上述のように、画像処理システム1においては、主制御部21が取得したフレーム230について顔検出部23が顔206を検出し、例えば2フレーム後のフレームにおける顔206の位置を予測して、算出されたぼかし範囲にぼかしの処理を行う。よって、顔検出部23が顔206を検出した直後はぼかしの処理が行われず、もとの画像がそのまま表示されてしまい、プライバシーが侵害されることがある。そこで本変形例においては、フレーム230における外縁部232を表示せず、画像234を表示する。表示方法は、画像234をフレーム230の大きさに拡大して表示してもよいし、外縁部232を未表示の状態としてもよい。
【0077】
本変形例による画像処理は、第2の実施の形態による画像処理システム1の動作と、図12のS216の表示用画像処理の内容以外は同一である。本変形例では、S216の表示用画像処理において、上述のように、画像234を不図示の画面いっぱいに表示するなど、外縁部232が表示されないような処理を施す。
【0078】
以上説明したように、第2の実施の形態による画像処理システム1においては、表示画像200の外縁部202は、常に解像度が低い状態で表示される。これにより、表示画像の端部にはじめてぼかしの処理の対象が登場した場合に、ぼかしの処理が間に合わずにプライバシーを侵害することを防止することができる。
【0079】
上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例において、主制御部21は、画像取得部、画像処理部の一例であり、顔検出部23は、対象検出部の一例であり、顔位置記録テーブル35は、記録部の一例である。予測位置算出部25は、予測位置情報算出部及び移動速度算出部の一例であり、ぼかしサイズ算出部29は、範囲算出部の一例である。
【0080】
なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。
例えば、上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例において、ぼかしの処理の対象のぼかし範囲を長方形としているが、例えば所定の半径の円の範囲など、他の形状でもよい。ぼかし範囲は、対象の移動速度に応じて変化させるようにしたが、例えば、撮影開始時には、検出されたぼかしの対象の位置情報における検出座標範囲の定数倍など、対象の移動速度とは独立したぼかし範囲とするようにしてもよい。
【0081】
ぼかし範囲を決定する際に、直前のフレームにおける対象の位置との間の移動速度及び移動加速度を参照したが、例えば、図5における、ベクトル71、73、75の総和のベクトルに基づき移動速度及び移動加速度を参照するなど、変形が可能である。
【0082】
上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例は、例えば、第1の実施の形態と第2の実施の形態の変形例とを組み合わせるなど、実現可能な任意の組み合わせが可能である。
【0083】
ここで、上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例による画像処理の動作をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。図14は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図14に示すように、コンピュータ300は、Central Processing Unit(CPU)302、記録部9、入力装置306、出力装置308、外部記憶装置312、媒体駆動装置314、ネットワーク接続装置等がバス310を介して接続されている。CPU302は、コンピュータ300全体の動作を制御する演算処理装置である。記録部9は、コンピュータ300の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。記録部9は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置306は、コンピュータの使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU302に送付する装置であり、例えばキーボード装置、マウス装置などである。出力装置308は、コンピュータ300による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU302により送付される表示データに応じてテキストや画像を表示する。
【0084】
外部記憶装置312は、例えば、ハードディスクなどの記憶装置であり、CPU302により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置314は、可搬記録媒体316に書き込みおよび読み出しを行うための装置である。CPU302は、可搬型記録媒体316に記録されている所定の制御プログラムを、記録媒体駆動装置314を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体316は、例えばConpact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置318は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス310は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
【0085】
上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例による画像処理をコンピュータに実行させるプログラムは、例えば外部記憶装置312に記憶させる。CPU302は、外部記憶装置312からプログラムを読み出し、コンピュータ300に画像処理の動作を行なわせる。このとき、まず、画像処理の動作をCPU302に行わせるための制御プログラムを作成して外部記憶装置312に記憶させておく。そして、入力装置306から所定の指示をCPU302に与えて、この制御プログラムを外部記憶装置312から読み出させて実行させるようにする。また、このプログラムは、可搬記録媒体316に記憶するようにしてもよい。
【0086】
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
時系列に複数の画像を取得する画像取得部と、
前記画像取得部が取得した画像から画像処理を施す対象を検出する対象検出部と、
前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する記録部と、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出する予測位置情報算出部と、
前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に画像処理を施す画像処理部と、
を有することを特徴とする画像処理装置。
(付記2)
複数の前記位置情報および前記時刻情報に基づき前記画像処理を施す範囲を算出する範囲算出部、
をさらに有し、
前記画像処理部は、前記範囲に前記画像処理を施すことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記画像処理は、前記対象を識別不可能にするための処理であることを特徴とする付記1または付記2に記載の画像処理装置。
(付記4)
複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度を算出する移動速度算出部、
をさらに有し、
前記範囲算出部は、前記移動速度に基づき前記範囲を算出することを特徴とする付記2に記載の画像処理装置。
(付記5)
前記予測位置情報と、前記後に取得された画像における前記対象の位置情報とのずれを検出するずれ検出部、
をさらに有し、
前記範囲算出部は、前記ずれに応じて次に算出する前記範囲を調整することを特徴とする付記2または付記4に記載の画像処理装置。
(付記6)
前記予測位置情報算出部は、前記移動速度に基づき前記予測位置情報を算出することを特徴とする付記4に記載の画像処理装置。
(付記7)
前記移動速度算出部は、複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度および移動加速度を求め、
前記予測位置情報算出部は、前記移動速度および前記移動加速度に基づき前記予測位置情報を算出することを特徴とする付記4に記載の画像処理装置。
(付記8)
前記画像取得部が取得した画像の外縁部に画像処理を行う画像処理部、
をさらに有し、
前記予測位置情報に応じた部分に画像処理を行う前記画像処理部は、前記外縁部に画像処理を行った画像にさらに前記予測位置情報に応じた部分に画像処理を行うことを特徴とする付記1から付記7のいずれかに記載の画像処理装置。
(付記9)
前記外縁部の画像処理は、モザイク処理であることを特徴とする付記8に記載の画像処理装置。
(付記10)
前記外縁部の画像処理は、前記外縁部を非表示にする処理であることを特徴とする付記8に記載の画像処理装置。
(付記11)
コンピュータが、
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出し、
前記後に取得される画像の前記予測位置情報に応じた部分に画像処理を施す、
ことを特徴とする画像処理方法。
(付記12)
複数の前記位置情報および前記時刻情報に基づき前記予測位置情報に応じた部分に前記画像処理を施す範囲を算出し、
前記範囲に画像処理を施すことを特徴とする付記11に記載の画像処理方法。
(付記13)
複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度を算出し、
前記移動速度に基づき前記範囲を算出することを特徴とする付記12に記載の画像処理方法。
(付記14)
前記予測位置情報と、前記後から取得した画像における前記対象の位置情報とのずれを検出し、
前記ずれに応じて次に算出する前記範囲を調整することを特徴とする付記12または付記13に記載の画像処理方法。
(付記15)
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出し、
前記後に取得された画像の算出された前記予測位置情報に応じた部分に前記画像処理を施す、
処理をコンピュータに実行させるためのプログラム。
【符号の説明】
【0087】
1 画像処理システム
3 カメラ
5 画像処理装置
7 CPU
9 記録部
11 入出力部
13 外部記憶装置
15 ネットワーク接続部
17 表示装置
21 主制御部
23 顔検出部
25 予測位置算出部
29 ぼかしサイズ算出部
31 ぼかし用画像生成部
33 画像記録部
35 顔位置記録テーブル
50 顔
51 解析時位置
53 予測時位置
55 位置情報
57 予測位置情報
59、61、63 ぼかし範囲
65 顔検出サイズ
67 横余剰サイズ
69 縦余剰サイズ
77 ぼかし範囲
110 顔座標テーブル
【技術分野】
【0001】
本発明は、画像処理装置、画像処理方法およびプログラムに関する。
【背景技術】
【0002】
昨今では、犯罪の防止等のため、レストラン、ホテル、マンションのエントランスなど、プライバシー性が高い場所に監視カメラが設置されている場合がある。特に、このような監視カメラによる監視業務をアウトソーシングしているような場合、複数のサービス利用ユーザや複数の拠点を遠隔で監視することになり、関係者ではない人間が監視映像を目にする。このように、部外者が多数の情報を目にしてしまうため、個人情報や、公序良俗に反する内容を表示しないようにして、監視映像におけるプライバシーを保護することが望ましい。
【0003】
ところで、上記のような人通りのある場所の監視映像をリアルタイムで目視確認するシステムにおいては、人物の有無や不審行動などを監視すれば十分である。このため、被写体となる人物のプライバシーを考慮し、顔部分にモザイクなどのぼかしをかけるようなシステムが存在する。そして、不審者が現れた時のみ、監視員がぼかしを解除したり、現地の警備員へ連絡を行なったりする。
【0004】
このとき、顔の認識は、例えば、顔の画像及び顔でない画像の大量の画像サンプルから特徴量を学習して、入力画像の特徴量と比較することにより行う方法、判別能力の低い多数の識別器を組み合わせることにより、高い識別能力を実現する方法がある。特徴量の計算に用いるパターンは、輝度の境目(Edge)、線(Line)、包囲(Center−surround)のみで顔の認識を行うことができる。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2005−94642号公報
【非特許文献】
【0006】
【非特許文献1】Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.
【非特許文献2】Rainer Lienhart and JochenMaydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、リアルタイムで監視映像を目視確認するシステムでは、リアルタイムでぼかしの処理が必要な箇所を判断している。このため、顔を検知してから、例えばモザイクを付加するまでのタイムラグがあり、人物の動きが速い場合などに、ぼかしの処理を行なう位置がずれてしまうことがある。
【0008】
ぼかしの領域を大きくすれば位置がずれる現象の頻度は下がるが、ぼかしの部分を大きくしすぎると、監視業務自体に影響を与えてしまうため、ぼかしの領域は必要最小限にしたい。
【0009】
上記課題に鑑み、ぼかしの領域の位置がずれる可能性を低減でき、ぼかしの領域を必要最小限にできる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0010】
ひとつの態様である画像処理装置は、画像取得部と、対象検出部と、記録部と、予測位置情報算出部と、画像処理部を有している。画像取得部は、時系列に複数の画像を取得する。対象検出部は、前記画像取得部が取得した画像から画像処理を施す対象を検出する。記録部は、前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する。予測位置算出部は、前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出する。画像処理部は、前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に前記画像処理を施す。
【0011】
別の態様である画像処理方法において、コンピュータは、時系列に複数の画像を取得し、取得した前記複数の画像から画像処理を施す対象を検出し、検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録する。また、コンピュータは、前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出し、前記後に取得される画像の前記予測位置情報に応じた部分に画像処理を施す。
【0012】
なお、上述した本発明に係る方法をコンピュータに行わせるためのプログラムであっても、このプログラムを当該コンピュータによって実行させることにより、上述した本発明に係る方法と同様の作用効果を奏するので、前述した課題が解決される。
【発明の効果】
【0013】
上述した態様の画像処理装置、画像処理方法およびプログラムによれば、ぼかしの領域の位置がずれる可能性を低減でき、ぼかしの領域を必要最小限にできる。
【図面の簡単な説明】
【0014】
【図1】第1の実施の形態による画像処理システムの構成を示す図である。
【図2】第1の実施の形態による画像処理システムの機能を示すブロック図である。
【図3】第1の実施の形態による画像処理を説明する概略図である。
【図4】第1の実施の形態による顔座標の一例を示す表である。
【図5】第1の実施の形態によるぼかしサイズの算出方法を説明する図であり、(a)は、動きが比較的少ない場合、(b)は、(a)よりも動きが大きい場合、(c)は、予測位置情報に対するぼかしサイズの決定方法の一例を示す。
【図6】第1の実施の形態による画像処理の時間的な流れを説明する図である。
【図7】第1の実施の形態による画像処理システムの動作を示すフローチャートである。
【図8】第1の実施の形態による変形例1による画像処理の時間的な流れを説明する図である。
【図9】第1の実施の形態の変形例2による顔の予測座標範囲のずれを示す図である。
【図10】第1の実施の形態の変形例2による顔の予測位置と実際の位置とがずれた場合に補正を行なう方法を示す図である。
【図11】第2の実施の形態による表示画像の例を示す概念図である。
【図12】第2の実施の形態による画像処理システムの動作を示すフローチャートである。
【図13】第2の実施の形態の変形例による表示画像の例を示す概念図である。
【図14】標準的なコンピュータのハードウエア構成の一例を示すブロック図である。
【発明を実施するための形態】
【0015】
(第1の実施の形態)
以下、図面を参照しながら、第1の実施の形態による画像処理システム1について説明する。図1は、第1の実施の形態による画像処理システム1の構成を示す図、図2は、第1の実施の形態による画像処理システム1の機能を示すブロック図である。
【0016】
図1に示すように、画像処理システム1は、カメラ3、画像処理装置5、表示装置17を有しており、カメラ3で撮影した画像に画像処理装置5が所定の処理を施し、表示装置17に表示するシステムである。
【0017】
カメラ3は、例えば固体撮像素子を有し、動画を撮影する撮影装置である。画像処理装置5においては、Central Processing Unit(CPU)7、記録部9、入出力部11、外部記憶装置13、ネットワーク接続部15が互いにバス16を介して接続されている。画像処理装置5は、カメラ3から画像を取得し、所定の処理を施して表示装置17に出力する装置である。
【0018】
CPU7は、画像処理装置5全体の動作を制御する演算処理装置である。記録部9は、画像処理装置5の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。記録部9は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入出力部11は、カメラ3や不図示のキーボード装置、マウス装置などからの各種情報の入力を取得し、取得した入力情報をCPU7に送付するとともに、画像処理装置5内部での処理結果を表示装置17等に出力する装置である。
【0019】
外部記憶装置13は、例えば、ハードディスクなどの記憶装置であり、CPU7により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。バス16は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
【0020】
画像処理装置5に所定の処理を実行させるプログラムは、例えば外部記憶装置13に記憶させる。CPU7は、外部記憶装置13からプログラムを読み出し、画像処理装置5に画像処理の動作を行なわせる。このとき、図2に示すように、画像処理装置5は、主制御部21、顔検出部23、予測位置算出部25、ぼかしサイズ算出部29、ぼかし用画像生成部31、画像記録部33、および顔位置記録テーブル35として機能する。
【0021】
主制御部21は、画像処理装置5の動作を制御する。顔検出部23は、カメラ3から取得した画像から、例えばプライバシーを保護するため、ぼかしを施す対象(以下、単に対象ともいう)を検出し、その位置情報および時刻情報を顔位置記録テーブル35に記録する。本実施の形態において、対象は人の「顔」を例にして説明する。また、位置情報とは、ぼかす対象のフレームにおける座標範囲を示す情報である。時刻情報とは、対象を検出した時刻や検出したフレームの順を示す番号等、対象を検出した時刻の差を算出するための情報である。
【0022】
なお、顔の検出は、画像から特徴量を抽出して学習を行い、その結果と入力画像から抽出した特徴量とを比較することにより認識する方法など、既知の方法を用いることができる。顔検出の方法は、例えば非特許文献1または非特許文献2に記載されている。
【0023】
予測位置算出部25は、顔検出部23が記録した、ぼかす対象の位置情報および時刻情報に基づき、対象の所定時刻後の予測位置を算出する。予測位置とは、対象が所定時刻後に存在すると予測される座標範囲(以下、予測座標範囲という)である。
【0024】
ぼかしサイズ算出部29は、顔検出部23が記録した対象の位置情報および時刻情報に基づき、画像を見た際に対象を視認できないようにするために、ぼかし処理など所定の画像処理を施す座標範囲(以下、ぼかし範囲という)を算出する。ぼかし処理は、例えば画像にモザイクをかけるモザイク処理を採用するようにしてもよい。
【0025】
ぼかし用画像生成部31は、予測位置算出部25で算出された予測座標範囲を含む、ぼかしサイズ算出部29で算出された座標範囲をぼかし画像など所定の画像に置き換えるための画像を生成する。
【0026】
画像記録部33は、カメラ3から取得した画像を記録する。顔位置記録テーブル35は、顔検出部23で検出された対象の位置情報および時刻情報を記録する。画像記録部33、顔位置記録テーブル35は、例えば、外部記憶装置13に含まれるようにしてもよい。
【0027】
以上のように構成される画像処理装置5における画像処理について、図3から図10を参照しながら説明する。図3は、第1の実施の形態による画像処理を説明する概略図である。図3に示すように、歩行している人が写っている画像があるとする。このとき、解析時位置51において、顔検出部23が顔50の位置情報を位置情報55と検出する。位置情報は、画像のフレーム上の所定の点を原点とするXY座標系において顔50として検出された範囲の、例えば左上の座標(以下、顔座標という)と、検出された座標範囲(以下、検出座標範囲という)の大きさで表す。
【0028】
図4は、顔座標の一例を示す表である。図4に示すように、顔座標テーブル110によれば、例えば現在の顔座標(Xn、Yn)=(150、100)、1フレーム前の顔座標(Xn−1、Yn−1)=(250、140)、2フレーム前の顔座標(Xn−2、Yn−2)=(350、120)である。顔座標テーブル110は、顔位置記録テーブル35に記録される。また、顔位置記録テーブル35は、顔座標テーブル110と合わせて、位置情報の検出座標範囲を示す情報を格納することが好ましい。また、顔座標テーブル110において、「現在のフレーム」「1つ前のフレーム」「2つ前のフレーム」が、時刻情報に相当する。
【0029】
再び図3を参照して、例えば、現在の解析時位置51よりも後に撮影されたフレームにおいて、同じ人が予測時位置53に移動しているとする。このとき、予測位置算出部25は、検出された位置情報55および時刻情報と、それ以前に顔位置記録テーブル35に記録されている顔50の位置情報および時刻情報に基づき、予測時位置53における顔50の予測位置情報57を算出する。予測位置情報57は、顔50の予測時位置53における予測顔座標と予測座標範囲を含む情報である。
【0030】
例えば、n(自然数)をフレーム番号として、各フレームにおいて所定の点を原点とするXY座標系を定義したとき、各フレームにおける顔座標は、下記のように変化するものとする。
(X1、Y1)→(X2、Y2)→・・・→(Xn−1、Yn−1)→(Xn、Yn)
【0031】
例えば、顔の移動速度が一定と仮定すると、フレーム間の時間は一定であると考えられるので、顔座標のフレーム間の変化量ΔX、ΔYは、以下の式1のように表される。
ΔX=Xn−1−Xn−2、ΔY=Yn−1−Yn−2・・・(式1)
このとき、顔の予測位置における予測顔座標は、以下の式2で表される。
Xn=Xn−1+ΔX、Yn=Yn−1+ΔY・・・(式2)
【0032】
顔の移動において加速度も考慮すれば、顔座標の変化量は、下記式3のような算出例もある。
ΔXn=ΔXn−1+Δ2X
=ΔXn−1+(ΔXn−1−ΔXn−2)
=2ΔXn−1―ΔXn−2
=2(Xn−1―Xn−2)―(Xn−2―Xn−3)
=2Xn−1―3Xn−2+Xn−3
ΔYn=2Yn−1―3Yn−2+Yn−3・・・(式3)
【0033】
ぼかしサイズ算出部29は、検出された位置情報55およびその時刻情報と、それ以前に顔位置記録テーブル35に記録されている顔50の位置情報および時刻情報に基づき、ぼかし(例えば、モザイク)を施すぼかし範囲59を算出する。このとき、ぼかし範囲59は、例えば、上記式2または式3に基づいて算出された予測顔座標に基づく予測位置情報57における顔50の予測座標範囲を含む範囲とする。
【0034】
図5は、ぼかしサイズの算出方法を説明する図であり、(a)は、動きが比較的少ない場合、(b)は、(a)よりも動きが大きい場合、(c)は、予測座標範囲に対するぼかしサイズの決定方法の一例を示す。
【0035】
図5(a)に示すように、顔50が、速度ベクトル71、73、75により移動した場合、例えば、画像処理装置5は、ぼかし範囲61を採用する。図5(b)に示すように、顔50が、速度ベクトル79、81、83により移動した場合、図5(a)よりも大きく移動するため、画像処理装置5は、例えば、ぼかし範囲61よりも大きいぼかし範囲63を採用することが好ましい。顔50の動きが大きい場合には、顔50が算出したぼかし範囲からはずれる可能性が高くなるからである。
【0036】
よって、図5(c)に示すように、ぼかしサイズ算出部29は、ぼかし範囲を、対象の移動速度に応じて決定する。すなわち、ぼかしサイズ算出部29は、顔50の予測位置情報57における顔検出サイズ65に対して、横余剰サイズ67=C×|Vx|をX方向の両側に加え、縦余剰サイズ69=C×|Vy|をY方向の両側に加えた範囲を、ぼかし範囲77とする。ここで、Cは、ぼかし範囲を決める係数、|Vx|は、顔50のX方向の移動速度ベクトルの絶対値、|Vy|は、顔50のY方向の移動速度ベクトルの絶対値である。なお、例えば、点78は、予測位置情報57における顔座標に対応する点である。
【0037】
図6は、第1の実施の形態による画像処理の時間的な流れを説明する図である。図6に示すように、カメラ3によりフレーム90−1〜90−8が時系列に撮影されているとする。図6の例では、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定している。顔検出部23は、主制御部21がカメラ3から取得したフレーム90−1において顔50を検出し、位置情報55と対応する時刻情報を顔位置記録テーブル35に記録する。
【0038】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報55および時刻情報から予測位置情報57を算出する。このとき、フレーム90−1より前の情報がある場合には、例えばフレーム90−1の一つ前、または一つ前と二つ前の不図示のフレーム90の位置情報および時刻情報を参照して予測位置情報57を算出する。ぼかしサイズ算出部29は、顔位置記録テーブル35に記録された位置情報55および時刻情報、並びに、例えばフレーム90−1の一つ前、または一つ前と二つ前の不図示のフレーム90の位置情報および時刻情報から、例えばぼかし範囲77を算出する。なお、顔位置記録テーブル35にフレーム90−1よりも前の情報がない場合には、予め位置情報55に基づいたぼかし範囲77の算出方法を定めておくようにしてもよい。
【0039】
ぼかし用画像生成部31は、算出された予測位置情報57およびぼかし範囲77に基づき、ぼかし用画像を生成し、矢印94のように、フレーム90−3に重畳する。このとき、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定しているため、同様に、フレーム90−4、90−5にもそれぞれ矢印96、98のように、フレーム90−1と同様のぼかし用画像を重畳することになる。
【0040】
続いて、顔検出部23は、主制御部21によりカメラ3から最新に取得されたフレームであるフレーム90−4について、フレーム90−1について上記のように行った処理と同様に検出および算出処理を行う。そして、ぼかし用画像生成部31が生成したぼかし用画像を、矢印102〜106のようにフレーム90−6〜90−8に重畳する。以上の処理を繰り返すことにより、図6の例では、フレーム90−3以降のフレームのぼかし処理が可能となる。
このとき、ぼかし用画像は、例えば全面同一色の画像など、フレーム90にかかわらず予め決められた画像とする。
【0041】
以下、画像処理システム1の動作をフローチャートを参照しながら説明する。図7は、第1の実施の形態による画像処理システム1の動作を示すフローチャートである。図7に示すように、主制御部21は、カメラ3の映像の最新のフレームを取得する(S131)。このとき同時に、主制御部21は、画像記録部33にカメラ3の映像を記録させる。
【0042】
顔検出部23は、取得されたフレームから、顔位置の検出を行ない、検出結果を顔位置記録テーブル35に記録する(S132)。すなわち、顔検出部23は、顔50の位置情報と時刻情報を検出し、顔位置記録テーブル35に記録する。このとき、位置情報として、上述したように、顔50の顔座標(Xn、Yn)を求めるとともに、顔50に応じた検出座標範囲を検出する。検出座標範囲は、例えば、X方向の長さ(幅)、Y方向の長さ(高さ)により表すとする。時刻情報は、検出した時刻を記録してもよいし、フレームの番号を表す情報など、情報を検出した時刻の相対関係を示す情報であればよい。
【0043】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報及び時刻情報を参照し、図6の例では、2フレーム先の顔50の予測位置情報を算出する(S133)。このとき、顔位置記録テーブル35において、参照される位置情報及び時刻情報の数(フレームの数に対応する)は、上述のように、予測位置情報を顔50の速度のみを考慮して算出するか、加速度まで考慮して算出するかなど、算出方法により変更される。
【0044】
ぼかしサイズ算出部29は、S133で算出された予測位置情報と、予測位置情報を算出する際に算出される顔50の移動速度から、例えば図5のように、ぼかし範囲77を算出する(S134)。ぼかし範囲77は、ぼかし範囲77の例えば左上の座標(ぼかし座標という)と、ぼかし範囲77の幅及び高さで表すことができる。
【0045】
ぼかし用画像生成部31は、ぼかしサイズ算出部29により算出されたぼかし範囲77に、所定の色などを施すぼかし用画像を生成する(S136)。主制御部21は、ぼかし用画像生成部31が生成したぼかし用画像を取得し、取得したぼかし用画像を、その時点でのカメラ3の映像の最新のフレームに重ね合わせることにより、表示装置17に表示する画像を生成して表示させる。主制御部21は、表示装置17に表示させた画像の次のフレームの画像を取得すると、S131からの処理を繰り返す。
【0046】
以上詳細に説明したように、第1の実施の形態による画像処理システム1によれば、主制御部21がカメラ3の映像の最新のフレームを取得すると、顔検出部23が顔50の位置情報と時刻情報とを取得し、顔位置記録テーブル35に記録する。予測位置算出部25は、顔位置記録テーブル35を参照して、顔50の移動速度、移動加速度などを考慮し、例えば3フレーム後の顔50の予測位置情報を算出する。ぼかしサイズ算出部29は、顔50の移動速度、移動加速度などを考慮して、例えばぼかし範囲77を算出する。ぼかし用画像生成部31は、算出された予測位置情報に応じたぼかし範囲77にぼかしをかけるためのぼかし用画像を生成する。主制御部21は、ぼかし用画像を、取得した最新のフレームに重ね合わせて表示用画像を生成し、表示装置17に表示する。
【0047】
以上のように、第1の実施の形態による画像処理システム1によれば、過去の複数のフレームからぼかしの対象の動きを予測し、ぼかしを施すぼかし範囲を算出するので、処理を実行している間に対象が動いても、適切にぼかしを施すことが可能になる。また、対象の移動速度に基づいてぼかし範囲を算出するので、必要以上に広範囲にぼかしを施すことを回避でき、監視などの業務に支障をきたすことを防止できる。
【0048】
(第1の実施の形態の変形例1)
次に、図8を参照しながら第1の実施の形態の変形例による画像処理システム1について説明する。本変形例は、第1の実施の形態による画像処理システム1におけるぼかしの処理の変形例である。第1の実施の形態の変形例1による画像処理システムにおいて、第1の実施の形態による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第1の実施の形態の変形例1による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0049】
図8は、第1の実施の形態の変形例1による画像処理の時間的な流れを説明する図である。図8に示すように、カメラ3によりフレーム140−1〜140−8が時系列に撮影されているとする。図8の例では、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定している。顔検出部23は、フレーム140−1を画像記録部33より読み出し、顔50を検出し、位置情報55と対応する時刻情報を顔位置記録テーブル35に記録する。
【0050】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報55および時刻情報から予測位置情報57を算出する。このとき、フレーム140−1より前の情報がある場合には、例えばフレーム140−1の一つ前、または一つ前と二つ前の不図示のフレーム140の位置情報および時刻情報も参照する。ぼかしサイズ算出部29は、顔位置記録テーブル35に記録された位置情報55および時刻情報、並びに、例えばフレーム140−1の一つ前、または一つ前と二つ前の不図示のフレーム140の位置情報および時刻情報から、例えばぼかし範囲77を算出する。
【0051】
ぼかし用画像生成部31は、算出された予測位置情報57およびぼかし範囲77に基づき、ぼかし用画像を生成する。このとき、ぼかし用画像生成部31は、矢印144のように、ぼかし用画像生成部31で算出されたぼかし範囲77をぼかしの処理に必要な情報として取得するとともに、主制御部21がカメラ3から取得した最新のフレームを、矢印146のように取得する。ぼかし用画像生成部31は、取得したフレームにおけるぼかし範囲77の内部を、例えば通常よりも大きい画素に再分割して、分割された各画素において輝度の平均をとるなど、ぼかしの処理を行う。
【0052】
ぼかし用画像生成部31は、ぼかしの処理を施された画像を矢印148のようにフレーム140−3とする。このとき、顔の位置の検出およびぼかし範囲の算出に2フレーム分の時間がかかると仮定しているため、同様に、フレーム140−4、140−5にもそれぞれ矢印150、152のように、フレーム140−1と同様の上記のようなぼかしの処理を行うことになる。
【0053】
続いて、顔検出部23は、主制御部21が取得したフレーム140−4について、フレーム140−1について上記のように行った処理と同様に検出、算出及びぼかしの処理を行う。ぼかし用画像生成部31は、生成したぼかしの処理を施した画像を、矢印157のようにフレーム140−6とする。ぼかし用画像生成部31は、それぞれのフレーム140−7、140−8のぼかし範囲77に対応する部分に解像度を下げる処理を行い、それぞれフレーム140−7、140−8として表示装置17に表示する。以上の処理を繰り返すことにより、図8の例では、フレーム140−3以降のフレームのぼかし処理が可能となる。
【0054】
以上説明したように、本変形例では、第1の実施の形態では予め決められた画像に置き換えたぼかし範囲77について、カメラ3から取得した画像に基づいたぼかしの処理を行う。これにより、第1の実施の形態による画像処理システム1による効果に加え、ぼかしの処理を行った画像の違和感を多少低減させることができる。また、ぼかしの処理の具体的な方法を変えることにより、対象のプライバシーを侵害することなく、動きの概要を視認できるようなぼかしの処理を行うなど、利用環境に応じた処理とすることも可能である。
【0055】
(第1の実施の形態の変形例2)
次に、第1の実施の形態による変形例2について、図9、図10を参照しながら説明する。本変形例は、第1の実施の形態及びその変形例1における、ぼかし範囲77の算出方法の変形例である。第1の実施の形態の変形例2による画像処理システムにおいて、第1の実施の形態、またはその変形例1による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第1の実施の形態の変形例2による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0056】
図9は、第1の実施の形態の変形例1による表示用フレーム160を示している。上段は、表示するフレームを概念的に示し、下段は、ぼかし範囲が適切か否かを判別する方法を示している。図9に示すように、最新のフレームがフレーム160−2の場合、範囲162に示すフレーム160−1、フレーム160−2のぼかしの処理の対象の位置情報及び時刻情報に基づき、予測位置算出部25は、対象の予測位置情報を算出する。また、主制御部21は、ぼかしサイズ算出部29が算出したぼかし範囲に基づき、フレーム160−4の元画像にぼかし範囲166のぼかしを重畳した画像を表示画像とする。
【0057】
ここで、予測位置算出部25は、フレーム160−4における予測位置情報として、図9の下段に示すように、予測顔位置情報168を算出したとする。主制御部21は、フレーム160−4において実際の顔の位置を、実測顔位置情報170と検出したとする。
【0058】
図10は、予測した顔の位置と実際の位置とがずれた場合に補正を行なう方法を示している。図10において、予測顔位置情報168に基づきぼかし範囲166が設定されており、それに対して実際の対象から検出された対象の範囲は、実測顔位置情報170である。
【0059】
ここで、ぼかし範囲166では、高さHm=Cx×|Vx|、幅Wm=Cy×|Vy|であるとする。予測顔位置情報168においては、左上の座標が(Xpre、Ypre)、X方向の長さを幅Wpre、Y方向の長さを高さhpreとする。実測顔位置情報170においては、左上の座標が(Xres、Yres)、X方向の長さを幅Wres、Y方向の長さを高さhresとする。
【0060】
このとき、Cx、Cyを、以下の式4を判別式として、予測顔位置情報168と実測顔位置情報170とのずれに応じて変化させる。以下、X方向を例にして説明する。
|Xpre−Xres|+Wres/2≦Wm/2・・・(式4)
【0061】
式4を満たすときには、主制御部21は、実測顔位置情報170がぼかし範囲166からはみ出してはいないと判別する。式4を満たさない場合には、主制御部21は、実測顔位置情報170の少なくとも一部がぼかし範囲166からはみ出していると判別する。この場合には、主制御部21は、ぼかしサイズ算出部29におけるぼかしサイズ算出の際の係数Cxを増加させる。
【0062】
このとき、係数Cxは、例えば、ぼかし範囲166に実測顔位置情報170がちょうど収まるサイズになるように、以下の式5のように定める。
|Xpre−Xres|+Wres/2=Wm/2=(Cx×|Vx|)/2・・・(式5)
すなわち、係数Cxは、以下の式6で表される。
Cx=(2|Xpre−Xres|+Xres)/|Vx|・・・(式6)
Y方向についても同様に算出することにより、以下の式7が得られる。
Cy=(2|Ypre−Yres|+Yres)/|Vy|・・・(式7)
【0063】
以上説明したように、本変形例では、第1の実施の形態及びその変形例2においては固定値であった係数Cx、Cyを、顔50が算出されたぼかし範囲からはみ出していると判別された場合に、増加させる。このとき、係数Cx、Cyは、予測した顔50の位置と、実際の顔50の位置とのずれに基づき変化させる。これにより、第1の実施の形態による画像処理システム1による効果に加え、さらに的確な範囲にぼかしの処理を行うことができる。また、ぼかしの処理がより的確な範囲に行われるので、対象のプライバシーを侵害することなく、画像による監視等をさらに十分に行うことも可能である。
【0064】
(第2の実施の形態)
以下、図11、図12を参照しながら、第2の実施の形態による画像処理システムについて説明する。第2の実施の形態による画像処理システムにおいて、第1の実施の形態、その変形例1、または変形例2による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第2の実施の形態による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0065】
図11は、本実施の形態による表示画像の例を示す概念図、図12は、第2の実施の形態による画像処理システム1の動作を示すフローチャートである。図11に示すように、本実施の形態においては、表示画像200における外縁部202が、常にぼかし処理を行った状態で表示される。
【0066】
表示画像200には、人204が撮影されている。表示画像200の元の画像であるフレームにおいて、人204の顔206は、第1の実施の形態及びその変形例1、2で説明したように、顔検出部23により検出されてぼかしの処理を行う対象であるとする。上述のように、画像処理システム1においては、主制御部21が取得したフレームについて顔検出部23が顔206を検出し、例えば2フレーム後のフレームにおける顔206の位置を予測してぼかし範囲にぼかしの処理を行う。よって、顔検出部23が顔206を検出した直後はぼかしの処理が行われず、もとの画像がそのまま表示されてしまい、プライバシーが侵害されることがある。
【0067】
例えば、人204が、表示画像200における矢印208の方向に移動してきたとする。すなわち、人204は、表示画像200の向かって右側の端から移動してきたとする。このとき、例えば人204が表示画像200の右側の端に近い領域に撮影される間は、ぼかしの処理が間に合わずに、そのままの画像が表示される。そこで本実施の形態においては、表示画像200における外縁部202に常にぼかし処理を行った状態で表示することにより、ぼかしの処理が間に合わない間、ぼかしの対象が撮影されると推定される領域に常にぼかしの処理を行った状態で表示する。
【0068】
以下、図12を参照しながら本実施の形態による画像処理システム1の動作について説明する。図12に示すように、主制御部21は、カメラ3の映像の最新のフレームを取得する(S211)。このとき同時に、主制御部21は、画像記録部33にカメラ3の映像を記録させる。
【0069】
顔検出部23は、取得されたフレームから、顔位置の検出を行ない、検出結果を顔位置記録テーブル35に記録する(S212)。すなわち、顔検出部23は、顔206の位置情報と時刻情報を検出し、顔位置記録テーブル35に記録する。
【0070】
予測位置算出部25は、顔位置記録テーブル35に記録された位置情報及び時刻情報を参照し、例えば、2フレーム先の顔206の予測位置情報を算出する(S213)。このとき、顔位置記録テーブル35において、参照される位置情報及び時刻情報の数(フレームの数に対応する)は、上述のように、予測位置情報を顔206の速度のみを考慮して算出するか、加速度まで考慮して算出するかなど、算出方法により変更される。
【0071】
ぼかしサイズ算出部29は、S213で算出された予測位置情報と、予測位置情報を算出する際に算出される顔206の移動速度から、ぼかし範囲を算出する(S214)。ぼかし用画像生成部31は、ぼかしサイズ算出部29により算出されたぼかし範囲に、所定の色などを施すぼかし用画像を生成する(S215)。
【0072】
一方、主制御部21は、S211でカメラ3が取得した画像の外縁部202の解像度を下げる処理を行う(S216)。ここで、解像度を下げる処理は、例えば、外縁部202全体を均一な色及び輝度の画像に置き換える処理とすることもできる。主制御部21は、ぼかし用画像生成部31が生成したぼかし用画像を取得し、取得したぼかし用画像を、その時点でのカメラ3の映像の最新のフレームに、S216の処理を施した画像と重ね合わせることにより、表示装置17に表示する画像を生成して表示させる。主制御部21は、表示装置17に表示させた画像の次のフレームの画像を取得すると、S131からの処理を繰り返す。
【0073】
以上説明したように、第2の実施の形態による画像処理システム1においては、表示画像200の外縁部202は、常に解像度が低い状態で表示される。これにより、表示画像の端部に初めてぼかしの処理の対象が登場した場合に、ぼかしの処理が間に合わずにプライバシーを侵害することを防止することができる。
【0074】
(第2の実施の形態の変形例)
次に、第2の実施の形態による変形例について、図13を参照しながら説明する。第2の実施の形態による画像処理システムにおいて、第1の実施の形態、その変形例1、変形例2、または、第2の実施の形態による画像処理システム1と同様の構成及び動作については、同一の符号を付し、重複説明を省略する。第2の実施の形態の変形例による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。
【0075】
図13は、本変形例による表示画像の例を示す概念図である。図13に示すように、本実施の形態においては、カメラより取得されたフレーム230における外縁部232を除いた画像234が表示される。
【0076】
フレーム230において撮影されている人204が、矢印208のように、表示画像200の向かって右側の端から移動してきたとする。上述のように、画像処理システム1においては、主制御部21が取得したフレーム230について顔検出部23が顔206を検出し、例えば2フレーム後のフレームにおける顔206の位置を予測して、算出されたぼかし範囲にぼかしの処理を行う。よって、顔検出部23が顔206を検出した直後はぼかしの処理が行われず、もとの画像がそのまま表示されてしまい、プライバシーが侵害されることがある。そこで本変形例においては、フレーム230における外縁部232を表示せず、画像234を表示する。表示方法は、画像234をフレーム230の大きさに拡大して表示してもよいし、外縁部232を未表示の状態としてもよい。
【0077】
本変形例による画像処理は、第2の実施の形態による画像処理システム1の動作と、図12のS216の表示用画像処理の内容以外は同一である。本変形例では、S216の表示用画像処理において、上述のように、画像234を不図示の画面いっぱいに表示するなど、外縁部232が表示されないような処理を施す。
【0078】
以上説明したように、第2の実施の形態による画像処理システム1においては、表示画像200の外縁部202は、常に解像度が低い状態で表示される。これにより、表示画像の端部にはじめてぼかしの処理の対象が登場した場合に、ぼかしの処理が間に合わずにプライバシーを侵害することを防止することができる。
【0079】
上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例において、主制御部21は、画像取得部、画像処理部の一例であり、顔検出部23は、対象検出部の一例であり、顔位置記録テーブル35は、記録部の一例である。予測位置算出部25は、予測位置情報算出部及び移動速度算出部の一例であり、ぼかしサイズ算出部29は、範囲算出部の一例である。
【0080】
なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。
例えば、上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例において、ぼかしの処理の対象のぼかし範囲を長方形としているが、例えば所定の半径の円の範囲など、他の形状でもよい。ぼかし範囲は、対象の移動速度に応じて変化させるようにしたが、例えば、撮影開始時には、検出されたぼかしの対象の位置情報における検出座標範囲の定数倍など、対象の移動速度とは独立したぼかし範囲とするようにしてもよい。
【0081】
ぼかし範囲を決定する際に、直前のフレームにおける対象の位置との間の移動速度及び移動加速度を参照したが、例えば、図5における、ベクトル71、73、75の総和のベクトルに基づき移動速度及び移動加速度を参照するなど、変形が可能である。
【0082】
上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例は、例えば、第1の実施の形態と第2の実施の形態の変形例とを組み合わせるなど、実現可能な任意の組み合わせが可能である。
【0083】
ここで、上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例による画像処理の動作をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。図14は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図14に示すように、コンピュータ300は、Central Processing Unit(CPU)302、記録部9、入力装置306、出力装置308、外部記憶装置312、媒体駆動装置314、ネットワーク接続装置等がバス310を介して接続されている。CPU302は、コンピュータ300全体の動作を制御する演算処理装置である。記録部9は、コンピュータ300の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。記録部9は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置306は、コンピュータの使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU302に送付する装置であり、例えばキーボード装置、マウス装置などである。出力装置308は、コンピュータ300による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU302により送付される表示データに応じてテキストや画像を表示する。
【0084】
外部記憶装置312は、例えば、ハードディスクなどの記憶装置であり、CPU302により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置314は、可搬記録媒体316に書き込みおよび読み出しを行うための装置である。CPU302は、可搬型記録媒体316に記録されている所定の制御プログラムを、記録媒体駆動装置314を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体316は、例えばConpact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置318は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス310は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
【0085】
上記第1の実施の形態、その変形例1、変形例2、第2の実施の形態、及びその変形例による画像処理をコンピュータに実行させるプログラムは、例えば外部記憶装置312に記憶させる。CPU302は、外部記憶装置312からプログラムを読み出し、コンピュータ300に画像処理の動作を行なわせる。このとき、まず、画像処理の動作をCPU302に行わせるための制御プログラムを作成して外部記憶装置312に記憶させておく。そして、入力装置306から所定の指示をCPU302に与えて、この制御プログラムを外部記憶装置312から読み出させて実行させるようにする。また、このプログラムは、可搬記録媒体316に記憶するようにしてもよい。
【0086】
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
時系列に複数の画像を取得する画像取得部と、
前記画像取得部が取得した画像から画像処理を施す対象を検出する対象検出部と、
前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する記録部と、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出する予測位置情報算出部と、
前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に画像処理を施す画像処理部と、
を有することを特徴とする画像処理装置。
(付記2)
複数の前記位置情報および前記時刻情報に基づき前記画像処理を施す範囲を算出する範囲算出部、
をさらに有し、
前記画像処理部は、前記範囲に前記画像処理を施すことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記画像処理は、前記対象を識別不可能にするための処理であることを特徴とする付記1または付記2に記載の画像処理装置。
(付記4)
複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度を算出する移動速度算出部、
をさらに有し、
前記範囲算出部は、前記移動速度に基づき前記範囲を算出することを特徴とする付記2に記載の画像処理装置。
(付記5)
前記予測位置情報と、前記後に取得された画像における前記対象の位置情報とのずれを検出するずれ検出部、
をさらに有し、
前記範囲算出部は、前記ずれに応じて次に算出する前記範囲を調整することを特徴とする付記2または付記4に記載の画像処理装置。
(付記6)
前記予測位置情報算出部は、前記移動速度に基づき前記予測位置情報を算出することを特徴とする付記4に記載の画像処理装置。
(付記7)
前記移動速度算出部は、複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度および移動加速度を求め、
前記予測位置情報算出部は、前記移動速度および前記移動加速度に基づき前記予測位置情報を算出することを特徴とする付記4に記載の画像処理装置。
(付記8)
前記画像取得部が取得した画像の外縁部に画像処理を行う画像処理部、
をさらに有し、
前記予測位置情報に応じた部分に画像処理を行う前記画像処理部は、前記外縁部に画像処理を行った画像にさらに前記予測位置情報に応じた部分に画像処理を行うことを特徴とする付記1から付記7のいずれかに記載の画像処理装置。
(付記9)
前記外縁部の画像処理は、モザイク処理であることを特徴とする付記8に記載の画像処理装置。
(付記10)
前記外縁部の画像処理は、前記外縁部を非表示にする処理であることを特徴とする付記8に記載の画像処理装置。
(付記11)
コンピュータが、
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出し、
前記後に取得される画像の前記予測位置情報に応じた部分に画像処理を施す、
ことを特徴とする画像処理方法。
(付記12)
複数の前記位置情報および前記時刻情報に基づき前記予測位置情報に応じた部分に前記画像処理を施す範囲を算出し、
前記範囲に画像処理を施すことを特徴とする付記11に記載の画像処理方法。
(付記13)
複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度を算出し、
前記移動速度に基づき前記範囲を算出することを特徴とする付記12に記載の画像処理方法。
(付記14)
前記予測位置情報と、前記後から取得した画像における前記対象の位置情報とのずれを検出し、
前記ずれに応じて次に算出する前記範囲を調整することを特徴とする付記12または付記13に記載の画像処理方法。
(付記15)
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出し、
前記後に取得された画像の算出された前記予測位置情報に応じた部分に前記画像処理を施す、
処理をコンピュータに実行させるためのプログラム。
【符号の説明】
【0087】
1 画像処理システム
3 カメラ
5 画像処理装置
7 CPU
9 記録部
11 入出力部
13 外部記憶装置
15 ネットワーク接続部
17 表示装置
21 主制御部
23 顔検出部
25 予測位置算出部
29 ぼかしサイズ算出部
31 ぼかし用画像生成部
33 画像記録部
35 顔位置記録テーブル
50 顔
51 解析時位置
53 予測時位置
55 位置情報
57 予測位置情報
59、61、63 ぼかし範囲
65 顔検出サイズ
67 横余剰サイズ
69 縦余剰サイズ
77 ぼかし範囲
110 顔座標テーブル
【特許請求の範囲】
【請求項1】
時系列に複数の画像を取得する画像取得部と、
前記画像取得部が取得した画像から画像処理を施す対象を検出する対象検出部と、
前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する記録部と、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出する予測位置情報算出部と、
前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に画像処理を施す画像処理部と、
を有することを特徴とする画像処理装置。
【請求項2】
複数の前記位置情報および前記時刻情報に基づき前記画像処理を施す範囲を算出する範囲算出部、
をさらに有し、
前記画像処理部は、前記範囲に前記画像処理を施すことを特徴とする請求項1に記載の画像処理装置。
【請求項3】
複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度を算出する移動速度算出部、
をさらに有し、
前記範囲算出部は、前記移動速度に基づき前記範囲を算出することを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記予測位置情報と、前記後に取得された画像における前記対象の位置情報とのずれを検出するずれ検出部、
をさらに有し、
前記範囲算出部は、前記ずれに応じて次に算出する前記範囲を調整することを特徴とする請求項2または請求項3に記載の画像処理装置。
【請求項5】
前記予測位置情報算出部は、前記移動速度に基づき前記予測位置情報を算出することを特徴とする請求項3に記載の画像処理装置。
【請求項6】
前記移動速度算出部は、複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度および移動加速度を求め、
前記予測位置情報算出部は、前記移動速度および前記移動加速度に基づき前記予測位置情報を算出することを特徴とする請求項3に記載の画像処理装置。
【請求項7】
前記画像取得部が取得した画像の外縁部に画像処理を行う画像処理部、
をさらに有し、
前記予測位置情報に応じた部分に画像処理を行う前記画像処理部は、前記外縁部に画像処理を行った画像にさらに前記予測位置情報に応じた部分に画像処理を行うことを特徴とする請求項1から請求項6のいずれかに記載の画像処理装置。
【請求項8】
コンピュータが
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出し、
前記後に取得される画像の前記予測位置情報に応じた部分に画像処理を施す、
ことを特徴とする画像処理方法。
【請求項9】
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出し、
前記後に取得された画像の算出された前記予測位置情報に応じた部分に前記画像処理を施す、
処理をコンピュータに実行させるためのプログラム。
【請求項1】
時系列に複数の画像を取得する画像取得部と、
前記画像取得部が取得した画像から画像処理を施す対象を検出する対象検出部と、
前記対象検出部が検出した前記対象の位置情報をそれぞれの時刻情報とともに記録する記録部と、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出する予測位置情報算出部と、
前記後に取得される画像の前記予測位置情報算出部により算出された前記予測位置情報に応じた部分に画像処理を施す画像処理部と、
を有することを特徴とする画像処理装置。
【請求項2】
複数の前記位置情報および前記時刻情報に基づき前記画像処理を施す範囲を算出する範囲算出部、
をさらに有し、
前記画像処理部は、前記範囲に前記画像処理を施すことを特徴とする請求項1に記載の画像処理装置。
【請求項3】
複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度を算出する移動速度算出部、
をさらに有し、
前記範囲算出部は、前記移動速度に基づき前記範囲を算出することを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記予測位置情報と、前記後に取得された画像における前記対象の位置情報とのずれを検出するずれ検出部、
をさらに有し、
前記範囲算出部は、前記ずれに応じて次に算出する前記範囲を調整することを特徴とする請求項2または請求項3に記載の画像処理装置。
【請求項5】
前記予測位置情報算出部は、前記移動速度に基づき前記予測位置情報を算出することを特徴とする請求項3に記載の画像処理装置。
【請求項6】
前記移動速度算出部は、複数の前記位置情報および前記時刻情報に基づき前記対象の移動速度および移動加速度を求め、
前記予測位置情報算出部は、前記移動速度および前記移動加速度に基づき前記予測位置情報を算出することを特徴とする請求項3に記載の画像処理装置。
【請求項7】
前記画像取得部が取得した画像の外縁部に画像処理を行う画像処理部、
をさらに有し、
前記予測位置情報に応じた部分に画像処理を行う前記画像処理部は、前記外縁部に画像処理を行った画像にさらに前記予測位置情報に応じた部分に画像処理を行うことを特徴とする請求項1から請求項6のいずれかに記載の画像処理装置。
【請求項8】
コンピュータが
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に撮影される画像における前記対象の予測位置情報を算出し、
前記後に取得される画像の前記予測位置情報に応じた部分に画像処理を施す、
ことを特徴とする画像処理方法。
【請求項9】
時系列に複数の画像を取得し、
取得した前記複数の画像から画像処理を施す対象を検出し、
検出された前記対象の位置情報をそれぞれの時刻情報とともに記録部に記録し、
前記記録部に記録された複数の前記位置情報および前記時刻情報に基づき、前記複数の画像より後に取得される画像における前記対象の予測位置情報を算出し、
前記後に取得された画像の算出された前記予測位置情報に応じた部分に前記画像処理を施す、
処理をコンピュータに実行させるためのプログラム。
【図2】
【図4】
【図7】
【図12】
【図13】
【図14】
【図1】
【図3】
【図5】
【図6】
【図8】
【図9】
【図10】
【図11】
【図4】
【図7】
【図12】
【図13】
【図14】
【図1】
【図3】
【図5】
【図6】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2013−65994(P2013−65994A)
【公開日】平成25年4月11日(2013.4.11)
【国際特許分類】
【出願番号】特願2011−202576(P2011−202576)
【出願日】平成23年9月16日(2011.9.16)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】
【公開日】平成25年4月11日(2013.4.11)
【国際特許分類】
【出願日】平成23年9月16日(2011.9.16)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】
[ Back to top ]