説明

画像処理装置及び方法

【課題】動く主要被写体を精度良く抽出できる画像処理装置を提供すること。
【解決手段】画像処理装置は、処理対象画像61に対して、特徴量マップFc,Fh,Fsを統合した顕著性マップSを求めて、複数段階の注目点領域62−1乃至62−Nを推定する(ステップSa,Sb)。画像処理装置は、複数段階の注目点領域62−1乃至62−Nを用いて注目点領域のコア領域63−1,63−2を抽出し、それらに基づいて、主要被写体の領域の種64−1,64−2、及び、背景領域の種65−1,65−2を設定する(ステップSc,Sd)。画像処理装置は、主要被写体の事前確率Pr(O)の初期値と、背景領域の事前確率Pr(B)の初期値とを求める(ステップSe)。画像処理装置は、Graph Cuts法による領域分割処理を実行する(ステップSf)。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置及び方法に関し、特に、動く主要被写体を精度良く抽出する技術に関する。
【背景技術】
【0002】
従来より、デジタルカメラの分野において、動きを伴った切抜き合成技術が研究開発されている(特許文献1,2参照)。これらの技術によれば、例えば、連写撮影された複数のフレーム画像毎に、動く主要被写体がそれぞれ抽出される。複数のフレーム画像毎に抽出された動く主要被写体の組は、任意の他の静止画像に貼付け合成又は混合合成される。これにより、新しい合成動画像が生成され、その再生が可能になる。
【0003】
近年、家庭用ムービーなどを用いて、実際の多様な情景を背景にして撮影された一般的な動画像などに対しても、動きを伴った切抜き合成技術を利用したいという要望が挙げられている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開平11−331693号公報
【特許文献2】特開2005−6191号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1,2を含め従来の技術では、このような一般的な動画像から、動く主要被写体を精度良く抽出することは困難である。例えば特許文献2では、動きベクトルで判断しているため、カメラが主要被写体を追ってしまうとうまく抽出することは困難になる。すなわち、かかる要望に十分に応えることが可能な技術が、見受けられない状況である。
【0006】
そこで、本発明は、動く主要被写体を精度良く抽出することを目的とする。
【課題を解決するための手段】
【0007】
本発明の第1の観点によると、主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、前記推定部により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割部と、前記入力画像から、前記分割部により分割された前記主要被写体の領域を抽出する抽出部と、を備える画像処理装置を提供する。
【0008】
本発明の第2の観点によると、前記分割部は、前記注目点領域を含む所定領域から定義したエネルギー関数を用いる所定のアルゴリズムにしたがって、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する画像処理装置を提供する。
【0009】
本発明の第3の観点によると、前記所定のアルゴリズムは、Graph Cuts法である画像処理装置を提供する。
【0010】
本発明の第4の観点によると、前記入力画像から輪郭線若しくはエッジ形状を抽出する輪郭線抽出部をさらに備え、前記分割部は、前記輪郭線抽出部により抽出された前記輪郭線又は前記エッジ形状により特定される輪郭線のうち、前記注目点領域と重なる輪郭線の内側領域を前記主要被写体の領域とし、当該輪郭線の外側領域を前記背景領域とすることで、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する画像処理装置を提供する。
【0011】
本発明の第5の観点によると、主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、前記推定ステップの処理により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割ステップと、前記入力画像から、前記分割ステップの処理により分割された前記主要被写体の領域を抽出する抽出ステップと、を含む画像処理方法を提供する。
【発明の効果】
【0012】
本発明によれば、動く主要被写体を精度良く抽出することができる。
【図面の簡単な説明】
【0013】
【図1】本発明の第1実施形態に係る画像処理装置のハードウェアの構成図である。
【図2】本発明の第1実施形態における動くキャラクタ抽出処理の結果の具体例を示す図である。
【図3】本発明の第1実施形態における動くキャラクタ抽出処理の概略を説明する図である。
【図4】本発明の第1実施形態における撮影モード処理の流れの一例を示すフローチャートである。
【図5】本発明の第1実施形態における撮影モード処理のうちの動くキャラクタ抽出処理の流れの詳細例を示すフローチャートである。
【図6】本発明の第1実施形態における動くキャラクタ抽出処理のうちの顕著性マップ抽出処理の流れの詳細の一例を示すフローチャートである。
【図7】本発明の第1実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの一例を示すフローチャートである。
【図8】本発明の第1実施形態における撮影モード処理のうちの特徴量マップ作成処理の流れの別の例を示すフローチャートである。
【発明を実施するための形態】
【0014】
〔第1実施形態〕
以下、本発明の第1実施形態を図面に基づいて説明する。
図1は、本発明の第1実施形態に係る画像処理装置100のハードウェアの構成を示す図である。画像処理装置100は、例えばデジタルカメラにより構成することができる。
【0015】
画像処理装置100は、光学レンズ装置1と、シャッタ装置2と、アクチュエータ3と、CMOSセンサ4と、AFE5と、TG6と、DRAM7と、DSP8と、CPU9と、RAM10と、ROM11と、液晶表示コントローラ12と、液晶ディスプレイ13と、操作部14と、メモリカード15と、測距センサ16と、測光センサ17と、を備える。
【0016】
光学レンズ装置1は、例えばフォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、CMOSセンサ4の受光面に被写体像を結像させるためレンズである。
【0017】
シャッタ装置2は、例えばシャッタ羽根などから構成される。シャッタ装置2は、CMOSセンサ4へ入射する光束を遮断する機械式のシャッタとして機能する。シャッタ装置2はまた、CMOSセンサ4へ入射する光束の光量を調節する絞りとしても機能する。アクチュエータ3は、CPU9による制御にしたがって、シャッタ装置2のシャッタ羽根を開閉させる。
【0018】
CMOS(Complementary Metal Oxide Semiconductor)センサ4は、例えばCMOS型のイメージセンサなどから構成される。CMOSセンサ4には、光学レンズ装置1からシャッタ装置2を介して被写体像が入射される。そこで、CMOSセンサ4は、TG6から供給されるクロックパルスにしたがって、一定時間毎に被写体像を光電変換(撮影)して画像信号を蓄積し、蓄積した画像信号をアナログ信号として順次出力する。
【0019】
AFE(Analog Front End)5には、CMOSセンサ4からアナログの画像信号が供給される。そこで、AFE5は、TG6から供給されるクロックパルスにしたがって、アナログの画像信号に対し、A/D(Analog/Digital)変換処理などの各種信号処理を施す。各種信号処理の結果、ディジタル信号が生成され、AFE5から出力される。
【0020】
TG(Timing Generator)6は、CPU9による制御にしたがって、一定時間毎にクロックパルスをCMOSセンサ4とAFE5とにそれぞれ供給する。
【0021】
DRAM(Dynamic Random Access Memory)7は、AFE5により生成されるディジタル信号や、DSP8により生成される画像データを一時的に記憶する。
【0022】
DSP(Digital Signal Processor)8は、CPU9による制御にしたがって、DRAM7に記憶されたディジタル信号に対して、ホワイトバランス補正処理、γ補正処理、YC変換処理などの各種画像処理を施す。各種画像処理の結果、輝度信号と色差信号とでなる画像データが生成される。なお、以下、かかる画像データをフレーム画像データと称し、このフレーム画像データにより表現される画像をフレーム画像と称する。
【0023】
CPU(Central Processing Unit)9は、画像処理装置100全体の動作を制御する。RAM(Random Access Memory)10は、CPU9が各処理を実行する際にワーキングエリアとして機能する。ROM(Read Only Memory)11は、画像処理装置100が各処理を実行するのに必要なプログラムやデータを記憶する。CPU9は、RAM10をワーキングエリアとして、ROM11に記憶されているプログラムとの協働により各種処理を実行する。
【0024】
液晶表示コントローラ12は、CPU9による制御にしたがって、DRAM7やメモリカード15に記憶されているフレーム画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像として、フレーム画像を表示する。
【0025】
また、液晶表示コントローラ12は、CPU9による制御にしたがって、ROM11などに予め記憶されている各種画像データをアナログ信号に変換して、液晶ディスプレイ13に供給する。液晶ディスプレイ13は、液晶表示コントローラ12から供給されてくるアナログ信号に対応する画像を表示する。例えば本実施の形態では、各種シーンを特定可能な情報(以下、シーン情報と称する)の画像データがROM11に記憶されている。このため、図4を参照して後述するように、各種シーン情報が液晶ディスプレイ13に適宜表示される。
【0026】
操作部14は、ユーザから各種ボタンの操作を受け付ける。操作部14は、電源釦、十字釦、決定釦、メニュー釦、レリーズ釦などを備える。操作部14は、ユーザから受け付けた各種ボタンの操作に対応する信号を、CPU9に供給する。CPU9は、操作部14からの信号に基づいてユーザの操作内容を解析し、その操作内容に応じた処理を実行する。
【0027】
メモリカード15は、DSP8により生成されたフレーム画像データを記録する。測距センサ16は、CPU9による制御にしたがって、被写体までの距離を検出する。測光センサ17は、CPU9による制御にしたがって、被写体の輝度(明るさ)を検出する。
【0028】
このような構成を有する画像処理装置100の動作モードとしては、撮影モードや再生モードを含む各種モードが存在する。ただし、以下、説明の簡略上、主に、撮影モード時における処理(以下、撮影モード処理と称する)について説明する。なお、以下、撮影モード処理の主体は主にCPU9であるとする。
【0029】
次に、図1の画像処理装置100の撮影モード処理のうち、顕著性マップに基づく注目点領域を用いて、動く主要被写体の領域(以下、動くキャラクタ部分と称する)を抽出する処理の概略について説明する。なお、以下、かかる処理を、動くキャラクタ抽出処理と称する。
図2は、動くキャラクタ抽出処理の結果の具体例を示す図である。
【0030】
例えばレリーズ釦が全押しされている間、図1の画像処理装置100のCPU9は、CMOSセンサ4による撮影を継続させ、その間にDSP8により逐次生成されるフレーム画像データを、DRAM7に一時的に記憶させる。
このようにして、レリーズ釦が全押しされている間にDRAM7に連続して記録された複数のフレーム画像データは、連写画像データ又は動画像データ(以下、まとめて動画像データなどと称する)を構成する。例えば、図2の例の動画像データなどは、複数のフレーム画像51−1乃至51−6のそれぞれに対応する各フレーム画像データにより構成される。
【0031】
CPU9は、動画像データなどから所定のフレーム画像データを選択して、処理対象画像データとして設定する。そして、CPU9は、処理対象画像データ毎に次のような一連の処理を繰り返し実行することで、動くキャラクタ抽出処理を実行する。
すなわち、CPU9は、処理対象画像データに対応するフレーム画像を、主要被写体の領域と背景領域とにセグメンテーション(画像の領域分割)する。そして、CPU9は、主要被写体の領域に対応する画像データを、「動くキャラクタ部分」の画像データとして抽出する。
このような動くキャラクタ抽出処理が処理対象画像データ毎に繰り返し実行されると、連続した複数の「動くキャラクタ部分」の画像データが得られる。連続した複数の「動くキャラクタ部分」の画像データは、動画像データなどを構成する。なお、以下、かかる動画像データを、「動くキャラクタ部分」の動画像データなどと称する。
例えば図2の例では、複数のフレーム画像51−1乃至51−6から、投球動作をしている人物(主要被写体)の領域52−1乃至52−6の各画像データが、「動くキャラクタ部分」の画像データとしてそれぞれ抽出される。したがって、主要被写体の領域52−1乃至52−6の各画像データにより、「動くキャラクタ部分」の動画像データなどが構成される。
「動くキャラクタ部分」の動画像データなどは、メモリカード15などに記録可能である。
【0032】
画像処理装置100には、このような「動くキャラクタ部分」の動画像データなどを再生させる再生モードが存在する。なお、以下、かかる再生モードを、「動くキャラクタと背景画像の合成再生モード」と称する。
「動くキャラクタと背景画像の合成再生モード」が選択されると、CPU9は、「動くキャラクタ部分」の動画像データなどから、所定のフレーム画像データを選択してメモリカード15などから読み出す。同様に、CPU9は、予めメモリカード15やROM11などに記録されている背景画像データの中から、任意の1つを選択して読み出す。次に、CPU9は、読み出したフレーム画像データと背景画像データとを合成する。これにより、動くキャラクタ部分が背景画像に合成された合成画像に対応する合成画像データ(フレーム画像データ)が生成される。
CPU9は、このような一連の処理を、「動くキャラクタ部分」の動画像データなどを構成する各フレーム画像データ毎に繰り返し実行する。その結果、連続した複数の合成画像データが生成される。連続した複数の合成画像データは、新たな動画像データを構成する。なお、以下、かかる新たな動画像データを、合成動画像データと称する。
そこで、CPU9は、液晶表示コントローラ12などを用いて、この合成動画像データの再生を制御する。その結果、合成動画像が液晶ディスプレイ13に表示される。このようにして、「動く写真」が容易に実現可能となる。
また、CPU9は、合成動画像データを、例えばモーションJPEG(Joint Photographic Experts Group)やH.264の規格にしたがって、メモリカード15などに記録させることもできる。
【0033】
図3は、動くキャラクタ抽出処理の概略を説明する図である。
【0034】
第1実施形態における動くキャラクタ抽出処理では、Graph Cuts法(グラフカット法)が適用されている。Graph Cuts法とは、セグメンテーション(画像の領域分割)問題をエネルギー最小化問題として解く手法のひとつである。Graph Cuts法は、各領域から定義したエネルギー関数の大域解を求めることが可能であり、その結果、領域と境界の両方の特性を用いたセグメンテーションが実現できるという利点がある。
【0035】
なお、Graph Cuts法のさらなる詳細については、「Y.Boykov , M−P.Jolly , “Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N−D Images” , ICCV , vol.I , pp.105−112 , 2001」を参照すると良い。又は、「Y.Boykov , V.Kolmogorov , “An Experimental Comparison of Min−Cut/Max−Flow Algorithms for Energy Minimization in Vision” , PAMI , vol.26 , no.9 , pp.1124−1137 , Sept.2004.」を参照すると良い。
【0036】
図3の例では、処理対象画像61について、次のような動くキャラクタ抽出処理が実行される。
【0037】
ステップSaにおいて、CPU9は、顕著性マップ抽出処理として、例えば次のような処理を実行する。
すなわち、CPU9は、処理対象画像61に対応するフレーム画像データについて、例えば色、方位、輝度などの複数種類の特徴量のコントラストから、複数種類の特徴量マップを作成する。なお、以下、このような複数種類のうち所定の1種類の特徴量マップを作成するまでの一連の処理を、特徴量マップ作成処理と称する。各特徴量マップ作成処理の詳細例については、図7や図8を参照して後述する。
例えば図3の例では、後述する図8Aのマルチスケールのコントラストの特徴量マップ作成処理の結果、特徴量マップFcが作成されている。また、後述する図8BのCenter−Surroundの色ヒストグラムの特徴量マップ作成処理の結果、特徴量マップFhが作成されている。また、図8Cの色空間分布の特徴量マップ作成処理の結果、特徴量マップFsが作成されている。
次に、CPU9は、複数種類の特徴量マップを統合することで、顕著性マップを求める。例えば図2の例では、特徴量マップFc,Fh,Fsが統合されて、顕著性マップSが求められている。
ステップSaの処理は、後述する図5のステップS22の処理に対応する。
【0038】
ステップSbにおいて、CPU9は、顕著性マップを用いて、処理対象画像の中から、人間の視覚的注意を引く可能性の高い画像領域(以下、注目点領域と称する)を推定する。例えば図2の例では、顕著性マップSを用いて処理対象画像61から、複数段階の注目点領域62−1乃至62−N(Nは1以上の整数値であって、図3の例では少なくとも4以上の整数値)が推定されている。
注目点領域62−r(rは、1乃至Nのうちのいずれかの整数値)は、顕著性マップSを所定の閾値Sth-rを用いて2値化した場合における、閾値Sth−rよりも高い値を有する領域である。具体的には例えば図2の例では、注目点領域62−1の推定に用いられた閾値Sth−1は70とされている。注目点領域62−2の推定に用いられた閾値Sth−2は90とされている。注目点領域62−(N−1)の推定に用いられた閾値Sth−(N−1)は150とされている。注目点領域62−Nの推定に用いられた閾値Sth−Nは170とされている。
ステップSbの処理は、後述する図5のステップS24の処理に対応する。
【0039】
ステップSfのGraph Cuts法による領域分割処理においては、処理対象画像61は、主要被写体の領域と背景領域とにセグメンテーション(分割)される。かかる領域分割処理を実現するためには、主要被写体の領域と背景領域との見本となるラベルや種(seed)が必要になる。このため、次のようなステップSc,Sdの処理が実行される。
【0040】
ステップScにおいて、CPU9は、コア領域抽出処理として、例えば次のような処理を実行する。
すなわち、CPU9は、複数段階の注目点領域62−1乃至62−Nを用いて、注目点領域のコア領域を抽出する。例えは、複数段階の注目点領域62−1乃至62−Nの変化が少ない領域や、複数段階の注目点領域62−1乃至62−Nの重複領域などに基づいて、注目点領域のコア領域が抽出される。具体的には例えば図3の例では、注目点領域のコア領域63−1,63−2が抽出されている。
ステップScの処理は、後述する図5のステップS25の処理に対応する。
【0041】
ステップSdにおいて、CPU9は、種(seed)設定処理として、例えば次のような処理を実行する。
すなわち、CPU9は、例えば注目点領域のコア領域に基づいて、主要被写体の領域の種と、背景領域の種とをそれぞれ設定する。
なお、設定手法自体は特に限定されない。例えば、注目点領域のコア領域をそのまま、主要被写体の領域の種に設定するという手法を採用することができる。また例えば、注目点領域のコア領域に内接若しくは外接する矩形領域、又は、注目点領域の重心若しくは骨格線などを、主要被写体の領域の種に設定するという手法を採用することができる。また例えば、顕著性が低いコア領域、注目点領域以外の矩形領域、又は、注目点領域以外の領域の重心や骨格線を、背景領域の種に設定するという手法を採用することができる。
例えば図3の例では、主要被写体の領域の種64−1,64−2、及び、背景領域の種65−1,65−2が設定されている。
ステップSdの処理は、後述する図5のステップS26の処理に対応する。
【0042】
また、ステップSfのGraph Cuts法による領域分割処理を実現するためには、主要被写体の事前確率Pr(O)と、背景領域の事前確率Pr(B)とが必要になる。
そこで、ステップSeにおいて、CPU9は、事前確率演算処理として、例えば次のような処理を実行する。
すなわち、CPU9は、顕著性マップSの値(ただし、顕著性マップ値を0乃至1の範囲内に正規化した値)を、主要被写体領域の事前確率Pr(O)として演算する。また、CPU9は、顕著性マップSを反転した値(1−顕著性マップSの値)、すなわち1−Pr(O)を、背景領域の事前確率Pr(O)として演算する。例えば図3の例では、同図に示される顕著性マップSから、同図に示される主要被写体の事前確率Pr(O)と背景領域の事前確率Pr(B)とが得られている。
ステップSeの処理は、後述する図5のステップS23の処理に対応する。
【0043】
次に、ステップSfにおいて、CPU9は、Graph Cuts法による領域分割処理を実行する。
ここで、従来のGraph Cuts法では物体と背景の学習のために、物体領域(主要被写体領域)と背景領域の見本となるラベルや種は手動で与えられていた。これに対して、本実施形態では、ステップSdの処理で自動的に設定された主要被写体の種及び背景領域の種を利用することができる。その結果、従来のようにユーザが手動で種を入力する必要が無くなり、また、学習の必要も無くなる。
また、ステップSeの処理で演算された主要被写体の事前確率Pr(O)及び背景領域の事前確率Pr(B)は、顕著性マップSに基づくものであり、Graph Cuts法のt−linkの事前確率として採用することが可能である。その結果、主要被写体領域の適切な空間情報が得られることになる。
ステップSfのGraph Cuts法による領域分割処理の結果、上述したように、処理対象画像61は、主要被写体の領域と背景領域に分割される。
ステップSfの処理は、後述する図5のステップS27の処理に対応する。
【0044】
その後、主要被写体の領域のデータが「動くキャラクタ部分」の画像データとして抽出される(後述する図5ステップS28参照)。なお、この抽出手法は、特に限定されず、いわゆる切り抜き抽出であっても良いし、いわゆるアルファチャネル抽出であっても良い。
【0045】
このようなステップSa乃至Sfの処理が、複数のフレーム画像データ毎に繰り返し実行されることで、「動くキャラクタ部分」の動画像データなどが抽出される。
【0046】
以上、図2や図3を参照して、画像処理装置100が実行する動くキャラクタ抽出処理の概略について説明した。次に、図4乃至図8を参照して、動くキャラクタ抽出処理を含む撮影モード処理全体について説明する。
【0047】
図4は、撮影モード処理の流れの一例を示すフローチャートである。
【0048】
撮影モード処理は、ユーザが撮影モードを選択する所定の操作を操作部14に対して行った場合、その操作を契機として開始される。すなわち、次のような処理が実行される。
【0049】
ステップS1において、CPU9は、撮影前処理を実行することで、例えば、シーンや撮影条件などを設定する。
【0050】
ステップS2において、CPU9は、レリーズ釦が半押しの状態であるか否かを判定する。
ユーザがレリーズ釦を半押ししていない場合、ステップS2においてNOであると判定され、処理はステップS1に戻され、それ以降の処理が繰り返される。すなわち、ユーザがレリーズ釦を半押しするまでの間、ステップS1,S2のループ処理が繰り返し実行される。
【0051】
その後、ユーザがレリーズ釦を半押しすると、ステップS2においてYESであると判定されて、処理はステップS3に進む。
【0052】
ステップS3において、CPU9は、AF(Automatic Focus)処理(オートフォーカス処理)を実行する。
【0053】
ステップS4において、CPU9は、レリーズ釦が全押しの状態であるか否かを判定する。
【0054】
ユーザがレリーズ釦を全押ししていない場合、ステップS4においてNOであると判定され、処理はステップS12に進む。ステップS12において、CPU9は、レリーズ釦が解除されたか否かを判定する。ユーザの指などがレリーズ釦から離された場合、ステップS12においてYESであると判定されて、撮影モード処理は終了となる。これに対して、ユーザの指などがレリーズ釦から離されていない場合、ステップS12においてNOであると判定されて、処理はステップS4に戻され、それ以降の処理が繰り返される。すなわち、レリーズ釦の半押し状態が継続している限り、ステップS4NO,S12NOのループ処理が繰り返し実行される。
【0055】
その後、ユーザがレリーズ釦を全押しすると、ステップS4においてYESであると判定されて、処理はステップS5に進む。ステップS5において、CPU9は、AWB(Automatic White Balance)処理(オートホワイトバランス処理)と、AE(Automatic Exposure)処理(自動露出処理)を実行する。すなわち、測光センサ17による測光情報や撮影条件などに基づいて、絞り、露出時間、ストロボ条件などが設定される。
【0056】
ステップS6において、CPU9は、TG6やDSP8などを制御して、撮影条件などに基づいて露出及び撮影処理を実行する。この露出及び撮影処理により、撮影条件などにしたがってCMOSセンサ4により撮影された被写体像は、フレーム画像データとしてDRAM7に記憶される。なお、以下、かかるフレーム画像データを撮影画像データと称し、また、撮影画像データにより表現される画像を撮影画像と称する。ステップS7おいて、CPU9は、撮影画像データをDRAM7などに一時保持する。
【0057】
ステップS8において、CPU9は、レリーズ釦が解除されたか否かを判定する。ユーザの指などがレリーズ釦から離されていない場合、ステップS8においてNOであると判定されて、処理はステップS5に戻され、それ以降の処理が繰り返される。すなわち、レリーズ釦の全押し状態が継続している限り、ステップS5乃至S8のループ処理が繰り返し実行され、その結果、複数の撮影画像データが一枚ずつDRAM7などに順次保持されていく。その後、ユーザの指などがレリーズ釦から離された場合、ステップS8においてYESであると判定されて、処理はステップS9に進む。
【0058】
ステップS9の処理開始段階では、レリーズ釦の全押しの状態が継続している間にDRAM7に連続して記録された複数の撮影画像データにより、動画像データなどが構成されている。そこで、ステップS9において、CPU9は、この動画像データなどに対して、動くキャラクタ抽出処理を実行する。その結果、「動くキャラクタ」の動画像データなどが得られる。動くキャラクタ抽出処理については、その概略は図2を参照して上述した通りであり、その詳細は図5を参照して後述する。
【0059】
ステップS10において、CPU9は、DSP8などを制御して、「動くキャラクタ」の動画像データなどの圧縮符号化処理を実行する。その結果、符号化画像データが得られることになる。そこで、ステップS11において、CPU9は、符号化画像データの保存記録処理を実行する。これにより、符号化画像データがメモリカード15などに記録され、撮影モード処理が終了となる。
【0060】
次に、撮影モード処理のうち、ステップS9の動くキャラクタ抽出処理の詳細例について説明する。
【0061】
図5は、動くキャラクタ抽出処理の流れの詳細例を示すフローチャートである。
【0062】
ステップS21において、CPU9は、図4のステップS5乃至S8のループ処理の結果得られた動画像データなどの中から、所定の撮影画像データ(フレーム画像データ)を処理対象画像データとして設定する。
【0063】
ステップS22において、CPU9は、顕著性マップ抽出処理を実行することで、顕著性マップを求める。顕著性マップ抽出処理については、その概略は図3のステップSaの処理として上述した通りであり、その詳細は図6を参照して後述する。
【0064】
ステップS23において、CPU9は、事前確率演算処理を実行する。これにより、図3のステップSeの処理として上述した通り、主要被写体の事前確率Pr(O)と背景領域の事前確率Pr(B)とが得られる。
【0065】
ステップS24において、CPU9は、顕著性マップを用いて、注目点領域を推定する。これにより、図3のステップSbの処理として上述した通り、複数段階の注目点領域が推定される。
【0066】
ステップS25において、CPU9は、複数段階の注目点領域を用いて、コア領域抽出処理を実行する。これにより、図3のステップScの処理として上述した通り、注目点領域のコア領域が抽出される。
【0067】
ステップS26において、CPU9は、注目点領域のコア領域を用いて、種(seed)設定処理を実行する。これにより、図3のステップSdの処理として上述した通り、主要被写体の領域の種と、背景領域の種とがそれぞれ設定される。
【0068】
ステップS27において、CPU9は、主要被写体の事前確率Pr(O)及び背景領域の事前確率Pr(B)、並びに、主要被写体の領域の種及び背景領域の種を用いて、Graph Cuts法による領域分割処理を実行する。これにより、図3のステップSfの処理として上述した通り、処理対象画像データに対応するフレーム画像は、主要被写体の領域と背景領域とにセグメンテーション(分割)される。そこで、ステップS28において、CPU9は、分割後の主要被写体の領域に対応するデータを、「動くキャラクタ」の画像データとしてDRAM7などに一時的に保持する。
【0069】
ステップS29において、CPU9は、処理対象画像データが最後の撮影画像データ(フレーム画像データ)か否かを判定する。処理対象画像データが最後の撮影画像データでない場合、ステップS29においてNOであると判定されて処理はステップS21に戻される。すなわち、動画像データなどを構成する複数の撮影画像データ毎に、ステップS21乃至S29のループ処理が繰り返し実行されることで、「動くキャラクタ」の画像データが順次抽出されていく。
【0070】
その後、最後の撮影画像データが処理対象画像データに設定されて、ステップS22乃至S28の処理が実行されると、次のステップS29においてYESであると判定されて、動くキャラクタ抽出処理は終了となる。その結果、複数の撮影画像データのそれぞれから抽出された複数の「動くキャラクタ」の画像データにより、「動くキャラクタ」の動画像データなどが構成される。このため、動くキャラクタ抽出処理が終了すると、すなわち、図4のステップS9の処理が終了すると、上述したように、ステップS10,S11の処理で、「動くキャラクタ」の動画像データなどが圧縮符号化され、その結果得られる符号化画像データがメモリカード15などに記録される。
【0071】
次に、動くキャラクタ抽出処理のうち、ステップS22(図3のステップSa)の注目点領域処理の詳細例について説明する。
【0072】
上述したように、注目点領域推定処理では、注目点領域の推定のために、顕著性マップが作成される。したがって、注目点領域推定処理に対して、例えば、Treismanの特徴統合理論や、Itti及びKochらによる顕著性マップを適用することができる。
なお、Treismanの特徴統合理論については、「A.M.Treisman and G.Gelade,“A feature―integration theory of attention”,Cognitive Psychology,Vol.12,No.1,pp.97−136,1980.」を参照すると良い。
また、Itti及びKochらによる顕著性マップについては、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
【0073】
図6は、Treismanの特徴統合理論やNitti及びKochらによる顕著性マップを適用した場合における、注目点領域推定処理の流れの詳細例を示すフローチャートである。
【0074】
ステップS41において、CPU9は、スルー撮像により得られたフレーム画像データを、処理対象画像データとして取得する。
【0075】
ステップS42において、CPU9は、ガウシアン解像度ピラミット(Gaussian Resolution Pyramid)を作成する。具体的には例えば、CPU9は、処理対象画像データ{(x,y)の位置の画素データ}をI(0)=I(x,y)として、ガウシアンフィルタ処理とダウンサンプリング処理とを順次繰り返し実行する。その結果として、階層型のスケール画像データI(L)(例えばL∈{0・・・8})の組が生成される。この階層型のスケール画像データI(L)の組が、ガウシアン解像度ピラミッドと称されている。ここで、スケールL=k(ここではkは1乃至8のうちのいずれかの整数値)の場合、スケール画像データI(k)は、1/2の縮小画像(k=0の場合は原画像)を示す。
【0076】
ステップS43において、CPU9は、各特徴量マップ作成処理を開始する。各特徴量マップ作成処理の詳細例については、図7や図8を参照して後述する。
【0077】
ステップS44において、CPU9は、全ての特徴量マップ作成処理が終了したか否かを判定する。各特徴量マップ作成処理のうち1つでも処理が終了していない場合、ステップS44において、NOであると判定されて、処理はステップS44に再び戻される。すなわち、各特徴量マップ作成処理の全処理が終了するまでの間、ステップS44の判定処理が繰り返し実行される。そして、各特徴量マップ作成処理の全処理が終了して、全ての特徴量マップが作成されると、ステップS44においてYESであると判定されて、処理はステップS45に進む。
【0078】
ステップS45において、CPU9は、各特徴量マップを線形和で結合して、顕著性マップS(Saliency Map)を求める。このようにして、顕著性マップSが求められると、顕著性マップ抽出処理は終了する。すなわち、図5のステップS22の処理は終了し、処理はステップS23に進む。図3の例でいえば、ステップSaの処理は終了し、処理はステップSbに進む。
【0079】
次に、各特徴量マップ作成処理の具体例について説明する。
【0080】
図7は、輝度、色、及び、方向性の特徴量マップ作成処理の流れの一例を示すフローチャートである。
【0081】
図7Aは、輝度の特徴量マップ作成処理の一例を示している。
【0082】
ステップS61において、CPU9は、処理対象画像データに対応する各スケール画像から、各注目画素を設定する。例えば各注目画素c∈{2,3,4}が設定されたとして、以下の説明を行う。各注目画素c∈{2,3,4}とは、スケールc∈{2,3,4}のスケール画像データI(c)上の演算対象として設定された画素をいう。
【0083】
ステップS62において、CPU9は、各注目画素c∈{2,3,4}の各スケール画像の輝度成分を求める。
【0084】
ステップS63において、CPU9は、各注目画素の周辺画素s=c+δの各スケール画像の輝度成分を求める。各注目画素の周辺画素s=c+δとは、例えばδ∈{3,4}とすると、スケールs=c+δのスケール画像I(s)上の、注目画素(対応点)の周辺に存在する画素をいう。
【0085】
ステップS64において、CPU9は、各スケール画像について、各注目画素c∈{2,3,4}における輝度コントラストを求める。例えば、CPU9は、各注目画素c∈{2,3,4}と、各注目画素の周辺画素s=c+δ(例えばδ∈{3,4})のスケール間差分を求める。ここで、注目画素cをCenterと呼称し、注目画素の周辺画素sをSurroundと呼称すると、求められたスケール間差分は、輝度のCenter−Surroundスケール間差分と呼称することができる。この輝度のCenter−Surroundスケール間差分は、注目画素cが白で周辺画素sが黒の場合又はその逆の場合には大きな値をとるという性質がある。したがって、輝度のCenter−Surroundスケール間差分は、輝度コントラストを表わすことになる。なお、以下、かかる輝度コントラストをI(c,s)と記述する。
【0086】
ステップS65において、CPU9は、処理対象画像データに対応する各スケール画像において、注目画素に設定されていない画素が存在するか否かを判定する。そのような画素が存在する場合、ステップS65においてYESであると判定されて、処理はステップS61に戻され、それ以降の処理が繰り返される。
【0087】
すなわち、処理対象画像データに対応する各スケール画像の各画素に対して、ステップS61乃至S65の処理がそれぞれ施されて、各画素の輝度コントラストI(c,s)が求められる。ここで、各注目画素c∈{2,3,4}、及び、周辺画素s=c+δ(例えばδ∈{3,4})が設定される場合、ステップS61乃至S65の1回の処理で、(注目画素cの3通り)×(周辺画素sの2通り)=6通りの輝度コントラストI(c,s)が求められる。ここで、所定のcと所定のsについて求められた輝度コントラストI(c,s)の画像全体の集合体を、以下、輝度コントラストIの特徴量マップと称する。輝度コントラストIの特徴量マップは、ステップS61乃至S65のループ処理の繰り返しの結果、6通り求められることになる。このようにして、6通りの輝度コントラストIの特徴量マップが求められると、ステップS65においてNOであると判定されて、処理はステップS66に進む。
【0088】
ステップS66において、CPU9は、輝度コントラストIの各特徴量マップを正規化した上で結合することで、輝度の特徴量マップを作成する。これにより、輝度の特徴量マップ作成処理は終了する。なお、以下、輝度の特徴量マップを、他の特徴量マップと区別すべく、FIと記述する。
【0089】
図7Bは、色の特徴量マップ作成処理の一例を示している。
【0090】
図7Bの色の特徴量マップ作成処理は、図7Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図7BのステップS81乃至S86のそれぞれの処理は、図7AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図7Aとは異なるだけである。したがって、図7Bの色の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
【0091】
すなわち、図7AのステップS62とS63の処理対象は、輝度成分であったのに対して、図7BのステップS82とS83の処理対象は、色成分である。
また、図7AのステップS64の処理では、輝度のCenter−Surroundスケール間差分が、輝度コントラストI(c,s)として求められた。これに対して、図7BのステップS84の処理では、色相(R/G,B/Y)のCenter−Surroundスケール間差分が、色相コントラストとして求められる。なお、色成分のうち、赤の成分がRで示され、緑の成分がGで示され、青の成分がBで示され、黄の成分がYで示されている。また、以下、色相R/Gについての色相コントラストを、RG(c,s)と記述し、色相B/Yについての色相コントラストを、BY(c,s)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、図7AのステップS61乃至S65のループ処理の結果、6通りの輝度コントラストIの特徴量マップが求められた。これに対して、図7BのステップS81乃至S85のループ処理の結果、6通りの色相コントラストRGの特徴量マップと、6通りの色相コントラストBYの特徴量マップとが求められる。
最終的に、図7AのステップS66の処理で、輝度の特徴量マップFIが求められた。これに対して、図7BのステップS86の処理で、色の特徴量マップが求められる。なお、以下、色の特徴量マップを、他の特徴量マップと区別すべく、FCと記述する。
【0092】
図7Cは、方向性の特徴量マップ作成処理の一例を示している。
【0093】
図7Cの方向性の特徴量マップ作成処理は、図7Aの輝度の特徴量マップ作成処理と比較すると、処理の流れは基本的に同様であり、処理対象が異なるだけである。すなわち、図7CのステップS101乃至S106のそれぞれの処理は、図7AのステップS61乃至S66のそれぞれに対応する処理であり、各ステップの処理対象が図7Aとは異なるだけである。したがって、図7Cの方向性の特徴量マップ作成処理については、処理の流れの説明は省略し、以下、処理対象についてのみ簡単に説明する。
【0094】
すなわち、ステップS102とS1023の処理対象は、方向成分である。ここで、方向成分とは、輝度成分に対してガウスフィルタφを畳み込んだ結果得られる各方向の振幅成分をいう。ここでいう方向とは、ガウスフィルタφのパラメターとして存在する回転角θにより示される方向をいう。例えば回転角θとしては、0°,45°,90°,135°の4方向を採用することができる。
また、ステップS104の処理では、方向性のCenter−Surroundスケール間差分が、方向性コントラストとして求められる。なお、以下、方向性コントラストを、O(c,s,θ)と記述する。
ここで、上述の例にあわせて、注目画素cが3通り存在して、周辺画素sが2通り存在するとする。この場合、ステップS101乃至S105のループ処理の結果、回転角θ毎に、6通りの方向性コントラストOの特徴量マップが求められる。例えば回転角θとして、0°,45°,90°,135°の4方向が採用されている場合には、24通り(=6×4通り)の方向性コントラストOの特徴量マップが求められる。
最終的に、ステップS106の処理で、方向性の特徴量マップが求められる。なお、以下、方向性の特徴量マップを、他の特徴量マップと区別すべく、FOと記述する。
【0095】
以上説明した図7の特徴量マップ作成処理のより詳細な処理内容については、例えば、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,VOl.20,No11,November 1998.」を参照すると良い。
【0096】
なお、特徴量マップ作成処理は、図7の例に特に限定されない。例えば、特徴量マップ作成処理として、明度、彩度、色相、及びモーションの各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
【0097】
また例えば、特徴量マップ作成処理として、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の各特徴量を用いて、それぞれの特徴量マップを作成する処理を採用することもできる。
【0098】
図8は、マルチスケールのコントラスト、Center−Surroundの色ヒストグラム、及び、色空間分布の特徴量マップ作成処理の一例を示すフローチャートである。
【0099】
図8Aは、マルチスケールのコントラストの特徴量マップ作成処理の一例を示している。
ステップS121において、CPU9は、マルチスケールのコントラストの特徴量マップを求める。これにより、マルチスケールのコントラストの特徴量マップ作成処理は終了となる。
なお、以下、マルチスケールのコントラストの特徴量マップを、他の特徴量マップと区別すべく、Fcと記述する。
【0100】
図8Bは、Center−Surroundの色ヒストグラムの特徴量マップ作成処理の一例を示している。
【0101】
ステップS141において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとを求める。アスペクト比自体は、特に限定されず、例えば{0.5,0.75,1.0,1.5,2.0}などを採用することができる。
【0102】
ステップS142において、CPU9は、異なるアスペクト比毎に、矩形領域の色ヒストグラムと、周辺輪郭の色ヒストグラムとのカイ2乗距離を求める。ステップS143において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを求める。
【0103】
ステップS144において、CPU9は、カイ2乗距離が最大となる矩形領域の色ヒストグラムを用いて、Center−Surroundの色ヒストグラムの特徴量マップを作成する。これにより、Center−Surroundの色ヒストグラムの特徴量マップ作成処理は終了となる。
なお、以下、Center−Surroundの色ヒストグラムの特徴量マップを、他の特徴量マップと区別すべく、Fhと記述する。
【0104】
図8Cは、色空間分布の特徴量マップ作成処理の一例を示している。
【0105】
ステップS161において、CPU9は、色空間分布について、水平方向の分散を計算する。また、ステップS162において、CPU9は、色空間分布について、垂直方向の分散を計算する。そして、ステップS163において、CPU9は、水平方向の分散と垂直方向の分散とを用いて、色の空間的な分散を求める。
【0106】
ステップS164において、CPU9は、色の空間的な分散を用いて、色空間分布の特徴量マップを作成する。これにより、色空間分布の特徴量マップ作成処理は終了となる。
なお、以下、色空間分布の特徴量マップを、他の特徴量マップと区別すべく、Fsと記述する。
【0107】
以上説明した図8の特徴量マップ作成処理のより詳細な処理内容については、例えば、「T.Liu,J.Sun,N.Zheng,X.Tang,H.Sum,“Learning to Detect A Salient Object”,CVPR07,pp.1−8,2007.」を参照すると良い。
【0108】
以上説明したように、第1実施形態に係る画像処理装置100のCPU9は、主要被写体を含む入力画像に対して、入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する機能を有している。
CPU9は、推定された注目点領域と、所定のアルゴリズムとを用いて、入力画像を主要被写体の領域と背景領域とに分割する機能を有している。ここで、所定のアルゴリズムとしては、上述した例では、Graph Cuts法が採用されていた。ただし、所定のアルゴリズムは、上述した例に限定されない。例えば、注目点領域及びその近傍の各画像領域から定義したエネルギー関数を用いて、入力画像を被写体の領域と背景領域とに分割できるアルゴリズムを採用することが可能である。具体的には例えばSnake法などを、所定のアルゴリズムとして採用することが可能である。
また、CPU9は、入力画像から分割された主要被写体の領域を抽出する機能を有している。
【0109】
このように、第1実施形態では、注目点領域が用いられているので、人間の視覚的注意を引く可能性の高い主要被写体の領域を自動的に識別することが可能になる。また、Graph Cuts法などの所定のアルゴリズムが用いられているので、主要被写体の領域のセグメンテーション(分割)を精密に行うことが可能になる。その結果、家庭用ムービーなどを用いて、実際の多様な情景を背景にして撮影された一般的な動画像などからも、動くキャラクタ部分(動く主要被写体の領域)を精度良く抽出することが可能になる。
【0110】
また、例えば、ユーザにとっては、従来のように主要被写体や切り抜き領域などを逐一手動で指定しなくても、所望の動くキャラクタ部分を含む動画像などを指定するような簡単な操作をするだけで、所望の動くキャラクタ部分が自動的かつ精度良く抽出される。したがって、ユーザにとっては、その後、合成対象の背景画像を指定するような簡単な操作をするだけで、所望の動くキャラクタ部分が所望の背景画像に対して自動的に貼付け合成又は混合合成される。これにより、新しい合成動画像が生成され、その再生が可能になる。すなわち、ユーザにとっては、従来に比較して簡単な操作をするだけで、切抜き合成や動く写真などの技術を容易に利用できるようになる。
【0111】
また、例えば、従来の「背景差分法」などを採用した場合には、動くキャラクタ部分を抽出するために、主要被写体を含む画像(連写画像)と、主要被写体を含まない背景だけの画像とを、2回に分けて撮影する必要があった。これに対して、第1実施形態では、そのような必要は無く、主要被写体を含む画像(連写画像)を1回撮影するだけで足りる。その結果、従来と比較して、動くキャラクタ部分を抽出するための手間や面倒が大幅に減少し、ひいては使い勝手が向上する。
【0112】
〔第2実施形態〕
次に、本発明の第2実施形態を説明する。
なお、本発明の第2実施形態に係る画像処理装置のハードウェアの構成は、第1実施形態に係る画像処理装置100の図1のハードウェアの構成と基本的に同様である。
【0113】
第2実施形態に係る画像処理装置100のCPU9は、主要被写体を含む入力画像に対して、入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する機能を有している。CPU9は、入力画像から輪郭線若しくはエッジ形状を抽出する機能を有している。CPU9は、抽出された輪郭線若しくはエッジ形状により特定される輪郭線のうち、推定された注目点領域と重なる輪郭線の内側領域を主要被写体の領域とし、その輪郭線の外側領域を背景領域とすることで、入力画像を主要被写体の領域と背景領域とに分割する機能を有している。また、CPU9は、入力画像から分割された主要被写体の領域を抽出する機能を有している。
【0114】
これにより、第2実施形態に係る画像処理装置100もまた、第1実施形態と同様の効果を奏することが可能になる。
【0115】
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。
例えば、上述した実施形態では、本発明が適用される画像処理装置は、デジタルカメラとして構成される例として説明した。しかしながら、本発明は、デジタルカメラに特に限定されず、電子機器一般に適用することができる。具体的には例えば、本発明は、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機などに適用可能である。
【0116】
また、第1実施形態と第2実施形態とを組み合わせても良い。
【0117】
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
【0118】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータなどにネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであっても良い。
このようなプログラムを含む記録媒体は、図示はしないが、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体などで構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスクなどにより構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)などにより構成される。光磁気ディスクは、MD(Mini−Disk)などにより構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM11や、図示せぬハードディスクなどで構成される。
【0119】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
【符号の説明】
【0120】
100・・・画像処理装置、1・・・光学レンズ装置、2・・・シャッタ装置、3・・・アクチュエータ、4・・・CMOSセンサ、5・・・AFE、6・・・TG、7・・・DRAM、8・・・DSP、9・・・CPU、10・・・RAM、11・・・ROM、12・・・液晶表示コントローラ、13・・・液晶ディスプレイ、14・・・操作部、15・・・メモリカード、16・・・測距センサ、17・・・測光センサ

【特許請求の範囲】
【請求項1】
主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定部と、
前記推定部により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割部と、
前記入力画像から、前記分割部により分割された前記主要被写体の領域を抽出する抽出部と、
を備える画像処理装置。
【請求項2】
前記分割部は、前記注目点領域を含む所定領域から定義したエネルギー関数を用いる所定のアルゴリズムにしたがって、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する
請求項1に記載の画像処理装置。
【請求項3】
前記所定のアルゴリズムは、Graph Cuts法である
請求項2に記載の画像処理装置。
【請求項4】
前記入力画像から輪郭線若しくはエッジ形状を抽出する輪郭線抽出部をさらに備え、
前記分割部は、前記輪郭線抽出部により抽出された前記輪郭線又は前記エッジ形状により特定される輪郭線のうち、前記注目点領域と重なる輪郭線の内側領域を前記主要被写体の領域とし、当該輪郭線の外側領域を前記背景領域とすることで、前記入力画像を前記主要被写体の領域と前記背景領域とに分割する
請求項1に記載の画像処理装置。
【請求項5】
主要被写体を含む入力画像に対して、前記入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて、注目点領域を推定する推定ステップと、
前記推定ステップの処理により推定された前記注目点領域を用いて、前記入力画像を前記主要被写体の領域と背景領域とに分割する分割ステップと、
前記入力画像から、前記分割ステップの処理により分割された前記主要被写体の領域を抽出する抽出ステップと、
を含む画像処理方法。

【図1】
image rotate

【図2】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図3】
image rotate


【公開番号】特開2011−35636(P2011−35636A)
【公開日】平成23年2月17日(2011.2.17)
【国際特許分類】
【出願番号】特願2009−179552(P2009−179552)
【出願日】平成21年7月31日(2009.7.31)
【出願人】(000001443)カシオ計算機株式会社 (8,748)
【Fターム(参考)】