説明

画像分類プログラム、画像分類装置および電子カメラ

【課題】類似の画像検索をあらかじめ人為的に行い、検索した画像にマークしておく必要があった画像を、人手によらずに分類する。
【解決手段】複数の焦点検出領域に対応するデフォーカス量が検出可能な画像情報から、画像の領域分割を行い、領域ごとの距離情報を特徴量として算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像分類プログラム、画像分類装置および電子カメラに関する。
【背景技術】
【0002】
画像を分類する技術が知られている(特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平11−134344号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
従来技術では、類似の画像検索をあらかじめ人為的に行い、検索した画像にマークしておく必要があった。
【課題を解決するための手段】
【0005】
本発明の第1の態様によると、画像分類プログラムは、複数の焦点検出領域に対応するデフォーカス量が検出可能な画像情報から、画像の領域分割を行い、領域ごとの距離情報を特徴量として算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理と、をコンピュータ装置に実行させる。
本発明の第2の態様によると、第1の態様の画像分類プログラムにおいて、画像の領域分割は、画像の上部領域、画像の中央領域、および画像の下部領域である。
本発明の第3の態様によると、請求項2に記載の画像分類プログラムにおいて、第1処理は、画像の上部領域の色成分画素濃度と下部領域の色成分画素濃度との比に基づく特徴量、画像のエッジ抽出後の隣接画素間の濃度差の絶対値を表すエッジ情報、画像全体のB成分の平均濃度、画像全体のY成分の平均濃度に基づく特徴量を加え、7つの特徴量として算出する。
本発明の第4の態様によると、画像分類プログラムは、画像撮影時の主要被写体についての測距情報、画像撮影時の背景についての測距情報、および画像撮影時の主要被写体についての測距情報の時間的変化量に基づく特徴量をそれぞれ算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理と、をコンピュータ装置に実行させる。
本発明の第5の態様によると、請求項4に記載の画像分類プログラムにおいて、第1処理は、画像の画素濃度および画像撮影時の主要被写体についての画素濃度の変化量に基づく特徴量を新たな特徴量として算出する。
本発明の第6の態様によると、画像分類装置は、請求項1〜5のいずれか一項に記載の画像分類プログラムを搭載したことを特徴とする。
本発明の第7の態様によると、電子カメラは、請求項1〜5のいずれか一項に記載の画像分類プログラムを搭載したことを特徴とする。
【発明の効果】
【0006】
本発明によれば、人手によらずに画像を分類できる。
【図面の簡単な説明】
【0007】
【図1】本発明の一実施の形態による電子カメラの要部構成を説明するブロック図である。
【図2】画像分類処理の流れを説明するフローチャートである。
【図3】第一の実施形態による特徴量算出処理の流れを説明するフローチャートである。
【図4】第一の実施形態による電子カメラの焦点検出領域を説明する図である。
【図5】クラスタリング処理の流れを説明するフローチャートである。
【図6】第一の実施形態による分類処理後の画像ファイルを説明する図である。
【図7】第二の実施形態による特徴量算出処理の流れを説明するフローチャートである。
【図8】第二の実施形態による電子カメラの焦点検出領域を説明する図である。
【図9】第二の実施形態による分類処理後の画像ファイルを説明する図である。
【図10】コンピュータ装置を例示する図である。
【発明を実施するための形態】
【0008】
(第一の実施形態)
以下、本発明を実施するための最良の形態について説明する。図1は、本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。
【0009】
撮影レンズ21は、撮像素子22の撮像面上に被写体像を結像させる。撮像素子22はCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を撮像回路23へ出力する。撮像素子22の撮像面には、それぞれR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられている。撮像素子22がカラーフィルタを通して被写体像を撮像するため、撮像素子22から出力される光電変換信号は、RGB表色系の色情報を有する。
【0010】
撮像回路23は、撮像素子22から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。
【0011】
メインCPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23から入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。
【0012】
画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、JPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、撮像画像を液晶モニタ16に表示させるための表示データを作成する。
【0013】
記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、メインCPU11からの指示によって撮影画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、メインCPU11からの指示によって読み出しが可能である。
【0014】
バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。
【0015】
操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作など、各操作部材の操作内容に応じた操作信号をメインCPU11へ出力する。
【0016】
焦点検出装置18は、焦点検出領域に対応する光束を用いて、周知の位相差検出方式によって撮影レンズ21による焦点調節状態の検出を行う。具体的には、焦点検出光学系(不図示)を介して一対の被写体像をオートフォーカスセンサ(不図示)上に結像させる。メインCPU11は、センサ上の一対の被写体像の相対間隔に基づいて撮影レンズ21による焦点位置の調節状態(デフォーカス量)を算出する。
【0017】
レンズ駆動機構19は、メインCPU11からの指示によって撮影レンズ21を構成するフォーカスレンズ(不図示)を光軸方向に進退移動させる。これにより、ピント調節が行われる。
【0018】
電子カメラ1は、撮影モードと再生モードとを切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体30に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体30から読み出すなどして、画像データによる再生画像を液晶モニタ16に表示するモードである。
【0019】
<撮影画像分類処理>
本実施形態の電子カメラ1は、撮影画像を自動的に分類する機能を備える。具体的には、記録媒体30に記録済みの画像ファイルに対して分類処理を行い、分類後の画像ファイルをグループごとに設けたフォルダ内に格納する。電子カメラ1のメインCPU11は、操作部材17から分類処理実行を指示する操作信号が入力されると、画像分類処理を開始する。
【0020】
図2は、メインCPU11が行う画像分類処理の流れを説明するフローチャートである。図2のステップS11において、メインCPU11は、記録媒体30から画像ファイルを読み出し、当該ファイル内の画像データをバッファメモリ14に展開させてステップS12へ進む。画像ファイルの読み出しは、あらかじめ指示されているフォルダから順に読み出す方式と、記録媒体30内の全フォルダから順に読み出す方式とが操作部材17からの操作信号によって選択可能に構成されている。
【0021】
ステップS12において、メインCPU11は、バッファメモリ14上の画像データについての特徴量を算出してステップS13へ進む。特徴量算出処理の詳細については後述する。ステップS13において、メインCPU11は、全画像について特徴量を算出したか否かを判定する。メインCPU11は、読み出しが指示された全ての画像ファイルについて、その読み出しおよび特徴量の算出を行った場合にステップS13を肯定判定してステップS14へ進む。メインCPU11は、画像ファイルの読み出しおよび特徴量の算出を行っていない画像ファイルが存在する場合にはステップS13を否定判定し、ステップS11へ戻る。ステップS11へ戻る場合は、画像ファイルの読み出しと特徴量の算出処理とを繰り返す。
【0022】
ステップS14において、メインCPU11はクラスタリング処理を行ってステップS15へ進む。クラスタリング処理の詳細については後述する。ステップS15において、メインCPU11は、記録媒体30内の所定領域にクラスタリング処理後のクラスター数に応じた複数のフォルダを生成してステップS16へ進む。ステップS16において、メインCPU11は、各クラスターに対応するフォルダ内へ画像ファイルを移動させる。具体的には、各クラスター内に含まれている特徴データに対応する画像ファイルを、それぞれ対応するフォルダ内へ移動させて図2による処理を終了する。この処理により、記録媒体30内の複数の画像ファイルが分類され、生成したフォルダ内にそれぞれ移動される。
【0023】
特徴量算出処理の詳細について、図3に例示するフローチャートを参照して説明する。図3のステップS31において、メインCPU11は、画像上部のB成分Bhと画像下部のB成分Btとの比(=Bh/Bt)を算出してステップS32へ進む。Bhは、画像を構成する画素データのうち、たとえば画像の上から略1/3の領域に対応する画素データのB成分の濃度値(たとえば8ビット階調の場合に0〜255)の平均である。また、Btは、画像を構成する画素データのうち、たとえば画像の下から略1/3の領域に対応する画素データのB成分の濃度値の平均である。
【0024】
ステップS32において、メインCPU11はエッジ情報Eを算出してステップS33へ進む。エッジ情報Eは、画像を構成する画素データのうち、G成分にエッジ抽出用のフィルタ処理を施した上で隣接画素間のデータの差分を算出したものである。具体的には、G成分画像に対して画素単位でsobelオペレータと呼ばれる係数行列(次式(1)および次式(2))を用いたエッジ抽出を行う。
【数1】

【数2】

上式(1)は画素並びのX方向についてのオペレータであり、上式(2)は画素並びのY方向についてのオペレータである。上記オペレータによるエッジ抽出後の画像に対してさらに、隣接画素間でそれぞれ濃度差(濃度値の差)の絶対値を算出し、これら絶対値の総和をエッジ情報Eとする。
【0025】
ステップS33において、メインCPU11は、B成分の平均濃度Bmを算出してステップS34へ進む。メインCPU11は、画像を構成する全画素データの中でB成分の濃度値(たとえば8ビット階調の場合に0〜255)の平均を算出する。
【0026】
ステップS34において、メインCPU11は、Y成分の平均濃度Ymを算出してステップS35へ進む。Y成分は、次式(3)で算出される輝度情報である。メインCPU11は、画像を構成する全画素データの中でY成分の濃度値の平均を算出する。
Y=0.299×R+0.587×G+0.114×B …(3)
【0027】
ステップS35において、メインCPU11は、画像上部の距離情報を算出する。図4は、電子カメラ1の焦点検出領域を説明する図である。図4において符号41〜51で示される11箇所のマーク(中抜き四角)が焦点検出領域(フォーカスエリア)に対応する。電子カメラ1は、フォーカスエリアのそれぞれに対応する光束を用いて、撮影画面内の複数箇所でデフォーカス量を検出可能に構成されている。
【0028】
電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、上記撮影画面内の複数箇所でそれぞれ検出されたデフォーカス量を示すデータと、ピント合わせに採用したフォーカスエリアを示すデータとを含む測距情報が、たとえば、Exif情報として記録されている。
【0029】
メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえば撮影画面の上から略1/3の領域(図4において直線L1より上側)に含まれるフォーカスエリアに関して取得された測距情報を用いて以下のように距離情報を算出し、ステップS36へ進む。
【0030】
メインCPU11は、たとえば、デフォーカス量によって被写体距離0.5m以下が示されている場合は距離情報を「0」とする。デフォーカス量によって被写体距離0.5m〜2m以下が示されている場合は距離情報を「0.3」とする。デフォーカス量によって被写体距離2m〜5m以下が示されている場合は距離情報を「0.7」とする。デフォーカス量によって被写体距離5m以上が示されている場合は距離情報を「1」とする。
【0031】
メインCPU11は、(1)撮影画面の上から略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像上部の距離情報Dhとする。メインCPU11は、(2)撮影画面の上から略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像上部の距離情報Dhとする。
【0032】
ステップS36において、メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえば撮影画面の上下方向に中央の略1/3の領域(図4において直線L1およびL2間)に含まれるフォーカスエリアに関して取得された測距情報を用いて以下のように距離情報を算出し、ステップS37へ進む。
【0033】
メインCPU11は、(1)撮影画面の中央部略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像中部の距離情報Dcとする。メインCPU11は、(2)撮影画面の中央部略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像中部の距離情報Dcとする。
【0034】
ステップS37において、メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえば撮影画面の下から略1/3の領域(図4において直線L2より下側)に含まれるフォーカスエリアに関して取得された測距情報を用いて以下のように距離情報を算出し、図3による処理を終了して図2のステップS13へ進む。
【0035】
メインCPU11は、(1)撮影画面の下部略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像下部の距離情報Dtとする。メインCPU11は、(2)撮影画面の下部略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像下部の距離情報Dtとする。以上説明した特徴量算出処理により、1画像につき7種の特徴量が算出される。
【0036】
クラスタリング処理の詳細について、図5に例示するフローチャートを参照して説明する。図5のステップS51において、メインCPU11は、1画像(n種の特徴量で示されるn次元の特徴空間における1データ)を1クラスターとしてステップS52へ進む。本実施形態では、7種の特徴量Bh/Bt、E、Bm、Ym、Dh、Dc、Dtで示される7次元空間においてクラスタリングを行う。7次元空間は、各特徴量を示す7つの特徴軸を互いに直交させた仮想空間である。
【0037】
ステップS52において、メインCPU11は、各クラスター間の距離d(R,Q)を群間平均を算出する次式(4)を用いて算出し、ステップS53へ進む。
【数3】

ただし、R、Qはそれぞれクラスターを表す。
【0038】
ステップS53において、メインCPU11は、クラスター相互の距離のうち距離最小の一対のクラスターを1つのクラスターに併合してステップS54へ進む。この処理により、クラスター数が減少する。ステップS54において、メインCPU11はクラスター数が所定数か否かを判定する。メインCPU11は、クラスター数が所定数まで減少した場合にステップS54を肯定判定して図5の処理を終了し、図2のステップS15へ進む。メインCPU11は、クラスター数が所定数まで減少していない場合にはステップS54を否定判定し、ステップS52へ戻る。ステップS52へ戻る場合はクラスタリング処理を続行する。
【0039】
本実施形態では所定数をたとえば6とすることにより、クラスター数が6になるまでクラスタリング処理を行う。この結果、画像ファイルが6つのグループに分類される。クラスタリング処理後のクラスター内に複数のデータが存在する場合、各データに対応する画像ファイルの画像は類似性が高い。
【0040】
図6は、分類処理後の画像ファイルを説明する図である。分類処理後の6つのクラスターに対応する6つのフォルダの中に、それぞれ対応する画像ファイルによるサムネイル画像を表示している。図6によれば、クラスター1に対応するフォルダに2画像、クラスター2に対応するフォルダに16画像、クラスター3に対応するフォルダに3画像、クラスター4に対応するフォルダに7画像、クラスター5に対応するフォルダに1画像、クラスター6に対応するフォルダに9画像が含まれている。
【0041】
図6に例示した6つのグループには、とくにポートレート画像が集まるグループ(クラスター2)と、スポーツシーンの画像が集まるグループ(クラスター4)と、山岳写真の画像が集まるグループ(クラスター6)が存在している。
【0042】
以上説明した第一の実施形態によれば、以下の作用効果が得られる。
(1)画像を構成する画素データ、および撮影時の測距情報に基づく画像の特徴量によって表される特徴空間において、統計解析手法として周知のクラスタリング処理を行うようにした。クラスタリング処理は分類対象であるデータの集合を複数の部分集合に分割するものであるが、画像を表す特徴量データの集合を複数の部分集合に分割することで、類似度が高い画像の特徴量データの集合(クラスタリング処理後のクラスター)が得られる。クラスター内の各特徴量データに対応する画像をグルーピングすれば類似度が高い画像のグループが得られるため、人手を介さずに全自動で画像分類を行うことができる。
【0043】
(2)画素データが示す濃度に基づく特徴量(たとえば、Bh/Bt、E、Bm、Ym)で表した特徴空間でクラスタリング処理を行うので、濃淡や色合いが類似する画像をグルーピングできる。
【0044】
(3)撮影画面を分割した複数の領域からそれぞれ画素濃度に基づく特徴量を抽出した(たとえば、Bh、Bt)ので、撮影画面の一部に存在する特徴量を用いて画像をグルーピングできる。
【0045】
(4)複数の異なる領域から抽出された特徴量の比を新たに特徴量とした(たとえば、Bh/Bt)ので、領域間のコントラストが類似する画像をグルーピングできる。
【0046】
(5)撮影時の測距情報に基づく特徴量(たとえば、Dh、Dc、Dt)で表した空間でクラスタリング処理を行うので、被写体距離が類似する画像をグルーピングできる。
【0047】
(6)撮影画面を分割した複数の領域からそれぞれ測距情報に基づく特徴量を抽出した(たとえば、Dh、Dc、Dt)ので、撮影画面の一部の測距情報を特徴量に用いて画像をグルーピングできる。
【0048】
(7)撮影画面を分割した領域にピント合わせの対象が存在する場合はその測距情報を当該分割領域の特徴量とし、撮影画面を分割した領域にピント合わせの対象が存在しない場合には当該分割領域内の測距情報の平均を当該分割領域の特徴量とした。これにより、ピントを合わせた主要被写体までの距離が平均されることがなく、近影画像を適切にグルーピングできる。
【0049】
(8)グルーピング後にグループごとのファイルへ画像ファイルを移動させたので、画像分類後の画像ファイルの扱いが簡単である。たとえば、電子カメラ1から外部機器(パーソナルコンピュータや電子フォトビューワなど)へ分類後の画像ファイルを転送する際にフォルダ単位で転送できる。これにより、外部機器へ全ての画像ファイルを転送する場合に比べて転送時間が短縮される上に、全ての画像ファイルを転送する場合に比べて外部機器側のメモリ使用量を抑えることができる。
【0050】
(変形例1)
上述した説明では、画像分類後に所定数の画像ファイル格納用フォルダを生成し、分類した画像ファイルを対応するフォルダ内へ移動させる例を説明した。この代わりに、各画像ファイル内に分類後のクラスターを示すタグ(TAG)情報を記録しておくようにしてもよい。この場合には、電子カメラ1から外部機器(パーソナルコンピュータや電子フォトビューワなど)へ分類処理後の画像ファイルを転送する際に各画像ファイルのTAG情報を参照し、クラスターが同一の画像ファイルのみを共通のフォルダへ転送すれば、類似性の高い画像を簡単にまとめることができる。
【0051】
(変形例2)
画素濃度を用いて算出した特徴量データ、および測距情報を用いて算出した特徴量データの双方を用いてクラスタリングを行う例を説明したが、いずれか一方の特徴量データのみを用いてクラスタリングを行う構成にしてもよい。
【0052】
(変形例3)
上述した数値(たとえば、特徴量の種類数、画像の上部、中部、下部における1/3領域、ステップS54において判定する所定数、撮影画面内のフォーカスエリア数など)は一例であり、異なる数値を用いても構わない。
【0053】
(変形例4)
以上の説明では、RGB表色系(いわゆる原色系)で表されたカラーの元画像に画像分類処理を行う場合を例に説明したが、CMY表色系(いわゆる補色系)で表されたカラーの元画像に対して画像分類処理を行う場合にも本発明を適用して構わない。
【0054】
(第二の実施形態)
第一の実施形態と異なる特徴量を算出してもよい。図7は、本発明の第二の実施形態による特徴量算出処理の詳細を例示するフローチャートである。図7の処理は、図3の処理に代えて行われる。図7のステップS71において、メインCPU11は、主要被写体を対象に測距値(距離情報)を算出する。図8は、本実施形態における電子カメラ1の焦点検出領域を説明する図である。撮影画面内に記した縦6×横9=54箇所のマーク(中抜き四角)が焦点検出領域(フォーカスエリア)に対応する。電子カメラ1は、フォーカスエリアのそれぞれに対応する光束を用いて、撮影画面内の複数箇所でデフォーカス量を検出可能に構成されている。
【0055】
電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、オートフォーカス(AF)調節時に上記撮影画面内の複数箇所でそれぞれ検出されたデフォーカス量を示すデータと、ピント合わせに採用されたフォーカスエリアを示すデータとを含む測距情報が、たとえば、Exif情報として記録されている。
【0056】
メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえばピント合わせに用いたフォーカスエリアについてのデフォーカス量が示す被写体距離(電子カメラ1から主要被写体までの距離)を算出し、ステップS72へ進む。本実施形態のメインCPU11は、ピント合わせに用いたフォーカスエリアに位置する被写体を主要被写体として扱う。
【0057】
複数箇所のフォーカスエリアの中からどのフォーカスエリアをピント合わせに用いるかは、ユーザ操作によってあらかじめ電子カメラ1に設定されている。たとえば、電子カメラ1に最も近い至近の測距情報が取得されるフォーカスエリアを用いたり、ユーザ操作で指定されているフォーカスエリアを用いたりすることが可能である。至近の測距情報が取得されるフォーカスエリアを採用する場合のメインCPU11は、電子カメラ1に至近の被写体を主要被写体として扱う。
【0058】
ステップS72において、メインCPU11は、被写体背景を対象に測距値(距離情報)を算出する。メインCPU11は、画像ファイル内に記録されている測距情報のうち、ピント合わせに採用されなかったフォーカスエリアに関して取得されたデフォーカス量が示す被写体距離を算出する。メインCPU11はさらに、算出した被写体距離のうち、上記主要被写体までの距離との差が所定値以上のものを、被写体背景の距離(電子カメラ1から背景までの距離)情報としてステップS73へ進む。
【0059】
ステップS73において、メインCPU11は、主要被写体までの測距値の変化量を算出する。電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、AF調節時にピント合わせに採用されたフォーカスエリアに関して取得されたデフォーカス量の直近の変化量情報が、上記Exif情報に含められている。
【0060】
至近の被写体を主要被写体として扱う場合のメインCPU11は、撮影前に繰り返し取得(たとえば、約30msec間隔)した測距情報のうち、撮影直前の所定回(たとえば3回)分の測距情報(それぞれの回で取得された至近の測距情報)を変化量情報とする。
【0061】
メインCPU11は、画像ファイル内に記録されている上記3回の測距情報m1、m2、m3から速度情報としてm1とm2の差分の絶対値、m2とm3の差分の絶対値、またはm1とm3の差分の絶対値のいずれかを測距値の変化量情報とする。または、加速度情報としてm1−(2×m2)+m3の絶対値を測距値の変化量情報としてもよい。ステップS74へ進む。
【0062】
ステップS74において、メインCPU11は、主要被写体に対応する画素データが示す濃度の変化量を算出する。電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、AF調節時にピント合わせに採用されたフォーカスエリアに対応して取得された画素データが示す濃度の直近の変化量情報が、上記Exif情報に含められている。
【0063】
至近の被写体を主要被写体として扱う場合のメインCPU11は、撮影前に繰り返し取得(たとえば、約30msec間隔)した画素データのうち、撮影直前の所定回(たとえば3回)分の濃度情報(それぞれの回で取得された濃度情報)を変化量情報とする。
【0064】
メインCPU11は、画像ファイル内に記録されている上記3回の濃度情報b1、b2、b3から速度情報としてb1とb2の差分の絶対値、b2とb3の差分の絶対値、またはb1とb3の差分の絶対値のいずれかを濃度値の変化量情報とする。または、加速度情報としてb1−(2×b2)+b3の絶対値を濃度値の変化量情報としてもよい。図7による処理を終了する。メインCPU11は、画像を構成する画素データの中で、フォーカスエリアに含まれるY成分データ群の濃度値の平均を各回の濃度情報とする。Y成分は、上式(3)で算出される輝度情報であり、画像の明るさに対応する。以上説明した特徴量算出処理により、1画像につき4種の特徴量が算出される。
【0065】
第二の実施形態のメインCPU11は、図5に例示するクラスタリング処理を以下のように行う。図5のステップS51において、メインCPU11は、1画像(n種の特徴量で示されるn次元の特徴空間における1データ)を1クラスターとしてステップS52へ進む。本実施形態では、4種の特徴量(すなわち、主要被写体までの距離情報、被写体背景の距離情報、主要被写体までの距離情報の変化量、Y成分の濃度変化量)で示される4次元空間においてクラスタリングを行う。4次元空間は、各特徴量を示す4つの特徴軸を互いに直交させた仮想空間である。
【0066】
ステップS52において、メインCPU11は、各クラスター間の距離d(R,Q)を群間平均を算出する上式(4)を用いて算出し、ステップS53へ進む。ただし、R、Qはそれぞれクラスターを表す。
【0067】
ステップS53において、メインCPU11は、クラスター相互の距離のうち距離最小の一対のクラスターを1つのクラスターに併合してステップS54へ進む。この処理により、クラスター数が減少する。ステップS54において、メインCPU11はクラスター数が所定数か否かを判定する。メインCPU11は、クラスター数が所定数まで減少した場合にステップS54を肯定判定して図5の処理を終了し、図2のステップS15へ進む。メインCPU11は、クラスター数が所定数まで減少していない場合にはステップS54を否定判定し、ステップS52へ戻る。ステップS52へ戻る場合はクラスタリング処理を続行する。
【0068】
第二の実施形態では所定数をたとえば7とすることにより、クラスター数が7になるまでクラスタリング処理を行う。この結果、画像ファイルが7つのグループに分類される。クラスタリング処理後のクラスター内に複数のデータが存在する場合、各データに対応する画像ファイルの画像は類似性が高い。
【0069】
図9は、分類処理後の画像ファイルを説明する図である。分類処理後の7つのクラスターに対応する7つのフォルダの中に、それぞれ対応する画像ファイルによるサムネイル画像を表示している。図9によれば、クラスター1に対応するフォルダに2画像、クラスター2に対応するフォルダに4画像、クラスター3に対応するフォルダに3画像、クラスター4に対応するフォルダに3画像、クラスター5に対応するフォルダに3画像、クラスター6に対応するフォルダに2画像、クラスター7に対応するフォルダに1画像が含まれている。
【0070】
図9に例示した7つのグループには、山岳写真の画像が集まるグループ(クラスター1)と、花の遠景の画像が集まるグループ(クラスター2)と、花の接写画像が集まるグループ(クラスター3)と、ポートレートの画像が集まるグループ(クラスター4)と、山岳より距離が近く、かつ緑成分の多い画像が集まるグループ(クラスター5)と、室内で暗い画像が集まるグループ(クラスター6)と、室内で明るい画像が集まるグループ(クラスター7)とが存在している。
【0071】
以上説明した第二の実施形態によれば、以下の作用効果が得られる。
(1)主要被写体までの距離情報に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、接写画像やポートレート画像など、撮影距離が類似する画像をグルーピングできる。
【0072】
(2)背景被写体までの距離情報に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、山岳写真など背景までの距離が類似する画像をグルーピングできる。
【0073】
(3)主要被写体までの距離情報の変化量に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、スポーツシーンなどの画像をグルーピングできる。
【0074】
(4)至近の測距情報が得られるフォーカスエリアを用いて距離情報の変化量を求めるようにしたので、主要被写体までの距離の変化とともに、主要被写体が撮影画面内を移動する場合の変化量をも加味した特徴空間でクラスタリング処理を行うことができる。
【0075】
(5)主要被写体の濃度(たとえば輝度)情報の変化量に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、明るさが変化するシーンなどの画像をグルーピングできる。
【0076】
(変形例5)
主要被写体までの距離情報を用いて算出した特徴量データ、背景被写体までの距離情報を用いて算出した特徴量データ、主要被写体までの距離情報の変化量を用いて算出した特徴量データ、および主要被写体の濃度情報の変化量を用いて算出した特徴量データをそれぞれ用いてクラスタリングを行う例を説明したが、1つの特徴量データを用いてクラスタリングを行ってもよい。なお、少なくとも2つ以上の複数の特徴量データを用いてクラスタリングを行うようにすれば、たとえば、主要被写体までの距離と背景までの距離との双方が類似する画像をグルーピングできるため、グルーピングの精度を高めることができる。
【0077】
(変形例6)
第二の実施形態で説明した4つの特徴量データに加えて、第一の実施形態で説明した7つの特徴量データを用いてクラスタリングを行ってもよい。この場合にも、少なくとも2つ以上の特徴量データを用いてクラスタリングを行う構成にするとよい。
【0078】
(変形例7)
ステップS74において、画素データが示す濃度の変化量を算出する際にフォーカスエリアに含まれるY成分データ群の濃度値の平均を用いて算出した。この代わりに、特定の色成分(たとえばB成分)のデータ群の濃度値の平均を用いて算出するようにしてもよい。この場合には、主要被写体の濃度(たとえばB成分)情報の変化量に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、特定の色味が変化するシーンなどの画像をグルーピングできる。
【0079】
(変形例8)
電子カメラ1内で画像分類処理を実行する例を説明したが、図2、図3および図5による処理を行う画像分類プログラムを図7に示すコンピュータ装置10に実行させることにより、画像分類装置を構成してもよい。画像分類プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像分類装置として使用する。
【0080】
パーソナルコンピュータ10に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ10にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ10へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。画像分類プログラムは、記録媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
【0081】
以上の説明では種々の実施形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も、本発明の範囲内に含まれる。
【0082】
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2006年第276190号(2006年10月10日出願)

【特許請求の範囲】
【請求項1】
複数の焦点検出領域に対応するデフォーカス量が検出可能な画像情報から、画像の領域分割を行い、領域ごとの距離情報を特徴量として算出する第1処理と、
前記特徴量が表す空間でクラスタリングを行う第2処理と、
前記クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理と、
をコンピュータ装置に実行させることを特徴とする画像分類プログラム。
【請求項2】
請求項1に記載の画像分類プログラムにおいて、
前記画像の領域分割は、画像の上部領域、画像の中央領域、および画像の下部領域であることを特徴とする画像分類プログラム。
【請求項3】
請求項2に記載の画像分類プログラムにおいて、
前記第1処理は、画像の上部領域の色成分画素濃度と下部領域の色成分画素濃度との比に基づく特徴量、画像のエッジ抽出後の隣接画素間の濃度差の絶対値を表すエッジ情報、画像全体のB成分の平均濃度、画像全体のY成分の平均濃度に基づく特徴量を加え、7つの特徴量として算出することを特徴とする画像分類プログラム。
【請求項4】
画像撮影時の主要被写体についての測距情報、画像撮影時の背景についての測距情報、および画像撮影時の主要被写体についての測距情報の時間的変化量に基づく特徴量をそれぞれ算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理と、
をコンピュータ装置に実行させることを特徴とする画像分類プログラム。
【請求項5】
請求項4に記載の画像分類プログラムにおいて、
前記第1処理は、画像の画素濃度および画像撮影時の主要被写体についての画素濃度の変化量に基づく特徴量を新たな特徴量として算出することを特徴とする画像分類プログラム。
【請求項6】
請求項1〜5のいずれか一項に記載の画像分類プログラムを搭載したことを特徴とする画像分類装置。
【請求項7】
請求項1〜5のいずれか一項に記載の画像分類プログラムを搭載したことを特徴とする電子カメラ。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate


【公開番号】特開2012−164345(P2012−164345A)
【公開日】平成24年8月30日(2012.8.30)
【国際特許分類】
【出願番号】特願2012−99065(P2012−99065)
【出願日】平成24年4月24日(2012.4.24)
【分割の表示】特願2008−538656(P2008−538656)の分割
【原出願日】平成19年10月1日(2007.10.1)
【出願人】(000004112)株式会社ニコン (12,601)
【Fターム(参考)】