説明

画像処理装置、撮像装置、及びプログラム

【課題】画像をラベリングするための演算処理の負荷を軽減できる画像処理装置、撮像装置、及びプログラムを提供することを目的としている。
【解決手段】撮像された画像データを取得する画像取得部と、取得された画像データからシーンを判別するシーン判別部と、取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出部と、シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部と、記憶部から抽出された主要色と判別されたシーンとに関連付けて予め記憶されている第1ラベルを読み出し、読み出した第1ラベルを取得された画像データのラベルとして生成する第1ラベル生成部と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、撮像装置、及びプログラムに関する。
【背景技術】
【0002】
画像を分類する従来技術の画像処理装置では、画像を予め定められているパターンの領域に分割し、各領域の色に関する分布のヒストグラムを作成する。そして、従来技術の画像処理装置では、特定のしきい値を超える最頻出色をその領域の代表領域色として決定する。さらに、従来技術の画像処理装置では、その領域の特徴量を抽出し、決定した領域の特徴量と代表色に基づき、特徴量を抽出した画像を定義して、画像辞書を構築していた。
従来技術の画像処理装置では、例えば、画像上部の大きな領域の代表色を抽出して、抽出した代表色に基づいて、「青空」、「曇り空」、「夜空」などを定義して画像辞書を構成していた(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2001−160057号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の従来技術では、予め定められた領域毎に抽出した特徴量と、最頻出色である代表色により分類していたため、画像を分類する(ラベリングする)ための演算処理の負担が大きかった。
【0005】
本発明は、上記の問題点に鑑みてなされたものであって、画像をラベリングするための演算処理の負荷を軽減できる画像処理装置、撮像装置、及びプログラムを提供することを目的としている。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明に係る画像処理装置は、撮像された画像データを取得する画像取得部と、前記取得された画像データからシーンを判別するシーン判別部と、前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出部と、シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部と、前記記憶部から、前記抽出された主要色と前記判別されたシーンとに関連付けて予め記憶されている前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成部と、を備えることを特徴としている。
【0007】
また、本発明に係る撮像装置は、上記に記載の画像処理装置を備えることを特徴としている。
【0008】
また、本発明は、撮像部を有する画像処理装置の画像処理をコンピュータに実行させるためのプログラムであり、撮像した画像データを取得する画像取得手順と、前記取得された画像データからシーンを判別するシーン判別手順と、前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出手順と、前記抽出された主要色と、シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部から前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成手順と、をコンピュータに実行させることを特徴としている。
【0009】
また、本発明の一態様の画像処理装置は、人物撮影シーンであるか否かを判別するシーン判別部と、前記シーン判別部により人物撮影シーンではないと判別されたとき、前記画像データから色情報を抽出する色抽出部と、色情報と所定の意味を有する文字とが関連付けられて予め記憶されている記憶部と、前記シーン判別部により人物撮影シーンではないと判別されたとき、前記色抽出部に抽出された前記色情報に対応する前記所定の意味を有する文字を前記記憶部から読み出す読み出し部とを備えることを特徴とする。
【発明の効果】
【0010】
本発明の画像処理装置によれば、好適な画像のラベリングを実現し得る。また、本発明によれば、この画像処理装置を備えた撮像装置及びプログラムを提供することができる。
【図面の簡単な説明】
【0011】
【図1】本実施形態に係る撮像システム1の構成を示す概略ブロック図である。
【図2】同実施形態に係る画像処理部4のブロック図である。
【図3】同実施形態に係る記憶媒体200に画像データに関連付けられて記憶されている画像識別情報の一例を説明する図である。
【図4】同実施形態に係るテーブル記憶部45に記憶されている主要色の組み合わせと第1ラベルの一例を説明する図である。
【図5】同実施形態に係る画像データの主要色の一例を説明する図である。
【図6】図5で抽出された主要色のラベリングの一例を説明する図である。
【図7】同実施形態に係るスポーツの画像データと色ベクトルの図である。
【図8】同実施形態に係るポートレートの画像データと色ベクトルの図である。
【図9】同実施形態に係る風景の画像データと色ベクトルの図である。
【図10】同実施形態に係るシーン毎の主要色の組み合わせの第1ラベルの一例を説明する図である。
【図11】同実施形態に係る時刻、季節と色ベクトルによる第1ラベルの例を説明する図である。
【図12】同実施形態に係る撮像装置100が行うラベル生成のフローチャートである。
【図13】第2実施形態に係る画像処理部4aのブロック図である。
【図14】第3実施形態に係る画像処理部4bのブロック図である。
【図15】同実施形態に係る撮像装置100が行うラベル生成のフローチャートである。
【図16】第4実施形態に係る画像データから、複数の色ベクトルを抽出する一例を説明する図である。
【図17】撮像画像の特徴量を抽出するプロセスの一例を模式的に示す図である。
【図18】撮像画像の特徴量を抽出するプロセスの別の一例を模式的に示す図である。
【図19】笑顔レベルの判定方法を模式的に示すフローチャートである。
【図20A】画像処理装置からの出力画像の一例を示す図である。
【図20B】画像処理装置からの出力画像の別の例を示す図である。
【図21】撮像装置の画像処理部の内部構成を表す概略ブロック図である。
【図22】代表色の決定の流れを示すフローチャートである。
【図23】画像処理部における処理の一例を示す概念図である。
【図24】画像処理部における処理の一例を示す概念図である。
【図25】図24に示す主要領域に対して実施されたクラスタリングの結果を示す概念図である。
【図26】文章付加部によって文章を付加された画像の一例である。
【図27】文章付加部によって文章を付加された画像の別の一例である。
【図28】色と単語との対応テーブルの一例を示す図である。
【図29】遠景画像(第2シーン画像)用の対応テーブルの一例を示す図である。
【図30】その他の画像(第3シーン画像)用の対応テーブルの一例を示す図である。
【発明を実施するための形態】
【0012】
以下、図面を用いて、本発明の実施形態について説明する。
【0013】
[第1実施形態]
図1は、本実施形態に係る撮像システム1の構成を示す概略ブロック図である。
図1に示す撮像装置100は、撮像部2、カメラ制御部3、画像処理部4、記憶部5、バッファメモリ部6、表示部7、操作部11、通信部12、電源部13、及びバス15を備えている。
【0014】
撮像部2は、レンズ部21、撮像素子22、及びAD変換部23を備えており、被写体を撮像して画像データを生成する。この撮像部2は、設定された撮像条件(例えば絞り値、露出等)に基づいてカメラ制御部3により制御され、レンズ部21を介して入力された被写体の光学像を、撮像素子22の撮像面上に結像させる。また、撮像部2は、撮像素子22から出力されたアナログ信号をAD変換部23においてデジタル信号に変換し、画像データを生成する。
なお、上述したレンズ部21は、撮像装置100に取り付けられて一体とされていてもよいし、撮像装置100に着脱可能に取り付けられてもよい。
【0015】
撮像素子22は、撮像面に結像された光学像を光電変換したアナログ信号を、AD変換部23に出力する。AD変換部23は、撮像素子22から入力されたアナログ信号をデジタル信号に変換し、この変換したデジタル信号である画像データを出力する。
【0016】
例えば、撮像部2は、操作部11における静止画撮影操作に応じて、撮像した静止画の画像データを出力する。また、撮像部2は、操作部11における動画撮影操作に応じて、所定の間隔で連続的に撮像した動画の画像データを出力する。そして、撮像部2によって撮像された静止画の画像データ及び動画の画像データは、カメラ制御部3の制御により、バッファメモリ部6や画像処理部4を介して記憶媒体200に記録される。また、撮像部2は、操作部11における撮影操作がされていない撮影待機状態の場合、所定の間隔で連続的に得られる画像データをスルー画像データ(スルー画)として出力する。そして、撮像部2によって得られたスルー画像データは、カメラ制御部3の制御により、バッファメモリ部6や画像処理部4を介して表示部7に表示される。
【0017】
画像処理部4は、記憶部5に記憶されている画像処理条件に基づいて、バッファメモリ部6に記憶されている画像データに対して画像処理を実行する。ここで、バッファメモリ部6または記憶媒体200に記憶されている画像データとは、例えば、撮像部2によって撮像された静止画の画像データ、スルー画像データ、もしくは動画の画像データ、または記憶媒体200から読み出された画像データである。
【0018】
記憶部5には、撮像装置100を制御するための、予め定められた撮影条件、画像処理条件、再生制御条件、表示制御条件、記録制御条件、及び出力制御条件などが記憶されている。例えば、記憶部5は、ROM(Read Only Memory)である。
なお、記憶部5には、撮像された動画の画像データ及び静止画の画像データが記録されてもよい。この場合、例えば、記憶部5は、フラッシュメモリ等であってもよい。
【0019】
バッファメモリ部6は、カメラ制御部3が撮像装置100を制御する際の作業領域として利用される。撮像部2によって撮像された静止画の画像データ、スルー画像データ、もしくは動画の画像データ、または記憶媒体200から読み出された画像データは、カメラ制御部3の制御による画像処理の過程においてバッファメモリ部6に一時的に記憶される。バッファメモリ部6は、例えばRAM(Random Access Memory)である。
【0020】
表示部7は、例えば、液晶ディスプレイであり、撮像部2によって撮像された画像データに基づく画像、もしくは記憶媒体200から読み出された画像データに基づく画像、またはメニュー画面、もしくは撮像装置100の動作状態や設定に関する情報等を表示する。
【0021】
操作部11は、撮像装置100に対して操作者が操作入力するための操作スイッチを備えている。例えば、操作部11は、電源スイッチ、レリーズスイッチ、モードスイッチ、メニュースイッチ、上下左右選択スイッチ、確定スイッチ、取消スイッチ、及びその他の操作スイッチを備えている。操作部11が備えている上述のそれぞれのスイッチは、操作されることに応じて、それぞれの操作に対応した操作信号をカメラ制御部3に出力する。
【0022】
通信部12には、カードメモリ等の着脱可能な記憶媒体200が挿入される。
通信部12を介して、この記憶媒体200に画像データの書込み、読み出し、または消去が実行される。
記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であり、例えば、撮像部2で撮像されて生成された画像データが記録される。なお、本実施形態において、記憶媒体200に記録される画像データは、例えば、イグジフ(Exif;Exchangeable Image File Format)形式のファイルである。
【0023】
電源部13は、撮像装置100が備えている各部に電力を供給する。電源部13は、例えばバッテリーを備えており、当該バッテリーから供給される電力の電圧を、上述の各部における動作電圧に変換する。そして、電源部13は、変換した動作電圧の電力を、撮像装置100の動作モード(例えば、撮影動作モード、またはスリープモード)に基づいて、カメラ制御部3の制御により上述の各部に供給する。
【0024】
バス15は、撮像部2、カメラ制御部3、画像処理部4、記憶部5、バッファメモリ部6、表示部7、操作部11、及び通信部12と接続され、各部から出力された画像データや制御信号等を転送する。
【0025】
カメラ制御部3は、撮像装置100が備えている各部を制御する。
【0026】
図2は、本実施形態に係る画像処理部4のブロック図である。
図2に示すように、画像処理部4は、画像取得部41、画像識別情報取得部42(シーン判別部)、色空間ベクトル生成部43、主要色抽出部44、テーブル記憶部45、第1ラベル生成部46、第2ラベル生成部47、ラベル出力部48を備えている。
【0027】
画像取得部41は、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。画像取得部41が読み出す画像データは、撮像システム1の使用者が操作部11の操作により選択した画像データである。画像取得部41は、取得した画像データを、色空間ベクトル生成部43に出力する。画像取得部41は、取得した画像識別情報を画像識別情報取得部42に出力する。
【0028】
図3は、本実施形態に係る記憶媒体200に画像データに関連付けられて記憶されている画像識別情報の一例を説明する図である。
図3において、左の列は項目例であり、右の列は情報の例である。図3に示すように、画像データと関連付けられて記憶されている項目は、撮像日時、画像全体の解像度、シャッタースピード、絞り値(F値)、ISO感度、測光モード、フラッシュ使用の有無、シーンモード、静止画・動画等である。これらの画像識別情報は、撮影者が撮像時に撮像システム1の操作部11で設定した情報と、撮像装置100が自動的に設定した情報である。また、これらの画像識別情報は、画像データと関連付けられて記憶されているExif規格の情報を用いるようにしてもよい。
項目において「シーン」(撮影モードともいう)とは、撮像装置100に予め設定されているシャッタースピード、F値、ISO感度、及び焦点距離などの組み合わせパターンである。これらの組み合わせパターンは、撮像する対象に合わせて予め設定され、記憶媒体200に記憶され、使用者が操作部11から手動で選択される。シーンは、例えば、ポートレート、風景、スポーツ、夜景ポートレート、パーティー、ビーチ、雪、夕焼け、夜景、クローズアップ、料理、美術館、花火、逆光、子供、ペットなどである。
【0029】
図2に戻って、画像識別情報取得部42は、画像取得部41が出力する画像識別情報から、撮像された画像データに設定されている撮影情報を抽出し、抽出した撮影情報を第1ラベル生成部46に出力する。なお、撮影情報とは、第1ラベル生成部46が第1ラベルを生成するために必要な情報であり、例えばシーン、撮影日時等である。
【0030】
色空間ベクトル生成部43は、画像取得部41が出力する画像データを、予め定められている色空間のベクトルに変換する。予め定められている色空間は、例えばHSV(Hue(色相)、Saturation(彩度)、Brightness(明度))である。
色空間ベクトル生成部43は、画像データの全画素を色ベクトル毎に分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。色空間ベクトル生成部43は、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。
なお、画像データがHSVの場合、色ベクトルは、次式(1)のように表される。
【0031】
【数1】

【0032】
なお、式(1)において、i、j、kは、色相を0〜100%に正規化した場合、各々0から100の自然数である。
【0033】
主要色抽出部44は、色空間ベクトル生成部43が出力する色ベクトルの頻度分布を示す情報から頻度の高い順に3色を主要色として抽出し、抽出した主要色を示す情報を第1ラベル生成部46に出力する。なお、頻度が高い色は、同じ色ベクトルの画素数が多い色である。また、主要色を示す情報とは、式(1)の色ベクトルと、この色ベクトル毎の頻度(画素数)である。
なお、本実施形態において、主要色抽出部44は、色空間ベクトル生成部43と主要色抽出部44とにより構成するようにしてもよい。
【0034】
テーブル記憶部45(記憶部)には、シーン毎と主要色の組み合わせ毎に、第1ラベルが予め関連付けられて記憶されている。
【0035】
図4は、本実施形態に係るテーブル記憶部45に記憶されている主要色の組み合わせと第1ラベルの一例を説明する図である。
図4に示すように、画像データから抽出された主要色の中で、頻度が1番高い第1色、第1色の次に頻度が高い第2色、第2色の次に頻度が高い第3色の3色の組み合わせ毎と、シーン毎に第1ラベルが予め定義され、テーブル記憶部45に記憶されている。例えば、第1色が色1、第2色が色2、第3色が色3の組み合わせにおいて、シーン1の第1ラベルはラベル(1,1)であり、シーンnのラベルはラベル(1,n)である。同様に、第1色が色m、第2色が色m、第3色が色mの組み合わせにおいて、シーン1の第1ラベルはラベル(m,1)であり、シーンnのラベルはラベル(m,n)である。
このように、シーン毎と主要な3色の組み合わせ毎のラベルを、予め実験やアンケートなどにより定義しておき、テーブル記憶部45に記憶させておく。なお、第1色と第2色と第3色との頻度の比率は、1:1:1である。
【0036】
図2に戻って、第1ラベル生成部46は、画像識別情報取得部42が出力する撮影情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。第1ラベル生成部46は、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。また、第1ラベル生成部46は、例えば、撮影情報であるExifに含まれる情報等を用いてシーン判別する。
【0037】
第2ラベル生成部47は、主要色抽出部44が出力する主要色を示す情報から色ベクトル毎の頻度を抽出し、抽出した頻度を用いて3つの色ベクトルの頻度を正規化し、3つの主要色の比率を算出する。第2ラベル生成部47は、算出した3つの主要色の比率に基づき第1ラベルを修飾する修飾ラベル(第3ラベル)を生成し、生成した修飾ラベルを第1ラベル生成部46が出力する第1ラベルに修飾させることで第1ラベルを修正して、画像データに対する第2ラベルを生成する。第2ラベル生成部47は、生成した第2ラベルを示す情報をラベル出力部48に出力する。
【0038】
ラベル出力部48は、第2ラベル生成部47が出力する第2ラベルを示す情報を画像データと関連付けてテーブル記憶部45に記憶する。または、ラベル出力部48は、第2ラベル生成部47が出力するラベルを示す情報を画像データと関連付けて記憶媒体200に記憶する。
【0039】
図5は、本実施形態に係る画像データの主要色の一例を説明する図である。
図5において、横軸は色ベクトルであり、縦軸は色ベクトル(色情報)の頻度である。
図5の例は、色空間ベクトル生成部43が、画像データをHSVに分解した色ベクトル(HSV=(i,j,k);mは0から100の自然数)の頻度分布のグラフである。また、図5は、左端にH(色相)=0、S(彩度)=0、V(明度)=0、右端にH=100、S=100、V=100を模式的に順番に並べたものである。そして、色ベクトル毎に頻度を算出した結果を、模式的に表したものである。図5の例では、頻度が1番高い第1色c1が、ベクトルHSV=(i,j69,k100)、ばら色(ローズ)である。また、頻度が第1色の次に高い第2色c2が、ベクトルHSV=(i13,j52,k100)、淡黄色(サルファー)である。さらに、頻度が第2色の次に高い第3色c3が、ベクトルHSV=(i40,j65,k80)、冴青磁色(エメラルド)である。
【0040】
図6は、図5で抽出された主要色のラベリングの一例を説明する図である。なお、図5及び図6の色ベクトルは、例えば、シーンモードがポートレートの画像データであるとして説明する。
図6(a)は、図5で抽出された第1色、第2色、第3色の例である。図6(a)に示すように、模式的に左から図5で示した色ベクトルの順番に並べて表してある。第1ラベル生成部46は、主要色抽出部44が抽出した第1色、第2色、第3色の組み合わせと関連付けられて記憶されている第1ラベルをテーブル記憶部45から読み出す。この場合、第1色、第2色、第3色の組み合わせの第1ラベルは、「愉快な」として記憶されている。また、図6(a)に示すように、正規化前の第1色、第2色、第3色の各幅は、L1、L2及びL3であり、幅L1、L2及びL3の長さは等しい。また、長さL10は、各幅L1、L2及びL3の合計である。
【0041】
図6(b)は、抽出された第1色、第2色、第3色を、頻度で正規化して、第1色、第2色、第3色の各幅をL1’、L2’、L3’のように補正した後の図である。幅の合計L10は、図6(a)と同じである。図6(b)の例では、第1色の頻度が他の第2色と第3色の頻度より高いため、第2ラベル生成部47は、第1ラベル生成部46が読み出した第1ラベル「愉快な」に対して、予め定められているルールに基づき、第1ラベル「愉快な」を修飾する修飾ラベル「とても」を生成する。予め定められているルールとは、第1色が、他の第2色と第3色より、予め定められているしきい値より頻度が多い場合、第2ラベル生成部47は、修飾ラベル「とても」を生成して、生成した修飾ラベルを第1ラベル「愉快な」に修飾させることで第1ラベルを修正して、第2ラベル「とても愉快な」を生成する。なお、修飾ラベルは、例えば、第1ラベルを強調する単語である。
【0042】
次に、修飾ラベルの例について説明する。
図6(a)に示すように、正規化前は、主要色抽出部44が抽出した3つの色の幅または面積は、1:1:1である。そして、色ベクトルの頻度に基づき正規化した後、3つの色の幅または面積は、図6(b)のように補正される。例えば、第1色の比率が、全体L10の約67%より大きい場合、第2ラベル生成部47は、修飾ラベルとして「とても」を第1ラベルに修飾させることで第1ラベルを修正して第2ラベルとする。また、第1色の比率が、全体L10の約50%より大きく67%より小さい場合、第2ラベル生成部47は、修飾ラベルなしとする。すなわち、第2ラベル生成部47は、第1ラベルを修正せずに第2ラベルとする。また、第1色の比率が、全体L10の約33%の場合、第2ラベル生成部47は、修飾ラベルとして「ちょっと」を第1ラベルに修飾させることで第1ラベルを修正して第2ラベルとする。
このように、第2ラベル生成部47は、第1ラベルに応じて、修飾する修飾ラベルを生成する。例えば、第1ラベル毎に、修飾可能な修飾ラベルを予めテーブル記憶部45に関連付けて記憶させておいてもよい。
【0043】
次に、シーン毎の主要色の例について、図7〜図9を用いて説明する。
図7は、本実施形態に係るスポーツの画像データと色ベクトルの図である。図7(a)は、スポーツの画像データであり、図7(b)は、スポーツの色ベクトルのグラフである。図8は、本実施形態に係るポートレートの画像データと色ベクトルの図である。図8(a)は、ポートレートの画像データであり、図8(b)は、ポートレートの色ベクトルのグラフである。図9は、本実施形態に係る風景の画像データと色ベクトルの図である。図9(a)は、風景の画像データであり、図9(b)は、風景の色ベクトルのグラフである。図7(b)、図8(b)、図9(b)において、横軸は色ベクトル、縦軸は頻度(画素数)である。
【0044】
図7(a)と図7(b)に示すように、図7(a)の画像データを画素毎に色ベクトルに分解し、各色ベクトルの頻度(画素数)をグラフ化すると図7(b)のようになる。主要色抽出部44は、このような色ベクトルの情報から、例えば、画素数の多い3つの色c11、c12、c13を抽出する。
【0045】
図8(a)と図8(b)に示すように、図8(a)の画像データを画素毎に色ベクトルに分解し、各色ベクトルの頻度(画素数)をグラフ化すると図8(b)のようになる。主要色抽出部44は、このような色ベクトルの情報から、例えば、画素数の多い3つの色c21、c22、c23を抽出する。
図9(a)と図9(b)に示すように、図9(a)の画像データを画素毎に色ベクトルに分解し、各色ベクトルの頻度(画素数)をグラフ化すると図9(b)のようになる。主要色抽出部44は、このような色ベクトルの情報から、例えば、画素数の多い3つの色c31、c32、c33を抽出する。
【0046】
図10は、本実施形態に係るシーン毎の主要色の組み合わせの第1ラベルの一例を説明する図である。図10において、行はシーン、列は色ベクトルを表している。
図10において、画像データがHSVの場合、色の組み合わせ(色1、色2、色3)のHSVの各色相、彩度及び強度は、例えば、色1が(94、100、25)(栗色、マルーン)、色2が(8、100、47)(たばこ色、コーヒー・ブラウン)、色3が(81、100、28)(深紫色、ダスキー・バイオレット)である。
また、色ベクトル(色4、色5、色6)のHSVの各色相、彩度及び強度は、例えば、色4が(1、69、100)(ばら色、ローズ)、色5が(13、25、100)(象牙色、アイボリー)、色6が(52、36、91)(水色、アクア・ブルー)である。
また、色ベクトル(色7、色8、色9)のHSVの各色相、彩度及び強度は、例えば、色7が(40、65、80)(冴青磁色、エメラルド)、色8が(0、0、100)(白色、ホワイト)、色9が(59、38、87)(サルビア色、サルビア・ブルー)である。
【0047】
図10に示すように、例えば、色の組み合わせが(色1、色2、色3)の場合、シーンがポートレートの第1ラベルは、「ダンディな」とテーブル記憶部45に記憶されている。同じ色の組み合わせ(色1、色2、色3)でもシーンが風景の第1ラベルは、「趣深い」であるとテーブル記憶部45に記憶されている。また、同じ色の組み合わせ(色1、色2、色3)でもシーンがスポーツの第1ラベルは、「(ラグビー風)男っぽい」であるとテーブル記憶部45に記憶されている。
また、図10に示すように、例えば、色の組み合わせが(色4、色5、色6)の場合、シーンがポートレートの第1ラベルは、「子供らしい」であるとテーブル記憶部45に記憶されている。同じ色の組み合わせ(色4、色5、色6)でもシーンが風景の第1ラベルは、「やわらかい」であるとテーブル記憶部45に記憶されている。また、同じ色の組み合わせ(色4、色5、色6)でもシーンがスポーツの第1ラベルは、「(テニス風)生き生きした」であるとテーブル記憶部45に記憶されている。
また、図10に示すように、例えば、色の組み合わせが(色7、色8、色9)の場合、シーンがポートレートの第1ラベルは、「若々しい」であるとテーブル記憶部45に記憶されている。同じ色の組み合わせ(色7、色8、色9)でもシーンが風景の第1ラベルは、「(新緑のイメージ)すがすがしい」であるとテーブル記憶部45に記憶されている。
また、同じ色の組み合わせ(色7、色8、色9)でもシーンがスポーツの第1ラベルは、「(海上スポーツ風)さわやかな」であるとテーブル記憶部45に記憶されている。
また、図10に示したように、テーブル記憶部45に記憶される情報は、色の組み合わせと形容詞や副詞の第1ラベルのみではなく、イメージを表す単語も関連付けて記憶させておくようにしてもよい。なお、イメージを表す単語とは、例えば、ラグビー風、新緑のイメージなどである。
【0048】
図11は、本実施形態に係る時刻、季節と色ベクトルによる第1ラベルの例を説明する図である。図11において、色ベクトルは、画像データがHSVであり、図10で説明した色の組み合わせ(色7、色8、色9)である。図11において、列は、時刻と季節を表し、行は、色の組み合わせ(色7、色8、色9)に対する各時刻と季節のラベルである。
図11に示すように、色の組み合わせ(色7、色8、色9)の第1ラベルは、時刻が朝の場合、「すがすがしい」、時刻が昼の場合、「雨っぽい」、時刻が夜の場合、「夜明けが近い」であるとテーブル記憶部45に記憶されている。
図11に示すように、色の組み合わせ(色7、色8、色9)の第1ラベルは、季節が春の場合、「肌寒い」、季節が夏の場合、「涼しい」、季節が秋の場合、「肌寒い」、季節が冬の場合、「寒い」であるとテーブル記憶部45に記憶されている。
このような時刻、季節に関する情報は、画像識別情報取得部42が取得した画像識別情報に含まれる撮影日時に基づき、第1ラベル生成部46が第1ラベルをテーブル記憶部45から読み出す。
また、図11に示すように、同じ色の組み合わせ(色7、色8、色9)に対して、春と秋で第1ラベルが同じでもよい。
【0049】
次に、撮像装置100が行うラベル生成処理について、図12を用いて説明する。図12は、本実施形態に係る撮像装置100が行うラベル生成のフローチャートである。
【0050】
(ステップS1)撮像装置100の撮像部2は、カメラ制御部3の制御に基づき画像を撮像する。次に、撮像部2は、撮像した画像データをAD変換部23によりデジタルデータに変換し、変換した画像データを記憶媒体200に記憶する。
次に、カメラ制御部3は、撮像時に操作部11により使用者により設定または選択された撮影条件、及び撮像時に撮像装置100が自動的に設定または取得した情報等を含む画像識別情報を、撮像された画像データと関連付けて記憶媒体200に記憶する。ステップS1終了後、ステップS2に進む。
【0051】
(ステップS2)次に、画像処理部4の画像取得部41は、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。なお、画像取得部41が読み出す画像データは、撮像システム1の使用者が操作部11の操作により選択した画像データである。
次に、画像取得部41は、取得した画像データを、色空間ベクトル生成部43に出力する。次に、画像取得部41は、取得した画像識別情報を画像識別情報取得部42に出力する。ステップS2終了後、ステップS3に進む。
【0052】
(ステップS3)次に、画像識別情報取得部42は、画像取得部41が出力する画像識別情報から撮像された画像データに設定されている撮影情報を抽出し、抽出した撮影情報を第1ラベル生成部46に出力する。ステップS3終了後、ステップS4に進む。
【0053】
(ステップS4)次に、色空間ベクトル生成部43は、画像取得部41が出力する画像データを予め定められている色空間のベクトルに変換する。予め定められている色空間は、例えばHSVである。次に、色空間ベクトル生成部43は、生成した色ベクトル毎に画像データの全画素を分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。次に、色空間ベクトル生成部43は、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。ステップS4終了後、ステップS5に進む。
【0054】
(ステップS5)次に、主要色抽出部44は、色空間ベクトル生成部43が出力する色ベクトルの頻度分布を示す情報から頻度の高い順に3色を主要色として抽出し、抽出した主要色を示す情報を第1ラベル生成部46に出力する。ステップS5終了後、ステップS6に進む。
【0055】
(ステップS6)次に、第1ラベル生成部46は、画像識別情報取得部42が出力する撮影情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。次に、第1ラベル生成部46は、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。
なお、第1ラベル生成部46は、テーブル記憶部45に、画像識別情報取得部42が出力する撮影情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルが記憶されていない場合、例えば、同じ主要色について別のシーンの第1ラベルが記録されているか否かを判別する。同じ主要色について別のシーンの第1ラベルが記録されていると判別した場合、第1ラベル生成部46は、同じ主要色について別のシーンの第1ラベルをテーブル記憶部45から読み出すようにしてもよい。一方、同じ主要色について別のシーンの第1ラベルが記録されていないと判別した場合、第1ラベル生成部46は、主要色と最も色ベクトルの距離が近く且つシーンが同一の色ベクトルと関連付けられて記憶されているラベルをテーブル記憶部45から読み出すようにしてもよい。
ステップS6終了後、ステップS7に進む。
【0056】
(ステップS7)次に、第2ラベル生成部47は、主要色抽出部44が出力する主要色を示す情報から各色ベクトルの頻度を正規化し、3つの主要色の比率を算出する。ステップS7終了後、ステップS8に進む。
【0057】
(ステップS8)次に、第2ラベル生成部47は、算出した3つの主要色の比率に基づき、第1ラベル生成部46が出力する第1ラベルを修飾する修飾ラベルを生成し、生成した修飾ラベルで第1ラベルを修飾させることで第1ラベルを修正して第2ラベルを生成する。次に、第2ラベル生成部47は、生成した第2ラベルを示す情報をラベル出力部48に出力する。ステップS8終了後、ステップS9に進む。
【0058】
(ステップS9)次に、ラベル出力部48は、第2ラベル生成部47が出力する第2ラベルを示す情報を画像データと関連付けてテーブル記憶部45に記憶する。
なお、ステップS6において、テーブル記憶部45に、シーンを示す情報と主要色を示す情報とに関連付けられて記憶されている第1ラベルが記憶されていない場合、ラベル出力部48は、ステップS6で読み出した第1ラベルと抽出された主要色とを関連付けて、テーブル記憶部45に新たに記憶させるようにしてもよい。
以上で、画像処理部4が行うラベル生成処理を終了する。
【0059】
以上のように、本実施形態の撮像装置100は、従来技術と比較して、少ない演算量で画像データの特徴量である主要色を抽出することができる。さらに、本実施形態の撮像装置100は、Exifに含まれる情報等を用いてシーン判別して、判別結果に基づいてテーブル記憶部45に記憶されているシーン毎のテーブルを選択するようにしたため少ない演算量でシーンを判別できる。この結果、本実施形態の撮像装置100は、従来技術と比較して、画像データに対して少ない演算処理と少ない選択肢で、多くのラベル生成を行うことができる。
すなわち、画像処理部4は、画像データを色空間に変換した色ベクトルの中から、頻度の多い3つの主要色を抽出し、抽出した主要色に予め対応付けて記憶されている第1ラベルを抽出する。図10と図11に示したように、主要色に対して、シーン毎、時刻や季節毎に第1ラベルを予め対応付けて記憶させてあるため、画像処理部4は、画像データから抽出された主要色が同じであっても、シーン毎、時刻や季節毎に異なる第1ラベルを生成することができるので、シーン毎に画像データに最適なラベルを生成することができる。
さらに、画像処理部4は、3つの主要色の頻度を正規化して、最も頻度の多い第1色の割合に応じて、生成された第1ラベルを修飾する修飾ラベルを生成し、生成した修飾ラベルで第1ラベルを修飾させることで第1ラベルを修正して第2ラベルを生成する。
この結果、画像処理部4は、画像データの主要色の配色の割合に基づき、第1ラベルを修飾ラベルで修飾して修正することで第2ラベルを生成するようにしたので、画像データから主要色を抽出してラベルを生成する場合と比較して、シーン毎に画像データにさらに最適なラベルを生成することができる。
【0060】
なお、本実施形態では、色空間ベクトル生成部43が、画像データをHSVの色空間において色ベクトルを生成する例を説明したが、RGB(赤、緑、青)、輝度信号と2つの色差信号によるYCrCbまたはYPbPr、色相と彩度及び明度によるHLS、補色空間の一種であるLab、日本色研配色体系(PCCS;Practical Color Co−ordinate System)に基づく色空間などを用いてもよい。
また、本実施形態では、色空間ベクトル生成部43が、色ベクトルの頻度分布を生成して、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する例を説明したが、色空間ベクトル生成部43は、色ベクトル毎の頻度を検出して、検出した色ベクトル毎の頻度を示す情報を主要色抽出部44に出力するようにしてもよい。この場合においても、例えば、テーブル記憶部45に記憶させるRGBの各値は、1毎、10毎等の間隔の中からテーブル作成者が選択した色であってもよい。
【0061】
また、本実施形態では、ラベル出力部48が、ラベルを示す情報を画像データと関連付けてテーブル記憶部45に記憶する例を説明したが、第2ラベル生成部47が出力するラベルを文字情報(テキスト)によるデータとして、使用者により選択された画像データに重ねて表示部7に表示するようにしてもよい。
また、本実施形態では、第1ラベルと第2ラベルは、形容詞または副詞の例を説明したが、第1ラベルと第2ラベルは、例えば名詞であってもよい。この場合、第1ラベルは、例えば、「爽快」、「若返り」、「ダンディ」などである。
【0062】
また、本実施形態では、画像データから主要色を算出する例を説明したが、主要色抽出部44は、隣り合う色ベクトルが予め定められている距離だけ離れている3つの色を抽出するようにしてもよい。隣り合う色ベクトルとは、図7(b)において、例えば、画像データがHSVの場合、色ベクトル(50、50、50)と(50、50、51)とである。隣り合う色の距離は、ヒトの視覚的な色を識別できる公知の閾値に基づき設定するようにしてもよい。例えば、WEBで使用が推奨されているWEB256色と、白黒で表現できるモノトーン256色などを用いるようにしてもよい。
【0063】
また、主要色抽出部44は、主要色の算出の前に、色空間ベクトル生成部43が生成した色ベクトルの頻度分布に対して、公知の手法を用いて、平滑化処理を行うようにしてもよい。または、色空間ベクトル生成部43が色空間ベクトルを生成する前に、公知の手法を用いて、減色処理を行うようにしてもよい。例えば、色空間ベクトル生成部43は、画像データをWEBカラーに減色するようにしてもよい。
また、本実施形態では、主要色抽出部44が、画像データから頻度の高い3つの色を主要色として抽出する例を説明したが、抽出する色の数は3色に限られず、2色以上であればよい。
【0064】
また、本実施形態では、色ベクトルとしてHSVを用いる例を説明した。テーブル記憶部45には、図4に示したように3つの色の組み合わせを記憶させる場合、HSVの各値を1毎に設定されたHSV=(0,0,0)、(1,0,0)、(1,1,0)・・・(100、100、99)、(100、100、100)の中からテーブル作成者が選択するようにしてもよい。または、HSVの各値を10毎に設定されたHSV=(0,0,0)、(10,0,0)、(10,10,0)・・・(100、100、90)、(100、100、100)の中からテーブル作成者が選択するようにしてもよい。このように、色ベクトルにおける各値の間隔を10等、予め定めた値にすることで、テーブル記憶部45に記憶させる容量を少なくすることができ、さらに演算量も削減することができる。
【0065】
[第2実施形態]
第1実施形態では、使用者により選択された画像データのシーンを、画像データと関連付けて記憶媒体200に記憶されている画像識別情報に基づき判別する例を説明した。本実施形態では、選択された画像データから、シーンを画像処理装置が判別して、判別した結果に基づきラベルを生成する例について説明する。
【0066】
図13は、本実施形態に係る画像処理部4aのブロック図である。
図13に示すように、画像処理部4aは、画像取得部41a、画像識別情報取得部42、色空間ベクトル生成部43、主要色抽出部44、テーブル記憶部45、第1ラベル生成部46a、第2ラベル生成部47、ラベル出力部48、特徴量抽出部241、シーン判別部242を備えている。なお、第1実施形態と同じ機能を有する機能部は、同じ符号を用いて説明は省略する。
【0067】
画像取得部41aは、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。画像取得部41aは、取得した画像データを、色空間ベクトル生成部43、特徴量抽出部241に出力する。画像取得部41aは、取得した画像識別情報を画像識別情報取得部42に出力する。
【0068】
特徴量抽出部241は、画像取得部41aが出力する画像データから、公知の手法により特徴量を抽出する。公知の手法は、例えば、画像の2値化、平滑化、エッジ検出、輪郭検出などの手法を用いる。特徴量抽出部241は、抽出した特徴量を示す情報をシーン判別部242に出力する。
【0069】
シーン判別部242は、特徴量抽出部241が出力する特徴量を示す情報に基づき、画像取得部41aが取得した画像データのシーンを公知の手法を用いて判別する。なお、シーン判別に用いる公知の手法とは、例えば、特許文献1に記載の従来技術のように、シーン判別部242が、画像データを予め定められている複数の領域に分割し、その領域毎の特徴量に基づき、画像データに人物が写っているのか、空が映っているのか等を判別する。そして、判別結果に基づき、シーン判別部242は、画像データのシーンを判別する。
シーン判別部242は、判別したシーンを示す情報を第1ラベル生成部46aに出力する。
なお、本実施形態において、シーン判別部242は、特徴量抽出部241とシーン判別部242とにより構成するようにしてもよい。
【0070】
第1ラベル生成部46aは、シーン判別部242が出力するシーンを示す情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。第1ラベル生成部46aは、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。
【0071】
次に、撮像装置100の画像処理部4aが行うラベル生成処理について、図12を用いて説明する。撮像装置100は、ステップS1とステップS2を第1実施形態と同様に行う。
【0072】
(ステップS3)次に、特徴量抽出部241は、画像取得部41aが出力する画像データから、公知の手法により特徴量を抽出し、抽出した特徴量を示す情報をシーン判別部242に出力する。
次に、シーン判別部242は、特徴量抽出部241が出力する特徴量を示す情報に基づき、画像取得部41aが取得した画像データの撮影情報であるシーンを公知の手法を用いて抽出して取得し、取得したシーンを示す情報を第1ラベル生成部46aに出力する。ステップS3終了後、ステップS4に進む。
【0073】
画像処理部4aは、ステップS4とステップS5を第1実施形態と同様に行う。ステップS5終了後、ステップS6に進む。
【0074】
(ステップS6)次に、第1ラベル生成部46aは、シーン判別部242が出力するシーンを示す情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。次に、第1ラベル生成部46aは、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。ステップS6終了後、画像処理部4aは、ステップS7〜S9を第1実施形態と同様に行う。
【0075】
以上のように、画像処理部4aは、撮像された画像データを、予め定められている手法でシーン判別し、判別したシーンと、画像データから抽出された3つの主要色に基づき、第1実施形態と同様にラベルを生成するようにした。この結果、画像処理部4aは、画像識別情報が画像データと関連付けて記憶媒体200に記憶されていない場合であっても、画像データに最適なラベルを生成することができる。
【0076】
なお、本実施形態において、画像処理部4aは、画像データから判別したシーンと、抽出した主要色とに基づき、ラベルを生成する例を説明したが、第1実施形態と同様に、撮影情報も用いてシーン判別するようにしてもよい。画像処理部4aは、例えば、画像識別情報から撮像された日時を示す情報を抽出し、抽出された撮像日時と画像データから判別されたシーンに基づき、ラベルを生成するようにしてもよい。より具体的には、シーンが「風景」であり、撮像日時が「秋」の場合、シーン「風景」と「秋」と主要色と関連付けて記憶されている第1ラベルを読み出し、この読み出した2つの第1ラベルに基づきラベルを生成するようにしてもよい。
あるいは、テーブル記憶部45に、シーンを「秋の風景」として、主要色と第1ラベルを記憶させておくようにしてもよい。
【0077】
[第3実施形態]
第1実施形態と第2実施形態では、使用者により選択された画像データ全体から抽出した主要色に基づきラベルを生成する例を説明した。本実施形態では、選択された画像データからシーンを判別し、判別したシーンに基づき予め定められている画像データの領域において主要色を抽出し、抽出した主要色からラベルを生成する例について説明する。
【0078】
図14は、本実施形態に係る実施形態に係る画像処理部4bのブロック図である。
図14に示すように、画像処理部4bは、画像取得部41b、画像識別情報取得部42b、色空間ベクトル生成部43b、主要色抽出部44、テーブル記憶部45、第1ラベル生成部46、第2ラベル生成部47、ラベル出力部48、領域抽出部341を備えている。なお、第1実施形態と同じ機能を有する機能部は、同じ符号を用いて説明は省略する。
【0079】
画像取得部41bは、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。画像取得部41bは、取得した画像データを、領域抽出部341と色空間ベクトル生成部43bとに出力する。画像取得部41bは、取得した画像識別情報を画像識別情報取得部42bに出力する。
【0080】
画像識別情報取得部42bは、画像取得部41bが出力する画像識別情報から撮像された画像データに設定されている撮影情報を抽出し、抽出した撮影情報を第1ラベル生成部46と領域抽出部341とに出力する。
【0081】
領域抽出部341は、画像識別情報取得部42bが出力する撮影情報に基づき、画像識別情報取得部42bが出力する画像データから、予め定められている手法で主要色を抽出する領域を抽出する。領域抽出部341は、画像識別情報取得部42bが出力する画像データから、抽出した主要色を抽出する領域の画像データを抽出し、抽出した領域の画像データを色空間ベクトル生成部43bに出力する。
なお、予め定められている主要色を抽出する領域を抽出する手法とは、例えば、シーン毎に画像全体から抽出する領域を予め設定しておくようにしてもよい。例えば、シーンが「風景」の場合、画像データの上から3分の2の領域、シーンが「ポートレート」の場合、画像データの中心部に予め定められている大きさの領域などである。
あるいは、第2実施形態と組み合わせて、画像データから抽出した特徴量に基づき、特徴量が抽出された領域を、主要色を抽出する領域として抽出するようにしてもよい。この場合、画像データから抽出する領域は複数でもよい。例えば、撮像された画像データのシーンがポートレートであると判別された場合、図13のシーン判別部242は、特徴量抽出等の手法を用いて顔検出を行う。そして、シーン判別部242は、検出された顔の領域が複数ある場合、シーン判別部242は、この検出された複数の領域から各々主要色を検出する。そして、第1ラベル生成部46と第2ラベル生成部47は、検出された主要色毎の複数のラベルを生成するようにしてもよい。あるいは、シーン判別部242は、検出された全ての顔領域を含む領域を、主要色を抽出する領域として用いるように主要色抽出部44に、判別結果を出力するようにしてもよい。
【0082】
図14に戻って、色空間ベクトル生成部43bは、領域抽出部341が出力する画像データを予め定められている色空間のベクトルに変換する。予め定められている色空間は、例えばHSVである。色空間ベクトル生成部43bは、生成した色ベクトル毎に画像データの全画素を分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。
色空間ベクトル生成部43bは、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。
【0083】
次に、撮像装置100の画像処理部4bが行うラベル生成処理について、図15を用いて説明する。図15は、本実施形態に係る撮像装置100が行うラベル生成のフローチャートである。撮像装置100は、ステップS1を第1実施形態と同様に行う。ステップS1終了後、ステップS101に進む。
【0084】
(ステップS101)次に、画像処理部4bの画像取得部41bは、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。
次に、画像取得部41bは、取得した画像データを、領域抽出部341と色空間ベクトル生成部43bに出力する。次に、画像取得部41bは、取得した画像識別情報を画像識別情報取得部42bに出力する。ステップS101終了後、ステップS3に進む。
【0085】
(ステップS3)画像処理部4bは、ステップS3を第1実施形態と同様に行う。ステップS3終了後、ステップS102に進む。
【0086】
(ステップS102)次に、領域抽出部341は、画像識別情報取得部42bが出力する撮影情報に基づき、画像識別情報取得部42bが出力する画像データから、予め定められている手法で主要色を抽出する領域を抽出する。
次に、領域抽出部341は、画像識別情報取得部42bが出力する画像データから、抽出した主要色を抽出する領域の画像データを抽出し、抽出した領域の画像データを色空間ベクトル生成部43bに出力する。ステップS102終了後、ステップS103に進む。
【0087】
(ステップS103)次に、色空間ベクトル生成部43bは、領域抽出部341が出力する領域の画像データを予め定められている色空間のベクトルに変換する。次に、色空間ベクトル生成部43bは、生成した色ベクトル毎に画像データの全画素を分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。次に、色空間ベクトル生成部43bは、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。ステップS103終了後、ステップS5に進む。
【0088】
以下、画像処理部4bは、ステップS5〜S9を第1実施形態と同様に行う。
【0089】
以上のように、画像処理部4bは、撮像された画像データからシーン等の撮影情報に基づき、主要色を抽出する領域を抽出する。そして、画像処理部4bは、主要色を抽出する領域の画像データから抽出された3つの主要色に基づき、第1実施形態と同様にラベルを生成するようにした。この結果、画像処理部4bは、シーンに応じた領域の画像データから主要色を抽出し、抽出した領域の主要色に基づきラベルを生成するようにしたので、第1実施形態と第2実施形態と比べて、さらにシーンに適合する画像データに最適なラベルを生成することができる。
【0090】
[第4実施形態]
第1実施形態〜第3実施形態では、使用者により選択された画像データから3つの色を主要色として選択する例を説明した。本実施形態では、選択された画像データから、3つ以上の色を選択する例について説明する。なお、画像処理部4の構成は、第1実施形態(図2)と同様の場合について説明する。
【0091】
図16は、本実施形態に係る画像データから、複数の色ベクトルを抽出する一例を説明する図である。図16において、横軸は色ベクトル、縦軸は頻度を表している。
図16において、主要色抽出部44は、図8(b)と同様に第1色の色ベクトルc21、第2色の色ベクトルc22、第3色の色ベクトルc23を抽出したとして説明する。
図16において、色ベクトルc24、c25、c26の頻度が、予め定められている範囲内の場合、主要色抽出部44は、第4の主要色として色ベクトルc24、c25、c26を抽出する。この場合、テーブル記憶部45には、図4で説明した第1色〜第3色以外に第4色等まで含めたシーン毎のラベルを記憶させておく。
そして、第4色が抽出された場合、主要色抽出部44は、テーブル記憶部45に記憶されている第1色〜第4色の組み合わせの第1ラベルを読み出し、記憶されている第1ラベルを抽出する。第1色〜第4色の組み合わせの第1ラベルが複数、記憶されていた場合、主要色抽出部44は、例えば、一番先にテーブル記憶部45から読み出した第1ラベルを選択するようにしてもよく、あるいは、ランダムに選択するようにしてもよい。
【0092】
また、主要色抽出部44は、抽出した4つの色の中から、3つの色を主要色として選択するようにしてもよい。この場合、主要色抽出部44は、抽出された4つの色の近似度を算出し、近似度の低い3つの色を、主要色をして算出するようにしてもよい。色の近似度は、例えば、図16において、仮に、色ベクトルc22〜c25の4つの色ベクトルが、第1色〜第4色として抽出されたとして説明する。主要色抽出部44は、抽出した4つの色を、8ビットのカラー空間から、例えば7ビットカラー空間に減色する。減色した後、例えば、色ベクトルc24とc25とが同一の色と判別された場合、主要色抽出部44は、色ベクトルc24とc25とを近似色であると判別する。そして、主要色抽出部44は、第3の主要色として、色ベクトルc24またはc25のどちらか一方を選択する。この場合、図16の頻度分布において、主要色抽出部44は、第1色の色ベクトルc22と第2色の色ベクトルc23と横軸方向で離れている距離が大きい方の色ベクトルを選択するようにしてもよく、ランダムに選択してもよい。
また、7ビットのカラー空間に減色しても4つの色ベクトルが分離したままの場合、色空間ベクトル生成部43は、4つの色ベクトルが3つの色ベクトルに統合されるまで減色を行う。
【0093】
以上のように、撮影情報であるシーン毎に4つ以上の主要色と第1ラベルとがテーブル記憶部45に予め記憶されているようにし、画像データから主要色を4色以上抽出して、抽出した主要色とシーンに基づいてラベルを生成するようにしたので、第1実施形態〜第3実施形態と比較して、さらに画像データに最適なラベルを生成することができる。
すなわち、本実施形態において画像処理部4は、画像データを色空間に変換した色ベクトルの中から、頻度の多い4つの色を抽出し、抽出した4つの色に予め対応付けて記憶されている第1ラベルを抽出する。抽出した4つの主要色ベクトルに対して、撮影情報毎、例えばシーン毎、時刻や季節毎に第1ラベルを予め対応付けて記憶させてあるため、画像処理部4は、画像データから抽出された主要色が同じであっても、シーン毎、時刻や季節毎に異なる第1ラベルを生成することができる。さらに、画像処理部4は、4つの主要色の頻度を正規化して、最も頻度の多い第1色の割合に応じて、生成された第1ラベルに、第1ラベルを強調する第2ラベルを付加してラベルを生成する。この結果、画像処理部4は、4つの主要色に基づき、第1実施形態〜第3実施形態と比較して、さらに画像データに最適なラベルを生成することができる。
また、画像処理部4は、抽出した4つの主要色の中から、3つの主要色を減色等により抽出し、抽出した3つの主要色に対して、第1実施形態と同様にラベル生成処理を行う。この結果、画像処理部4は、色ベクトルの頻度に差が少ないような画像データであっても、画像データに最適なラベルを生成することができる。
【0094】
また、本実施形態では、画像データから、4つの主要色を抽出する例を説明したが、抽出する主要色は4色に限られず、それ以上であってもよい。この場合、抽出した主要色の色数に応じた第1ラベルをテーブル記憶部45に記憶させておくようにしてもよい。また、例えば、主要色を5色、抽出する場合、上述したように主要色抽出部44は、減色を行って近似色に統合して、抽出した複数の主要色の中から3つの主要色を再度、抽出するようにしてもよい。また例えば、主要色を6色、抽出する場合、主要色抽出部44は、まず、頻度の多い順に第1色〜第3色の第1グループと、残りの第4色〜第6色との第2グループに分離する。なお、第4色は、第3色より画素数が少なく第5色より画素数が多く、第5色は、第4色より画素数が少ない。
そして、第1ラベル生成部46は、第1グループに対応する第ラベルと、第2グループに対応する第1ラベルを抽出する。そして、第1ラベル生成部46は、このように抽出された2つの第1ラベルについて、第1実施形態と同様に第1色、または第4色の頻度に応じて修飾ラベルで第1ラベルを修飾することで修正して複数のラベルを生成するようにしてもよい。あるいは、第2ラベル生成部47は、このように生成した複数のラベルを統合して1つのラベルを生成するようにしてもよい。具体的には、第1グループによるラベルが「とてもすがすがしい」、第2グループによるラベルが「少し子供っぽい」であった場合、第2ラベル生成部47は、「とてもすがすがしく、少し子供っぽい」というラベルを生成するようにしてもよい。このような、2つのラベルを生成する場合、第2ラベル生成部47は、第2ラベル生成部47内に、2つのラベルのどちらを先に配置した方が、適切なラベルを生成できるかを確認するため、非図示の言語解析処理を行う処理機能部を備えるようにしてもよい。
【0095】
また、第1実施形態〜第4実施形態では、1つの画像データに1つのラベルを生成する例を説明したが、生成するラベルは、2つ以上であってもよい。この場合、色空間ベクトル生成部43(含む43b)は、例えば、図9の画像データにおいて、上半分と下半分に分割し分割した領域毎に色ベクトルの頻度分布を生成する。主要色抽出部44は、分割された領域毎の色ベクトルの頻度分布から、各々の主要色を、3色ずつ抽出する。そして、第1ラベル生成部46は、領域毎のラベルをテーブル記憶部45から抽出するようにしてもよい。そして、ラベル出力部48は、このように生成された複数のラベルを画像データと関連付けて記憶媒体200に記憶させるようにしてもよい。
【0096】
なお、第1実施形態〜第3実施形態では、シーン毎に3色の主要色と第1ラベルとを関連付けてテーブル記憶部45に記憶させておく例を説明したが、例えば、シーン毎に単色と第1ラベルを関連付けてテーブル記憶部45に記憶させておくようにしてもよい。この場合、第1実施形態で説明したように、テーブル記憶部45には、シーン毎に3色の主要色と第1ラベルとを関連付けて記憶させ、さらに、シーン毎に単色と第1ラベルを関連付けて記憶させておくようにしてもよい。
このような処理により、画像データがモノトーンで、主要色が1色しか抽出できないような画像データに対しても適切なラベルを生成することができる。この場合、例えば、画像処理部4(4a,4b)は、第4実施形態のように4色を主要色として検出し、第1色〜第3色の第1グループ、残りの第4色のみ単色としてラベルをテーブル記憶部45から読み出すようにしてもよい。
また、画像データの色調が単調であり、主要色が2色しか抽出できなかった場合、例えば、第1ラベル生成部46は、抽出された2つの主要色(第1色と第2色)の各第1ラベルを読み出す。次に、第2ラベル生成部47は、抽出された2つの主要色の頻度に基づき、2つの主要色を正規化し、第1色の割合に基づき第1色のラベルに対して修飾ラベルを生成し、生成した修飾ラベルで第1色の第1ラベルを修飾して修正することで、第1色の第2ラベルを生成するようにしてもよい。あるいは、第2ラベル生成部47は、このように生成された第1色の第1ラベルと、第2色の第1ラベルの2つのラベルを生成するか、あるいは、第1色の第1ラベルと第2色の第1ラベルを統合して1つのラベルを生成するようにしてもよい。
【0097】
また、第1実施形態〜第4実施形態では、使用者により選択された画像データを記憶媒体200から読み出す例を説明したが、ラベル生成処理に用いる画像データは、記憶媒体200にロー(RAW)データとJPEG(Joint Photographic Experts Group)データが記録されている場合、RAWデータかJPEGデータのどちらを用いてもよい。また、記憶媒体200に表示部7への表示用の縮小されたサムネイル(thumbnail)画像データが記憶されている場合、このサムネイル画像データを用いてラベルを生成するようにしてもよい。また、サムネイル画像データが記憶媒体に記憶されていなくても、色空間ベクトル生成部43(含む43b)が、画像取得部41(含む41a、41b)が出力する画像データの解像度を、予め定めた解像度に縮小した画像データを生成し、この縮小された画像データから色ベクトルの頻度や主要色を抽出するようにしてもよい。
【0098】
なお、実施形態の図2の画像処理部4、図13の画像処理部4a、または図14の画像処理部4bの各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM等の可搬媒体、USB(Universal Serial Bus) I/F(インタフェース)を介して接続されるUSBメモリー、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、サーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
【0099】
図17は、画像上に配置される文章を決定するために用いられる撮像画像の特徴量を抽出するプロセスの一例を模式的に示す図である。図17の例において、画像処理装置の判定部は、撮像画像のシーンを人物画像又は風景画像に分類する。次に、画像処理装置は、そのシーンに応じて、撮像画像の特徴量を抽出する。特徴量は、人物画像の場合には、顔の数(被写体の人数)及び平均色(配色パターン)とすることができ、風景画像の場合には、平均色(配色パターン)とすることができる。これらの特徴量を基に、人物画像用テンプレート又は風景画像用テンプレートに挿入される単語(形容詞等)が決定される。
【0100】
ここで、図17の例では、配色パターンは、撮像画像を構成する代表的な複数の色の組み合わせで構成されている。したがって、配色パターンは、撮像画像の平均的な色(平均色)を表すことができる。一例において、配色パターンとして、「第1色」、「第2色」、「第3色」を規定し、これら3種類の色の組み合わせ、すなわち3種類の平均的な色に基づいて、人物画像用、又は風景画像用の文章テンプレートに挿入される単語(形容詞)を決定することができる。
【0101】
図17の例において、撮像画像のシーンは2種類(人物画像及び風景画像)に分類される。他の例において、撮像画像のシーンは、3種類以上(3、4、5、6、7、8、9、又は10種類以上)に分類することができる。
【0102】
図18は、画像上に配置される文章を決定するために用いられる撮像画像の特徴量を抽出するプロセスの別の一例を模式的に示す図である。図18の例において、撮像画像のシーンを3種類以上に分類することができる。
【0103】
図18の例において、画像処理装置の判定部は、撮像画像が人物画像(第1モード画像)、遠景画像(第2モード画像)、又はその他の画像(第3モード画像)いずれであるかを判定する。まず、判定部は、図17の例と同様に、撮像画像が人物画像であるか、人物画像とは異なる画像であるかを判定する。
【0104】
次に、撮像画像が人物画像とは異なる画像である場合、判定部は、撮像画像が遠景画像(第2モード画像)又はその他の画像(第3モード画像)のうちいずれであるか、を判定する。この判定は、例えば、撮像画像に付与された画像識別情報の一部を用いて行うことができる。
【0105】
具体的には、撮像画像が遠景画像かどうかを判定するために、画像識別情報の一部である焦点距離を用いることができる。判定部は、焦点距離が、あらかじめ設定された基準距離以上である場合、撮像画像を遠景画像と判定し、焦点距離が基準距離未満である場合、撮像画像をその他の画像と判定する。以上により、撮像画像が、人物画像(第1モード画像)、遠景画像(第2モード画像)、又はその他の画像(第3モード画像)の3種類にシーン分類される。なお、遠景画像(第2モード画像)の例は、海や山などの風景画像等を含み、その他の画像(第3モード画像)の例は、花及びペット等を含む。
【0106】
図18の例においても、撮像画像のシーンが分類された後、画像処理装置は、そのシーンに応じて、撮像画像の特徴量を抽出する。
【0107】
図18の例において、撮像画像が人物画像(第1シーン画像)の場合、画像上に配置される文章を決定するために用いられる撮像画像の特徴量として、顔の数(被写体の人数)及び/又は笑顔レベルを用いることができる。すなわち、撮像画像が人物画像の場合、顔の数(被写体の人数)の判定結果に加え、又は代えて笑顔レベルの判定結果に基づいて、人物画像用テンプレートに挿入される単語を決定することができる。以下、笑顔レベルの判定方法の一例について、図19を用いて説明する。
【0108】
図19の例において、画像処理装置の判定部は、人物画像に対して、顔認識などの方法により顔領域を検出する(ステップS5001)。一例において、口角部分の上り具合を数値化することにより、人物画像の笑顔度が算出される。なお、笑顔度の算出には例えば、顔認識にかかる公知の様々な技術を用いることができる。
【0109】
次に、判定部は、あらかじめ設定された第1の笑顔閾値αと、笑顔度を比較する(ステップS5002)。笑顔度がα以上と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:大」であると判定する。
【0110】
一方、笑顔度がα未満と判定された場合、判定部は、あらかじめ設定された第2の笑顔閾値βと笑顔度を比較する(ステップS5003)。笑顔度がβ以上と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:中」であると判定する。さらに、笑顔度がβ未満と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:小」であると判定する。
【0111】
人物画像の笑顔レベルの判定結果に基づき、人物画像用テンプレートに挿入される単語が決定される。ここで、「笑顔:大」の笑顔レベルに対応する単語の例としては、「喜びいっぱいの」、「とてもいい」等が挙げられる。「笑顔:中」の笑顔レベルに対応する単語の例としては、「嬉しそうな」、「いい穏やかな」等が挙げられる。「笑顔:小」の笑顔レベルに対応する単語の例としては、「真剣そうな」、「クールな」等が挙げられる。
【0112】
なお、上記では、人物画像用テンプレートに挿入される単語が、連体形である場合について説明したが、これに限ることはなく、例えば終止形であってもよい。この場合、「笑顔:大」の笑顔レベルに対応する単語の例としては、「笑顔が素敵」、「すごくいい笑顔だね」等が挙げられる。「笑顔:中」の笑顔レベルに対応する単語の例としては、「にこやかだね」、「いい表情」等が挙げられる。「笑顔:小」の笑顔レベルに対応する単語の例としては、「真剣そうです」、「真面目そうです」等が挙げられる。
【0113】
図20Aは、画像処理装置の動作結果を示す出力画像の一例であり、この出力画像は、図17の例に基づいて決定された文章を有する。図20Aの例において、撮像画像は人物画像であると判定され、特徴量としては被写体の人数、及び配色パターン(平均色)が抽出されている。また、配色パターンに応じて、人物画像用テンプレートに挿入される単語が、「重厚な」と決定されている。その結果、図20Aに示す出力結果が得られている。すなわち、図20Aの例では、撮像画像の平均色に基づいて、「重厚な」の単語(形容詞、連体形)が決定されている。
【0114】
図20Bは、画像処理装置の動作結果を示す出力画像の別一例であり、この出力画像は、図18の例に基づいて決定された文章を有する。図20Bの例において、撮像画像は人物画像であると判定され、特徴量としては被写体の人数、及び笑顔レベルが抽出されている。また、笑顔レベルに応じて、人物画像用テンプレートに挿入される単語が、「いい表情」と決定されている。その結果、図20Bに示す出力結果が得られている。すなわち、図20Bの例では、撮像画像における人物の笑顔レベルに基づいて、「いい表情」の単語(終止形)が決定されている。図20Bの出力結果のように、人物画像に対して笑顔レベルを用いた単語出力を用いることで、画像から受ける印象に比較的近い文字情報を添付することができる。
【0115】
図18に戻り、撮像画像が風景画像(第2シーン画像)又はその他の画像(第3シーン画像)の場合、画像上に配置される文章を決定するために用いられる撮像画像の特徴量として、平均色に代えて、代表色を用いることができる。代表色としては、配色パターンにおける「第1色」、すなわち撮像画像において最も頻度の多い色を用いることができる。あるいは、代表色は、以下に説明するように、クラスタリングを用いて決定することができる。
【0116】
図21は、撮像装置に含まれる画像処理部の内部構成を表す概略ブロック図である。図21の例において、画像処理装置の画像処理部5040は、画像データ入力部5042と、解析部5044と、文章作成部5052と、文章付加部5054とを有する。画像処理部5040は、撮像部等で生成された画像データについて、各種の解析処理を行うことにより、画像データの内容に関する各種の情報を取得し、画像データの内容と整合性の高いテキストを作成し、画像データにテキストを付加することができる。
【0117】
解析部5044は、色情報抽出部5046、領域抽出部5048、クラスタリング部5050を有しており、画像データに対して解析処理を行う。色情報抽出部5046は、画像データから、画像データに含まれる各画素の色情報に関する第1情報を抽出する。典型的には、第1情報は、画像データに含まれる全ての画素のHSV値を、集計したものである。ただし、第1情報は、類似性が関連づけられた(例えば所定の色空間に関連付けされた)所定の色について、この所定の色が画像中に表れる頻度(画素単位での頻度、面積割合等)を示す情報であればよく、色の解像度や、色空間の種類は限定されない。
【0118】
例えば、第1情報は、HSV空間ベクトル(HSV値)やRGB値で表されるそれぞれの色について、それぞれの色の画素が、画像データに幾つずつ含まれるか、を表す情報であっても良い。ただし、第1情報における色解像度は、演算処理の負担等を考慮して適宜変更すれば良く、また、色空間の種類もHSVやRGBに限られず、CMY、CMYK等であっても良い。
【0119】
図22は、解析部5044において行われる代表色の決定の流れを表すフローチャートである。図22のステップS5101では、画像処理装置が、具体的な画像データ5060(撮像画像、図23参照)の代表色の算出を開始する。
【0120】
ステップS5102では、画像処理装置の画像データ入力部5042が、画像データを解析部5044に出力する。次に、解析部5044の色情報抽出部5046は、画像データに含まれる各画素の色情報に関する第1情報5062を算出する(図23参照)。
【0121】
図23は、ステップS5102において色情報抽出部5046が実施する第1情報5062の算出処理を表す概念図である。色情報抽出部5046は、画像データ5060に含まれる色情報を、各色毎(例えば256階調の各階調毎)に集計し、第1情報5062を得る。図23の下図に示すヒストグラムは、色情報抽出部5046によって算出された第1情報5062のイメージを表している。図23のヒストグラムの横軸は色であり、縦軸は、画像データ5060中に、所定の色の画素がいくつ含まれるかを表している。
【0122】
図22のステップS5103では、解析部5044の領域抽出部5048が、画像データ5060における主要領域を抽出する。例えば、領域抽出部5048は、図23に示す画像データ5060の中からピントが合っている領域を抽出し、画像データ5060の中央部分を主要領域であると認定する(図24における主要領域5064参照)。
【0123】
図22のステップS5104では、解析部5044の領域抽出部5048が、ステップS5105で実施されるクラスタリングの対象領域を決定する。例えば、領域抽出部5048は、図24の上部に示すように、ステップS5103において画像データ5060の一部を主要領域5064であると認識し、主要領域5064を抽出した場合、クラスタリングの対象を、主要領域5064に対応する第1情報5062(主要第1情報5066)とする。図24の下図に示すヒストグラムは、主要第1情報5066のイメージを表している。
【0124】
一方、領域抽出部5048が、ステップS5103において画像データ5060における主要領域5064を抽出しなかった場合、領域抽出部5048は、図23に示すように、画像データ5060の全領域に対応する第1情報5062を、クラスタリングの対象に決定する。なお、クラスタリングの対象領域が異なることを除き、主要領域5064が抽出された場合と抽出されなかった場合とで、その後の処理に違いはないため、以下では、主要領域が抽出された場合を例に説明を行う。
【0125】
図22のステップS5105では、解析部5044のクラスタリング部5050が、ステップS5104で決定された領域の第1情報5062である主要第1情報5066に対して、クラスタリングを実施する。図25は、図24に示す主要領域5064の主要第1情報5066について、クラスタリング部5050が実施したクラスタリングの結果を表す概念図である。
【0126】
クラスタリング部5050は、例えば、256階調の主要第1情報5066(図24参照)を、k−means法によって複数のクラスタに分類する。なお、クラスタリングは、k−means法(k平均法)に限定されない。他の例において、最短距離法等の他の方法を用いることができる。
【0127】
図25の上部は、各画素がどのクラスタに分類されたかを表しており、図25の下部に示すヒストグラムは、各クラスタに属する画素の数を示したものである。クラスタリング部5050によるクラスタリングによって、256階調の主要第1情報5066(図24)は、256より少ない(図25に示す例では3つの)クラスタに分類されている。クラスタリングの結果は、各クラスタの大きさに関する情報と、各クラスタの色(クラスタの色空間上の位置)に関する情報とを含むことができる。
【0128】
ステップS5106は、解析部5044のクラスタリング部5050が、クラスタリングの結果に基づき、画像データ5060の代表色を決定する。一例において、クラスタリング部5050は、図25に示すようなクラスタリング結果を得た場合、算出された複数のクラスタのうち最も多くの画素を含む最大クラスタ5074に属する色を、画像データ5060の代表色とする。
【0129】
代表色の算出が終了すると、文章作成部5052は、代表色に関する情報を用いてテキストを作成し、画像データ5060に付与する。
【0130】
文章作成部5052は、例えば風景画像用の文章テンプレートを読み出し、文章テンプレートの{日時}に、画像データ5060の生成日時に対応する単語(例えば「2012/03/10」)を適用する。この場合、解析部5044は、画像データ5060の生成日時に関する情報を記憶媒体等から検索し、文章作成部5052に出力することができる。
【0131】
また、文章作成部5052は、文章テンプレートの{形容詞}に、画像データ5060の代表色に対応する単語を適用する。文章作成部5052は、記憶部5028から対応情報を読み出して、文章テンプレートに適用する。一例において、記憶部5028には、シーン毎に色と単語とが関連付けられたテーブルが保存されている。文章作成部5052は、そのテーブルから読み出した単語を用いて文章(例えば「とてもきれいなものを見つけた」)を作成することができる。
【0132】
図26は、上述した一連の処理によってテキストを付与された画像データ5080を表示したものである。
【0133】
図27は、シーンが遠景画像の場合に、上述と同様の一連の処理によってテキストを付与された画像データの例を示したものである。この場合、シーンが遠景画像に分類され、かつ代表色は青と判定されている。例えば、シーン毎に色と単語とが関連付けられたテーブルにおいて、代表色の「青」に対して単語「爽やかな」等が対応付けられている。
【0134】
図28は、色と単語との対応情報を有するテーブルの一例を示す図である。図28のテーブルにおいて、人物画像(第1シーン画像)、遠景画像(第2シーン画像)、及びその他の画像(第3シーン画像)、のシーンごとに、色と単語とが関連付けられている。一例において、画像データの代表色が「青」であり、シーンがその他の画像(第3シーン画像)であるとき、文章作成部5052は、テーブルの対応情報から、代表色に対応する単語(例えば「上品な」)を選択し、文章テンプレートの{形容詞}に適用する。
【0135】
色と単語との対応テーブルは、例えば、PCCS表色系、CICC表色系、又はNCS表色系などのカラーチャートに基づき設定することができる。
【0136】
図29は、CCIC表示系のカラーチャートを用いた、遠景画像(第2シーン画像)用の対応テーブルの一例を示す。図30は、CCIC表示系のカラーチャートを用いた、その他の画像(第3シーン画像)用の対応テーブルの一例を示す。
【0137】
図29において、横軸は、代表色の色相に、縦軸は代表色のトーンに対応している。単語の決定に図29のテーブルを用いることにより、代表色の色相の情報だけでなく、代表色のトーンの情報も併せて単語を決定し、人間が生じる感性に比較的近いテキストを付与することが可能となる。以下、図29のテーブルを用いた、遠景画像(第2シーン画像)の場合の具体的なテキストの設定例を説明する。なお、その他の画像(第3シーン画像)の場合、図30のテーブルを用いて同様に設定することができる。
【0138】
図29において、代表色が領域A5001と判定された場合、その代表色の呼称(赤、橙、黄、青など)がそのままテキスト中の単語に適用される。例えば、代表色の色相が「赤(R)」、トーンが「ビビッド・トーン(V)」の場合、その色を表す形容詞「真っ赤な」等が選択される。
【0139】
また、代表色が領域A5002、A5003、A5004又はA5005の色と判定された場合、その色から連想する形容詞が、テキスト中の単語に適用される。例えば、代表色が領域A5003の色(緑)と判定された場合、緑から連想する形容詞である「心地良い」、「さわやかな」等が適用される。
【0140】
なお、代表色が領域A5001〜A5005の色と判定され、且つそのトーンがビビッド・トーン(V)、ストロング・トーン(S)、ブライト・トーン(B)、又はペール・トーン(LT)の場合には、形容詞の前に程度を表す副詞(例:とても、かなり等)が適用される。
【0141】
代表色が領域A5006、すなわち「ホワイト・トーン(白)」と判定された場合、白から連想される単語である「清らかな」、「澄んだ」等が選択される。また、代表色が領域A5007、すなわちグレー系の色(ライト・グレイ・トーン:ltGY、ミディアム・グレイ・トーン:mGY、又はダーク・グレイ・トーン:dkGY)と判定された場合、無難な形容詞である「きれいな」、「すてきな」等が選択される。白、又はグレー系の色、すなわち無彩色が代表色となる画像においては、さまざまな色が画像全体に含まれる場合が多い。したがって、色とは関連性の少ない単語を用いることで、的外れな意味のテキストが付与されるのを防止し、画像から受けるイメージに比較的近いテキストを付与することができる。
【0142】
また、代表色が領域A5001〜A5007のいずれの領域にも属さない場合、すなわち代表色が低トーン(ダーク・グレイッシュ・トーン)、又は黒(ブラック・トーン)である場合、所定の意味を有する文字(単語、又は文章)をテキストとして選択することができる。所定の意味を有する文字は、例えば、「ここはどこ」、「あっ」等を含む。これらの単語や文章は、「つぶやき辞書」として画像処理装置の記憶部に保存しておくことができる。
【0143】
すなわち、代表色が低トーン、又は黒と判定されたとき、画像全体の色相の判定が困難なことがあるが、このような場合においても上記のように色とは関連性の少ない文字を用いることで、的外れな意味のテキストが付与されるのを防止し、画像から受けるイメージに近いテキストを付与することができる。
【0144】
また、上記の例では、シーンと代表色に応じて文章と単語が一義的に決定される場合について説明したが、これに限らず、文章と単語の選択において、時々、例外処理を行うこともできる。例えば、複数回に1回(例えば10回に1回)は、上記の「つぶやき辞書」からテキストを抽出してもよい。これにより、テキストの表示内容が必ずしもパターン化されることがないので、ユーザが表示内容に飽きるのを防止することができる。
【0145】
なお、上記の例において、文章付加部は、文章作成部によって生成されたテキストを画像の上部、又は下部に配置する場合について説明したが、これに限らず、例えばテキストを画像の外(枠外)に配置することもできる。
【0146】
また、上記の例において、テキストの位置が画像内で固定されている場合について説明したが、これに限らず、例えば画像処理装置の表示部において、テキストを流れるように表示させることができる。これにより、入力画像がテキストにより影響を受けにくい、又はテキストの視認性が向上される。
【0147】
なお、上記の例において、テキストが画像に必ず貼り付けられる場合について説明したが、これに限らず、例えば人物画像の場合には、テキストは貼り付けず、遠景画像又はその他の画像の場合にはテキストを貼り付けるようにしてもよい。
【0148】
また、上記の例において、文章付加部は、文章作成部によって生成されたテキストの表示方法(フォント、色、表示位置など)を所定の方法で決定する場合について説明したが、これに限らず、テキストの表示方法は、多種多様に決定することができる。以下、これらの方法について、いくつかの例を示す。
【0149】
一例においては、ユーザが画像処理装置の操作部を介して、テキストの表示方法(フォント、色、表示位置)を修正することができる。或いは、ユーザは、テキストの内容(単語)を変更、又は削除することができる。また、ユーザは、テキスト全体を表示させないように設定する、すなわちテキストの表示/非表示を選択することができる。
【0150】
また、一例においては、入力画像のシーンに応じてテキストの大きさを変更することができる。例えば、入力画像のシーンが人物画像の場合、テキストを小さくし、入力画像のシーンが遠景画像又はその他の画像の場合、テキストを大きくすることができる。
【0151】
また、一例においては、テキストを強調表示して画像データに合成することもできる。例えば、入力画像が人物画像の場合、人物に吹き出しを付与し、その吹き出し中にテキストを配置することができる。
【0152】
また、一例においては、テキストの表示色は、入力画像の代表色を基準として設定することできる。具体的には、入力画像の代表色と色相は同じであり、且つトーンが異なる色を、テキストの表示色として用いることができる。これにより、テキストが過度に主張されることなく、入力画像とほどよく調和したテキストを付与することができる。
【0153】
また、特に、入力画像の代表色が白の場合、テキストの表示色の決定において、例外処理を行ってもよい。ここで、例外処理では例えば、テキストの色を白とし、そのテキストの周辺部を黒に設定することができる。
【符号の説明】
【0154】
100・・・撮像装置、1・・・撮像システム、2・・・撮像部、3・・・カメラ制御部、4、4a、4b・・・画像処理部、5・・・記憶部、6・・・バッファメモリ部、7・・・表示部、11・・・操作部、12・・・通信部、13・・・電源部、15・・・バス、21・・・レンズ部、22・・・撮像素子、23・・・AD変換部、41、41b・・・画像取得部、42、42b・・・画像識別情報取得部、43、43b・・・色空間ベクトル生成部、44・・・主要色抽出部、45・・・テーブル記憶部、46、46a・・・第1ラベル生成部、47・・・第2ラベル生成部、48・・・ラベル出力部、241・・・特徴量抽出部、242・・・シーン判別部

【特許請求の範囲】
【請求項1】
撮像された画像データを取得する画像取得部と、
前記取得された画像データからシーンを判別するシーン判別部と、
前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出部と、
シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部と、
前記記憶部から、前記抽出された主要色と前記判別されたシーンとに関連付けて予め記憶されている前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成部と、
を備えることを特徴とする画像処理装置。
【請求項2】
前記抽出された主要色の頻度に基づき前記主要色の割合を正規化し、前記正規化した主要色の割合に基づき、前記第1ラベルを修正することで第2ラベルを生成する第2ラベル生成部
を備えることを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記記憶部には、
前記判別されたシーン毎に複数の色情報の組み合わせ情報とラベルとが関連付けられている
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
【請求項4】
前記シーン判別部は、
前記取得された画像データから画像識別情報を取得し、前記取得した画像識別情報から前記シーンを示す情報を抽出し、前記抽出したシーンを示す情報に基づき前記画像データの前記シーンを判別する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。
【請求項5】
前記シーン判別部は、
前記取得された画像データから特徴量を抽出し、前記抽出した特徴量に基づき、前記画像データの前記シーンを判別する
ことを特徴とする請求項4に記載の画像処理装置。
【請求項6】
前記判別されたシーンに基づき、前記主要色を抽出する領域を前記取得された画像データから抽出する領域抽出部
を備え、
前記主要色抽出部は、
前記主要色を抽出する領域の画像データから前記主要色を抽出する
ことを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。
【請求項7】
前記第1ラベルおよび前記第1ラベルを修正することで生成された第2ラベル、あるいは、前記第1ラベルまたは前記第2ラベルに基づく情報を、前記取得された画像データと関連付けて前記記憶部に記憶させる
ことを特徴とする請求項2から請求項6のいずれか1項に記載の画像処理装置。
【請求項8】
請求項1から請求項7のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。
【請求項9】
撮像部を有する画像処理装置の画像処理をコンピュータに実行させるためのプログラムであり、
撮像した画像データを取得する画像取得手順と、
前記取得された画像データからシーンを判別するシーン判別手順と、
前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出手順と、
前記抽出された主要色と、シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部から前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成手順と、
をコンピュータに実行させるためのプログラム。
【請求項10】
人物撮影シーンであるか否かを判別するシーン判別部と、
前記シーン判別部により人物撮影シーンではないと判別されたとき、前記画像データから色情報を抽出する色抽出部と、
色情報と所定の意味を有する文字とが関連付けられて予め記憶されている記憶部と、
前記シーン判別部により人物撮影シーンではないと判別されたとき、前記色抽出部に抽出された前記色情報に対応する前記所定の意味を有する文字を前記記憶部から読み出す読み出し部とを備えることを特徴とする画像処理装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20A】
image rotate

【図20B】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate


【公開番号】特開2013−80464(P2013−80464A)
【公開日】平成25年5月2日(2013.5.2)
【国際特許分類】
【出願番号】特願2012−206297(P2012−206297)
【出願日】平成24年9月19日(2012.9.19)
【出願人】(000004112)株式会社ニコン (12,601)
【Fターム(参考)】