説明

画像処理方法、画像処理装置及び画像処理プログラム

【課題】撮影環境に関わらず、撮影画像の天地判定の精度を向上させる。
【解決手段】画像処理装置1は、撮影画像データから、撮影時の配光条件(順光、逆光、ストロボ)を判別し(ステップS2)、その判別された配光条件から、画像領域の抽出条件を決定する(ステップS3)。そして、決定された抽出条件に従って、撮影画像データから空領域、顔領域(人物が含まれている場合)を抽出し(ステップS4)、その抽出された画像領域に基づいて撮影画像データの天地を判定する(ステップS5)。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、撮影画像データに対して画像処理を施す画像処理方法、画像処理装置及び画像処理プログラムに関する。
【背景技術】
【0002】
近年、デジタルスチルカメラ(玩具用、携帯電話やラップトップパソコン等の機器に組み込まれたもの、一般ユーザ用の汎用用途、高機能なプロ用途のカメラを含む。以下、DSCと略称する。)が広く普及し、カラー写真フィルムと同様に、ハードコピー画像として出力されたり、CRT(Cathode Ray Tube)等の出力媒体に表示されたりして鑑賞されている。
【0003】
また、カラー写真フィルム上に形成された画像をCCD(Charge Coupled Device)センサ等で光電的に読みとって画像信号に変換する技術が広く用いられている。このような画像信号は、ネガポジ反転、輝度調整、カラーバランス調整、粒状除去、鮮鋭性強調に代表される種々の画像処理を施された後に、CD−R(CD-Recordable)、CD−RW(CD-ReWritable)、フロッピー(登録商標)ディスク、メモリーカード等の記録媒体に記録されたり、インターネット経由で配布され、銀塩印画紙、インクジェットプリンタ、サーマルプリンタ等でハードコピーとして出力されたり、CRT、液晶ディスプレイ、プラズマディスプレイ等の出力媒体に表示されたりして鑑賞される。
【0004】
画像鑑賞時若しくは画像処理時に、撮影シーンの上下が正しく表示されない(天地が逆である)ことは、鑑賞時の高揚感が損なわれたり、画像処理の処理効率が低下したりするため(回転処理の一手間が入るため)好ましくない。このような背景を受けて、撮影画像の天地を自動的に判定する技術が多々開示されている。例えば、特許文献1には、APS(Advanced Photo System)フィルムの磁気情報、デジタル画像データのExif(Exchangeable Image File Format)等のタグ情報に記録されている天地情報を画像表示時や画像処理時に参照し、タグ情報の天地情報と、実際に表示されている天地が逆であれば、回転処理を適用する技術が開示されている。
【0005】
また、特許文献2には、撮影画像の撮影シーンを解析して天地を自動的に判定する技術が開示されている。この特許文献2では、天頂から水平線にかけて空の色味が濃い色から白に向けてグラデーションを有する特性を利用したものであり、まず、撮影画像から空領域を抽出し、その抽出された領域の色勾配を基に天地方向を決定している。
【特許文献1】特開平10−171035号公報
【特許文献2】特開2001−195591号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
しかしながら、特許文献1に開示された技術は、必ずしも、タグ情報に天地情報が記録されているものではなく不完全なものであり、また、記録されている情報も、実際の撮影シーンの天地と適合していないこともあり、天地判定の精度が十分であるとは言えなかった。また、実際の撮影シーンでは、空の色は様々であり、また、ダイナミックレンジの低いデジタルカメラで撮影された画像では、特に撮影条件によって、空領域や単色の背景領域の勾配が低くなることも多々あるため(例えば、逆光状態では、背景が白くとんでしまう。)、特許文献2の技術を適用しても、天地判定の精度が十分であるとは言えなかった。
【0007】
本発明の課題は、撮影環境に関わらず、撮影画像の天地判定の精度を向上させることである。
【課題を解決するための手段】
【0008】
上記課題を解決するため、請求項1に記載の発明は、撮影画像データから、撮影時の配光条件を判別する判別工程と、前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定工程と、前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出工程と、前記抽出された画像領域に基づいて前記撮影画像データの天地を判定する判定工程と、を含むことを特徴としている。
【0009】
請求項2に記載の発明は、撮影画像データから、撮影時の配光条件を判別する判別工程と、前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定工程と、前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出工程と、前記抽出された画像領域から所定の特徴量を算出する算出工程と、前記算出された特徴量及び前記判別された配光条件に基づいて算出された特徴量を入力信号として、ニューラルネットワークを用いて前記撮影画像データの天地を判定する判定工程と、を含むことを特徴としている。
【0010】
ここで、「所定の特徴量」には、抽出された画像領域の撮影画像データ中における位置と、抽出された画像領域の確度(例えば、空である確度)の二種類がある。位置の例としては、重心位置、色値の勾配の方向等があり、確度の例としては、色に関する統計値や勾配値、形状、コントラスト、テクスチャの一様性等がある。本発明では、所定の特徴量として、位置を表す特徴量が含まれることが好ましい。更に、位置とともに確度を表す特徴量が含まれることがより好ましい。
【0011】
請求項3に記載の発明は、請求項1又は2に記載の画像処理方法において、前記撮影時の配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴としている。
【0012】
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像処理方法において、前記抽出工程において抽出される画像領域には、少なくとも主要被写体の背景領域が含まれることを特徴としている。
【0013】
本発明における「背景領域」としては、天地の位置的関係がある確度をもって不変である被写体が撮影されている画像領域であることが好ましい。具体的には、一定の色相において構成され、且つ、テクスチャや強いエッジがなく平坦な、或いはなだらかな勾配を有する被写体(例えば、空や雲など)であることが好ましい。また、一定の周期的なテクスチャで構成される被写体(例えば、芝生や地面、木の葉が密集している部分)を追加することも好ましい。
【0014】
請求項5に記載の発明は、請求項4に記載の画像処理方法において、前記抽出工程において抽出される画像領域には、少なくとも人物の顔領域が含まれることを特徴としている。
【0015】
請求項6に記載の発明は、撮影画像データから、撮影時の配光条件を判別する判別手段と、前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定手段と、前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出手段と、前記抽出された画像領域に基づいて前記撮影画像データの天地を判定する判定手段と、を備えることを特徴としている。
【0016】
請求項7に記載の発明は、撮影画像データから、撮影時の配光条件を判別する判別手段と、前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定手段と、前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出手段と、前記抽出された画像領域から所定の特徴量を算出する算出手段と、前記算出された特徴量及び前記判別された配光条件に基づいて算出された特徴量を入力信号として、ニューラルネットワークを用いて前記撮影画像データの天地を判定する判定手段と、を備えることを特徴としている。
【0017】
請求項8に記載の発明は、請求項6又は7に記載の画像処理装置において、前記撮影時の配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴としている。
【0018】
請求項9に記載の発明は、請求項6〜8の何れか一項に記載の画像処理装置において、前記抽出手段は、前記撮影画像データから、少なくとも主要被写体の背景領域を抽出することを特徴としている。
【0019】
請求項10に記載の発明は、請求項9に記載の画像処理装置において、前記抽出手段は、前記撮影画像データから、少なくとも人物の顔領域を抽出することを特徴としている。
【0020】
請求項11に記載の発明は、画像処理を実行するコンピュータに、撮影画像データから、撮影時の配光条件を判別する判別機能と、前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定機能と、前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出機能と、前記抽出された画像領域に基づいて前記撮影画像データの天地を判定する判定機能と、を実現させる。
【0021】
請求項12に記載の発明は、画像処理を実行するコンピュータに、撮影画像データから、撮影時の配光条件を判別する判別機能と、前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定機能と、前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出機能と、前記抽出された画像領域から所定の特徴量を算出する算出機能と、前記算出された特徴量及び前記判別された配光条件に基づいて算出された特徴量を入力信号として、ニューラルネットワークを用いて前記撮影画像データの天地を判定する判定機能と、を実現させる。
【0022】
請求項13に記載の発明は、請求項11又は12に記載の画像処理プログラムにおいて、前記撮影時の配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴としている。
【0023】
請求項14に記載の発明は、請求項11〜13の何れか一項に記載の画像処理プログラムにおいて、前記抽出機能を実現させる際に、前記撮影画像データから、少なくとも主要被写体の背景領域を抽出させることを特徴としている。
【0024】
請求項15に記載の発明は、請求項14に記載の画像処理プログラムにおいて、前記抽出機能を実現させる際に、前記撮影画像データから、少なくとも人物の顔領域を抽出させることを特徴としている。
【発明の効果】
【0025】
本発明によれば、撮影画像データから、配光条件に応じて決定された画像領域を抽出して、抽出された画像領域に基づいて天地判定を行うことにより、どのような撮影環境であっても天地判定の判定精度を向上させることができる。
【0026】
また、撮影画像データから、配光条件に応じて決定された画像領域を抽出して、抽出された画像領域の特徴量と、配光条件の特徴量を入力信号としたニューラルネットワークを用いて天地を判定することにより、どのような撮影環境であっても天地判定の判定精度を向上させることができるとともに、ユーザの撮影状況が反映された天地判定を行うことができる。
【0027】
更に、撮影時の配光条件として、逆光状態、フラッシュ光状態(ストロボ)になる頻度は高く、被写体の色味への影響も大きいため、先に配光条件を判別し、その判別結果に適した画像領域を抽出することにより、天地判定の精度を一層向上させることができる。
【0028】
特に、背景領域に基づいて天地判定を行うと、判定精度を更に向上させることができる。また、撮影画像データに人物が含まれている場合、背景領域だけでなく人物の顔領域に基づいて天地判定を行うと、判定精度を一層高めることができる。
【発明を実施するための最良の形態】
【0029】
以下、図面を参照して、本発明の実施形態を詳細に説明する。
まず、図1〜3を参照して、本発明の実施形態1及び2に共通の構成として、本発明が適用された画像処理装置1の外観構成及び内部構成について説明する。
【0030】
[実施形態1]
〈画像処理装置1の外観構成〉
図1は、本発明の実施形態1及び2における画像処理装置1の外観構成を示す斜視図である。図1に示すように、画像処理装置1には、筐体2の一側面に感光材料を装填するためのマガジン装填部3が設けられている。筐体2の内側には、感光材料に露光する露光処理部4と、露光された感光材料を現像処理して乾燥し、プリントを作成するプリント作成部5が設けられている。作成されたプリントは、筐体2の他側面に設けられたトレー6に排出される。
【0031】
また、筐体2の上部には、表示装置としてのCRT(Cathode Ray Tube)8、透過原稿を読み込む装置であるフィルムスキャナ部9、反射原稿入力装置10、操作部11が備えられている。さらに、筐体2には、各種デジタル記録媒体に記録された画像情報を読み取り可能な画像読込部14、各種デジタル記録媒体に画像信号を書き込み(出力)可能な画像書込部15が備えられている。また、筐体2の内部には、これらの各部を集中制御する制御部7が備えられている。
【0032】
画像読込部14には、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14bが備えられ、PCカード13aやフロッピー(登録商標)ディスク13bが差し込み可能になっている。PCカード13aは、デジタルカメラで撮像された複数の画像データが記録されたメモリを有する。フロッピー(登録商標)ディスク13bには、例えば、デジタルカメラで撮像された複数の画像データが記録されている。その他、画像データを有する記録媒体としては、マルチメディアカード、メモリースティック、MD(Mini Disc)データ、CD−ROM(Compact Disc Read Only Memory)等が挙げられる。
【0033】
画像書込部15には、フロッピー(登録商標)ディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cが備えられ、各々、フロッピー(登録商標)ディスク16a、MO16b、光ディスク16cが差し込み可能になっており、画像情報を画像記録メディアに書き込むことができるようになっている。光ディスク16cとしては、CD−R(Compact Disc-Recordable)、DVD−R(Digital Versatile Disk-Recordable)等がある。
【0034】
なお、図1では、操作部11、CRT8、フィルムスキャナ部9、反射原稿入力装置10、画像読込部14が、筐体2に一体的に備えられた構造となっているが、これらのいずれか1つ以上を別体として設けるようにしてもよい。
【0035】
なお、図1に示した画像処理装置1では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。
【0036】
〈画像処理装置1の内部構成〉
図2に、画像処理装置1内部の主要部構成を示す。画像処理装置1は、図2に示すように、制御部7、露光処理部4、プリント作成部5、CRT8、フィルムスキャナ部9、反射原稿入力装置10、操作部11、画像読込部14、画像書込部15、通信手段(入力)32、通信手段(出力)33、データ蓄積手段71から構成される。
【0037】
制御部7は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部(図示略)に記憶されている画像処理プログラム等の各種制御プログラムと、CPU(Central Processing Unit)(図示略)との協働により、画像処理装置1を構成する各部の動作を統括的に制御する。
【0038】
制御部7は、画像処理部70を有し、操作部11からの入力信号(指令情報)に基づいて、フィルムスキャナ部9や反射原稿入力装置10により取得した画像データ、画像読込部14から読み込まれた画像データ、外部機器から通信手段(入力)32を介して入力された画像データに対して、画像処理を施して出力用画像データを生成し、露光処理部4に出力する。また、画像処理部70は、画像処理された画像データに対して出力形態に応じた変換処理を施して出力する。画像処理部70の出力先としては、CRT8、画像書込部15、通信手段(出力)33等がある。
【0039】
露光処理部4は、感光材料に画像の露光を行い、この感光材料をプリント作成部5に出力する。プリント作成部5は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。
【0040】
フィルムスキャナ部9は、アナログカメラにより撮像された現像済みのネガフィルムNやリバーサルフィルム等の透過原稿に記録された画像を読み取る。
【0041】
反射原稿入力装置10は、図示しないフラットベッドスキャナにより、プリントP(写真プリント、書画、各種の印刷物)に形成された画像を読み取る。
【0042】
操作部11は、情報入力手段12を有する。情報入力手段12は、例えば、タッチパネル等により構成されており、情報入力手段12の押下信号を入力信号として制御部7に出力する。なお、操作部11は、キーボードやマウス等を備えて構成するようにしてもよい。CRT8は、制御部7から入力された表示制御信号に従って、画像データ等を表示する。
【0043】
画像読込部14は、画像転送手段30として、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14b等を有し、PCカード用アダプタ14aに差し込まれたPCカード13aや、フロッピー(登録商標)ディスク用アダプタ14bに差し込まれたフロッピー(登録商標)ディスク13bに記録された画像データを読み出して制御部7に転送する。PCカード用アダプタ14aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。
【0044】
画像書込部15は、画像搬送部31として、フロッピー(登録商標)ディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cを備えている。画像書込部15は、制御部7から入力される書込信号に従って、フロッピー(登録商標)ディスク用アダプタ15aに差し込まれたフロッピー(登録商標)ディスク16a、MO用アダプタ15bに差し込まれたMO16b、光ディスク用アダプタ15cに差し込まれた光ディスク16cに、生成された画像データを書き込む。
【0045】
通信手段(入力)32は、画像処理装置1が設置された施設内の別のコンピュータや、インターネット等を介した遠方のコンピュータから、撮像画像を表す画像データやプリント命令信号を受信する。
【0046】
通信手段(出力)33は、画像処理を施した後の撮影画像を表す画像データと注文情報を、画像処理装置1が設置された施設内の他のコンピュータや、インターネット等を介した遠方のコンピュータに対して送信する。
【0047】
データ蓄積手段71は、画像データとそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し、順次蓄積する。
【0048】
〈画像処理部70の構成〉
図3に、画像処理部70内部の主要部構成を示す。画像処理部70は、図3に示すように、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708から構成される。
【0049】
フィルムスキャンデータ処理部701は、フィルムスキャナ部9から入力された画像データに対し、フィルムスキャナ部9固有の校正操作・ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。また、フィルムスキャンデータ処理部701は、フィルムサイズ、ネガポジ種別、フィルムに光学的あるいは磁気的に記録されたISO(International Organization for Standardization)感度、メーカー名、主要被写体に関わる情報・撮影条件に関する情報(例えばAPS(Advanced Photo System)の記載情報内容)等も併せて画像調整処理部704に出力する。
【0050】
反射原稿スキャンデータ処理部702は、反射原稿入力装置10から入力された画像データに対し、反射原稿入力装置10固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。
【0051】
画像データ書式解読処理部703は、画像転送手段30や通信手段(入力)32から入力された画像データのデータ書式に従って、必要に応じて圧縮符号の復元、色データの表現方法の変換等を行い、画像処理部70内の演算に適したデータ形式に変換し、画像調整処理部704に出力する。
【0052】
画像調整処理部704は、操作部11又は制御部7の指令に基づいて、フィルムスキャナ部9、反射原稿入力装置10、画像転送手段30、通信手段(入力)32から受け取った画像に対して各種画像処理を行い、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708、データ蓄積手段71へ処理済みの画像データを出力する。実施形態1の画像調整処理部704で実行される画像処理については、後に図4〜図16を参照して詳細に説明する。
【0053】
CRT固有処理部705は、画像調整処理部704から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT8に出力する。
【0054】
プリンタ固有処理部(1)706は、画像調整処理部704から入力された画像データに対して、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、露光処理部4に出力する。
【0055】
画像処理装置1に、大判インクジェットプリンタ等の外部プリンタ34が接続されている場合には、接続されたプリンタ毎にプリンタ固有処理部(2)707が設けられている。このプリンタ固有処理部(2)707は、画像調整処理部704から入力された画像データに対して、適正なプリンタ固有の校正処理、カラーマッチング、画素数変更等を行う。
【0056】
画像データ書式作成処理部708は、画像調整処理部704から入力された画像データに対して、必要に応じてJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、Exif(Exchangeable Image File Format)等に代表される各種の汎用画像フォーマットへの変換を行い、画像搬送部31や通信手段(出力)33に出力する。
【0057】
なお、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708という区分は、画像処理部70の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。また、本実施形態1及び2における画像処理装置1は、上述の内容に限定されるものではなく、デジタルフォトプリンタ、プリンタドライバ、各種の画像処理ソフトのプラグイン等、種々の形態に適用することができる。
【0058】
次に、本実施形態1における動作について説明する。
まず、図4のフローチャートを参照して、画像調整処理部704において実行される画像処理全体の流れを説明する。
【0059】
まず、フィルムスキャナ部9、反射原稿入力装置10、画像転送手段30、通信手段(入力)32等を介して、画像処理対象の撮影画像データが取得され(ステップS1)、その取得された撮影画像データから撮影時の配光条件(光源状態)を判別する配光条件判別処理が行われる(ステップS2)。撮影時の配光条件には、順光、逆光、ストロボ(フラッシュ光利用状態)が含まれる。ステップS2の配光条件判別処理については、後に図5を参照して詳細に説明する。
【0060】
次いで、ステップS2において判別された配光条件に基づいて、所定の画像領域の抽出条件が決定され(ステップS3)、その決定された抽出条件に従って、撮影画像データから画像領域が抽出される(ステップS4)。ここで、所定の画像領域には、空領域、顔領域(人物が撮影された場合)が含まれる。撮影画像データから空領域を抽出する処理、撮影画像データから顔領域を抽出する処理については、後に図16を参照して詳細に説明する。
【0061】
次いで、ステップS4において抽出された画像領域に基づいて、撮影画像データの天地を判定する天地判定処理が行われ(ステップS5)、本画像処理が終了する。ステップS5では、撮影画像データ全体に対する空領域の位置から、当該撮影画像データの天方向(上方向)が判定される。また、撮影画像データから顔領域が更に抽出された場合、空領域と顔領域との位置関係から、天地を確実に判定することができる。
【0062】
次に、図5のフローチャートを参照して、図4のステップS2に示した配光条件判別処理について説明する。
【0063】
まず、撮影画像データが所定の画像領域に分割され、各分割領域が撮影画像データ全体に占める割合を示す占有率を算出する占有率算出処理が行われる(ステップS6)。占有率算出処理については、後に図6及び図12を参照して詳細に説明する。
【0064】
次いで、ステップS6において算出された占有率と、撮影条件に応じて予め設定された係数に基づいて、配光条件を特定する(光源状態を定量的に表す)指標(指標1〜5)が算出される(ステップS7)。ステップS7における指標算出処理は、後に詳細に説明する。
【0065】
次いで、ステップS7において算出された指標に基づいて撮影画像データの配光条件が判別され(ステップS8)、本配光条件判別処理が終了する。配光条件の判別方法は、後に詳細に説明する。
【0066】
次に、図6のフローチャートを参照して、図5のステップS6に示した占有率算出処理について詳細に説明する。
【0067】
まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS10)。図7は、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図7に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR、InG、InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。
【0068】
次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS11)。以下、撮影画像データの領域分割について詳細に説明する。
【0069】
明度(V)は、明度値が0〜25(v1)、26-50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、配光条件の判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相'(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき)、
輝度Y = InR × 0.30 + InG × 0.59 + InB × 0.11
として、
色相'(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (1)
従って、撮影画像データの分割領域の数は4×7=28個となる。なお、式(1)において明度(V)を用いることも可能である。
【0070】
2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出され(ステップS12)、本占有率算出処理が終了する。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。
【表1】

【0071】
次に、指標1及び指標2の算出方法について説明する。
表2に、判別分析により得られた、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。
【表2】

【0072】
図8に、明度(v)−色相(H)平面を示す。表2によると、図8において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負(-)の係数が用いられる。図10は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表2及び図10によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。
【0073】
明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。
【数1】

従って、H1〜H4領域の和は、下記の式(2-1)〜式(2-4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+(中略)...+R71×(-11.3) (2-1)
H2領域の和=R12×0.0+R22×8.6+(中略)... +R72×(-11.1) (2-2)
H3領域の和=R13×0.0+R23×(-6.3)+(中略)...+R73×(-10.0) (2-3)
H4領域の和=R14×0.0+R24×(-1.8)+(中略)...+R74×(-14.6) (2-4)
【0074】
指標1は、式(2-1)〜(2-4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 (3)
【0075】
表3に、判別分析により得られた、逆光撮影としての確度、即ち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。
【表3】

【0076】
図9に、明度(v)−色相(H)平面を示す。表3によると、図9において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負(-)の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正(+)の係数が用いられる。図11は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図11によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負(-)であり、明度値が26〜84(v2,v3)の低明度(シャドー)領域の第2の係数の符号は正(+)であり、両領域での係数の符号が異なっていることがわかる。
【0077】
明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。
【数2】

従って、H1〜H4領域の和は、下記の式(4-1)〜式(4-4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+(中略)...+R71×(-24.0) (4-1)
H2領域の和=R12×0.0+R22×4.7+(中略)... +R72×(-8.5) (4-2)
H3領域の和=R13×0.0+R23×0.0+(中略)...+R73×0.0 (4-3)
H4領域の和=R14×0.0+R24×(-5.1)+(中略)...+R74×7.2 (4-4)
【0078】
指標2は、式(4-1)〜(4-4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 (5)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の配光条件の判別に有効である。
【0079】
次に、図12のフローチャートを参照して、指標3を算出するための占有率算出処理(図5のステップS6)について詳細に説明する。
【0080】
まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS20)。次いで、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS21)。以下、撮影画像データの領域分割について詳細に説明する。
【0081】
図13(a)〜(d)に、撮影画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図13(a)に示す領域n1が外枠であり、図13(b)に示す領域n2が、外枠の内側の領域であり、図13(c)に示す領域n3が、領域n2の更に内側の領域であり、図13(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。
【0082】
2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出され(ステップS22)、本占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。
【表4】

【0083】
次に、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、判別分析により得られる。
【表5】

図14は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。
【0084】
明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。
【数3】

従って、n1〜n4領域の和は、下記の式(6-1)〜式(6-4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+(中略)...+Q71×22.0 (6-1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+(中略)...+Q72×0.0 (6-2)
n3領域の和=Q13×24.6+Q23×12.1+(中略)...+Q73×10.1 (6-3)
n4領域の和=Q14×1.5+Q24×(-32.9)+(中略)...+Q74×(-52.2) (6-4)
【0085】
指標3は、式(6-1)〜(6-4)で示されたN1〜H4領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201 (7)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の配光条件を判別するのにも有効である。
【0086】
指標4は、指標1及び指標3を用いて式(8)のように定義され、指標5は、指標1〜3を用いて式(9)のように定義される。
指標4=0.565×指標1+0.565×指標3+0.457 (8)
指標5=(-0.121)×指標1+0.91×指標2+0.113×指標3−0.072 (9)
ここで、式(8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
【0087】
〈配光条件の判別方法〉
次に、配光条件の判別方法について説明する。
図15は、順光、逆光、ストロボの各配光条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標4、5を算出し、各配光条件での指標4、5の値をプロットしたものである。図15によれば、指標4の値が0.5より大きい場合、ストロボシーンが多く、指標4の値が0.5以下で、指標5の値が−0.5より大きい場合、逆光シーンが多いことがわかる。表6に、指標4、5の値による配光条件の判別内容を示す。
【表6】

このように指標4、5の値により配光条件を定量的に判別することができる。
【0088】
次に、図16のフローチャートを参照して、図4のステップS3及びS4に示した画像領域抽出処理について説明する。
【0089】
まず、図16(a)のフローチャートを参照して、画像領域として領域1(空)領域を抽出する処理について説明する。
【0090】
まず、配光条件判別処理(図5参照)において判別された配光条件から配光状態が判定される(ステップS30)。配光状態が逆光である場合(ステップS30;逆光)、逆光に対応する領域1(空)領域の抽出条件が決定される(ステップS31)。次いで、ステップS31で決定された抽出条件に従って、領域1(空)として、撮影画像データから白色の背景領域が抽出され(ステップS32)、本領域1(空)抽出処理が終了する。逆光の場合、撮影画像データ中では、空の色が実際の空の色よりも白っぽく薄い水色に偏ることが多いため、略白乃至薄水色の平坦乃至なだらかな勾配を有する領域を抽出するような抽出条件にすることで、該当する領域を高精度に抽出することができる。
【0091】
配光状態が順光である場合(ステップS30;順光)、順光に対応する領域1(空)領域の抽出条件(空色(水色)領域の抽出)が決定される(ステップS33)。次いで、ステップS33で決定された抽出条件に従って、領域1(空)として、撮影画像データから空色(水色)の背景領域が抽出され(ステップS34)、本領域1(空)抽出処理が終了する。
【0092】
配光状態がストロボである場合(ステップS30;ストロボ)、ストロボに対応する領域1(空)の抽出条件が決定される(ステップS35)。次いで、ステップS35で決定された抽出条件に従って、領域1(空)として、撮影画像データから黒色の背景領域が抽出され(ステップS36)、本領域1(空)抽出処理が終了する。ストロボの場合、周囲が暗い場合に撮影されることが多いため、明度の低い(暗い)空色相当の色相領域を抽出するような抽出条件にすればよい。但し、夜間を想定した極低い明度の領域を抽出する場合には、色相の値が計算上不安定になるため、色相の指定を抽出条件から除外する方が好ましい。
【0093】
次に、図16(b)のフローチャートを参照して、画像領域として領域2(顔)領域を抽出する処理について説明する。
【0094】
まず、配光条件判別処理(図5参照)において判別された配光条件から配光状態が判定される(ステップS40)。配光状態が逆光である場合(ステップS40;逆光)、逆光に対応する顔候補領域の抽出条件(低明度の肌色領域の抽出)が決定され(ステップS41)、その決定された抽出条件に従って、撮影画像データから低明度の肌色領域が抽出される(ステップS42)。
【0095】
配光状態が順光である場合(ステップS40;順光)、順光に対応する顔候補領域の抽出条件(所定の肌色領域の抽出)が決定され(ステップS43)、その決定された抽出条件に従って、撮影画像データから所定の肌色領域が抽出される(ステップS44)。
【0096】
配光状態がストロボである場合(ステップS40;ストロボ)、ストロボに対応する顔候補領域の抽出条件(略白から高明度の肌色領域の抽出)が決定され(ステップS45)、その決定された抽出条件に従って、撮影画像データから、略白から高明度の肌色領域が抽出される(ステップS46)。
【0097】
ステップS42、S44及びS46で適用される顔候補領域の抽出処理として、単純領域拡張法を利用することができる。単純領域拡張法とは、画素間のデータ差が閾値以下の互いに隣接する画素を同一画像領域に属するものとして当該領域を拡張していくことにより画像領域の抽出を行う画像処理方法である。即ち、指定された特定条件に合致する初期画素から出発し、当該初期画素に対して隣接する画素(4連結、8連結の何れでも可)のデータ差が閾値以下である場合に当該隣接画素と初期画素とを同一画像領域に属するものとし、更に、当該同一画素に属するとした画素に対し隣接する画素についても同様の判定を行っていき、初期画素から出発して同一領域を除々に拡張させることによって画像領域の抽出を行う画像処理方法である。本実施形態では、更に、画像中のエッジ成分を抽出し、画像エッジに達した場合に単純領域拡張を終了することで、顔候補領域を確定する処理を用いることが好ましい。
【0098】
初期画素の特定条件としては、人物の肌を表す画素を特定する条件を採用すればよい。人物の肌を表す画素を特定する条件としては、予め決められたRGB値に基づいて設定されるものであればよく、人物の肌色は略同一の光源下では一定範囲内の色相値を有するため、肌色の初期画素は、色相を規定した条件に基づいて選択するのが好ましい。例えば、HSV表色系の色相値(Hue)で0〜30及び330〜359の範囲の画素を選択するのが好ましい。
【0099】
また、彩度(Satulation)を合わせて規定することも好ましい。色相、彩度を規定した条件は、撮影時の光源種により変更されるのが好ましく、更に、撮影時の光源種は公知の方法により自動的に判別されるのが好ましい。
【0100】
更に、初期画素の特定条件に、明るさに関する配光条件に応じた条件を加えればよい。Th1、Th2、Th3、Th4、Th5、Th6を、抽出対象の領域の明るさを制限するための閾値とし、領域内における明るさを表すパラメータ(例えば、輝度成分の平均値)をVaveとすると、予め、個々の配光状態にある複数の顔画像のRGB値に基づいて、下記の関係式を満たすように設定されるものであればよい。
逆光 :Th1<Vave<Th2
順光 :Th3<Vave<Th4
ストロボ:Th5<Vave<Th6
ここで、Th1〜6は、Th1< Th2 ≦ Th3 < Th4 ≦ Th5 < Th6 を満たしており、例えば、
逆光 :20<Vave<65
順光 :65<Vave<200
ストロボ:200<Vave<255
の条件を設定すればよい。また、処理能力に余裕があれば、下記式のような条件(範囲が重なっている場合)を設けると、顔候補領域の抽出精度を向上させることができる。
Th1<Th3<Th5
Th2<Th4<Th6
Th1<Th2<Th3
Th5<Th4<Th6
【0101】
ステップS42、S44、S46の何れか一つにおいて顔候補領域が抽出されると、その抽出された顔候補領域から顔領域を抽出するために、当該顔候補領域に対して顔判定処理が行われる(ステップS47)。そして、顔判定処理の判定結果に基づいて顔候補領域から顔領域が抽出され(ステップS48)、本領域2(顔)抽出処理が終了する。
【0102】
ステップS47の顔判定処理は、パターンマッチングやニューラルネットワークを用いた公知の判定方法を適用することが可能である。例えば、抽出された顔候補領域から目画素、口画素等の特徴部位を抽出し、顔候補領域に対する特徴部位の面積率、当該顔候補領域の平均色相値、平均彩度値等を入力信号、顔らしさを表すパラメータを出力信号としたニューラルネットワークを用いて、当該顔候補領域が顔であるか否かを判定することができる。
【0103】
以上のように、本実施形態1の画像処理装置1によれば、撮影画像データから、配光条件に応じて決定された画像領域を抽出して、抽出された画像領域に基づいて天地判定を行うことにより、どのような撮影環境であっても天地判定の判定精度を向上させることができる。
【0104】
特に、空のようなテクスチャの少ない背景領域に基づいて天地判定を行うと、判定精度を更に向上させることができる。また、撮影画像データに人物が含まれている場合、背景領域だけでなく人物の顔領域に基づいて天地判定を行うと、背景領域と顔領域との位置関係を考慮した天地判定を行うことができるため、判定精度を一層高めることができる。
【0105】
[実施形態2]
次に、図17〜図22を参照して、本発明の実施形態2について説明する。
実施形態2の画像処理装置の外観構成及び内部構成は、実施形態1において図1〜3に示した構成と同一ゆえ、以下では、実施形態1と同一の符号を用い、構成説明を省略する。
【0106】
次に、本実施形態2の画像処理装置1における動作について説明する。
まず、図17のフローチャートを参照して、実施形態2の画像調整処理部704において実行される画像処理全体の流れについて説明する。
【0107】
まず、フィルムスキャナ部9、反射原稿入力装置10、画像転送手段30、通信手段(入力)32等を介して、画像処理対象の撮影画像データが取得され(ステップS50)、その取得された撮影画像データから撮影時の配光条件(光源状態)を判別する配光条件判別処理が行われる(ステップS51)。ステップS51の配光条件判別処理は、実施形態1において図5に示した処理と同一である。
【0108】
次いで、ステップS51において判別された配光条件に基づいて、所定の画像領域の抽出条件が決定され(ステップS52)、その決定された抽出条件に従って、撮影画像データから画像領域が抽出される(ステップS53)。ステップS52及びS53の処理は、実施形態1において図16に示した処理と同一である。
【0109】
次いで、ステップS53において抽出された画像領域から所定の特徴量を算出する特徴量算出処理が行われる(ステップS54)。ここで、所定の特徴量とは、抽出された画像領域の重心、面積率、色値の勾配等のデータである。ステップS54の特徴量算出処理については、後に図18を参照して詳細に説明する。
【0110】
次いで、ステップS54において算出された特徴量と、ステップS51において判別された配光条件に基づいて算出された特徴量を入力信号として、ニューラルネットワークを用いて撮影画像データの天地判定が行われ(ステップS55)、本画像処理が終了する。ここで、配光条件に基づいて算出された特徴量とは、順光度(順光の程度)、逆光度(逆光の程度)、ストロボ度(ストロボの程度)であり、指標4、5の値に基づいて算出される。ステップS55のニューラルネットワークを用いた天地判定処理については、後に図21及び図22を参照して詳細に説明する。
【0111】
次に、図18のフローチャートを参照して、図17のステップS54に示した特徴量算出処理について詳細に説明する。
【0112】
図16(a)の領域1(空)抽出処理により領域1(空)が抽出されると、領域1の特徴量1として、領域1の重心が算出され(ステップS60)、特徴量2として、領域1の面積率が算出され(ステップS61)、特徴量3として、領域1の色値の勾配(グラデーションの方向)が算出される(ステップS62)。領域1の面積率とは、領域1が、撮影画像データ全体を構成する画素数に対してどの程度の比率を占めるかを示すパラメータであり、(領域1の画素数)/(撮影画像データ全体の画素数)として求められる。
【0113】
また、領域1のその他の特徴量nとして、明度・色相・彩度の統計値、明度・色相・彩度の勾配、領域1が画像の4辺を占める割合等も算出される(ステップS63)。
【0114】
また、図16(b)の領域2(顔)抽出処理により領域2(顔)が抽出されると、領域2の特徴量1として、領域2の重心が算出され(ステップS70)、特徴量2として、領域2の面積率が算出され(ステップS71)、特徴量3として、領域2の個数(即ち、顔の個数)が算出される(ステップS72)。また、領域2のその他の特徴量nも算出される(ステップS73)。
【0115】
〈ニューラルネットワーク〉
次に、図17の天地判定処理(ステップS55)において使用されるニューラルネットワークについて簡単に説明する。このニューラルネットワークは、図19に示すように、入力層、中間層、及び出力層を有する階層型のニューラルネットワーク(以下、単にニューラルネットワークという。)である。ニューラルネットワークは、デジタルニューラルネットワークチップを利用することが望ましいが、汎用のDSP(Digital Signal Processor)と専用のエミュレートプログラムを用いても実現することができるし、通常のCPUとエミュレートプログラムを用いても構わない。
【0116】
ニューラルネットワークの各層は、ニューロンと呼ばれる構成単位からなっている。入力層を除けば、任意のニューロンは図20に示すようにシナプスと呼ばれる入力を多数受け取り、各々の入力値xiに対して結合強度と呼ばれる所定の重みwiを掛けてその総和を求め、それを所定の出力関数fで評価した結果を出力yとして与える機能素子として機能する。出力関数fは、式(10)のように表される。
【数4】

ここで、f(x)は一般に式(11)に示すような非線形のシグモイド関数が用いられるが、必ずしもこれに限定されるわけではない。
【数5】

【0117】
ここで、各ニューロンの入力の重みwiはニューラルネットワークの入力・出力の関係、言い替えればニューラルネットワークの動作を決定する重要な情報であり、ニューラルネットワークに対して学習作業を行うことによって決定する。なお、図19では中間層は1層のみ記してあるが、これは1以上の任意の階層の構成とすることができる。階層型ネットワークでは、中間層は1層あれば、合成可能な任意の関数を実現できることが知られているが、中間層を多くした方が学習効率や、ニューロンの個数の点から有利であることが知られている。
【0118】
ニューラルネットワークは以下のような特徴を有している。
(1)比較的単純な構成でありながら、多入力・多出力の非線形システムを実現できる。(2)各層内の各ニューロンは独立して動作させることができ、並列処理によって高速な動作が期待できる。
(3)適切な教師データを与えて学習させることにより、任意の入出力関係を実現させることができる。
(4)系として汎化能力がある。すなわち、必ずしも教師データとして与えていない、未学習の入力パターンに対しても、おおむね正しい出力を与える能力がある。
【0119】
ここで、教師データとは、入力パターンと、その入力パターンに対する望ましい出力パターンの対であり、通常複数個用意する。特定の入力パターンに対して望ましい出力パターンを決定する作業は、一般に熟練者の主観的な判断に頼って決定する。ニューラルネットワークの主な応用としては(a)非線形の関数近似、(b)クラスタリング(識別、認識、分類)が挙げられる。
【0120】
一般に非線形関数近似は実現が容易であり、汎化能力も高い系を得やすい。一方、クラスタリングへの応用は教師データへの依存性が高く、かつ複雑な入力に関しては、複数の教師データ相互の間に矛盾関係が存在する可能性が高い。このため、クラスタリングへ応用した場合には、入力が非常に簡単な場合を除けば、結果的に汎化能力が低いのみならず、特定の教師データに対する適合性という意味でも不満足な系しか得られないことも少なくない。
【0121】
次に、ニューラルネットワークに対する教師データを用いた学習方法について説明する。p番目の入力パターンに対する、第L層のi番目のニューロンの状態を式(12)及び式(13)のように表現する。
【数6】

【数7】

ここで、式(12)の関数f(x)は、式(11)に示した非線形のシグモイド関数、YiLはニューロンの出力、UiLはニューロンの内部状態、Yi<L−1>はL−1層のニューロンの出力=L層のニューロンの入力、wij<L>は結合強度である。
【0122】
このように定義した場合に、広く用いられている誤差逆伝搬学習法(バックプロパゲーション学習法、以下BP法と略す。)では、誤差評価関数として平均自乗誤差を用いて、以下のようにエラーEを定義する。
【数8】

ただしkは出力層の番号であり、Ti(p)はp番目の入力パターンに対する望ましい出力パターンである。
【0123】
この場合、BP法に基づく各結合強度の修正量Δwは次式で定められる。
【数9】

ここで、∂は偏微分記号(ラウンド)、ηは学習率を表す係数である。Δwij<L>を各々のwij<L>に加算することによって学習が進む。なお、この形式のBP法では学習が進んだ結果、教師データとの誤差の絶対値が小さくなってくると、Δwの絶対値も小さくなり、学習が進まなくなるという現象が指摘されており、その問題点を回避するために、種々の改良が提案されている。
【0124】
例えば、Δwの定義を次のように変更するという提案がある。
【数10】

式(16)の第二項は慣性項(モーメンタム項)と呼ばれ、現在の修正量だけでなく、過去の修正量も考慮することで収束時の振動を抑え、学習を高速化する効果がある。安定化定数αは1.0以下の正の実数で、過去の修正量の考慮の度合いを規定する係数である。
【0125】
あるいは、学習率ηを学習回数nに応じて、次式を満たすように動的に変化させるという提案もある。
【数11】

【0126】
さらには、エラーの評価を平均自乗誤差ではなく、シグモイド関数の導関数を打ち消すような形式にするという提案もある。いずれにせよ、BP法を用いて十分な回数学習作業を施すことにより、教師データに対して近似した出力を得ることができるようになる。
【0127】
図21に、実施形態2の天地判定処理で適用されるニューラルネットワークの一例を示す。ここで用いるニューラルネットワークは、領域1(空)の特徴量1、特徴量2及び特徴量n、領域2(顔)の特徴量1、特徴量2及び特徴量n、配光条件に基づいて算出された特徴量(逆光の程度、ストロボの程度等)を入力信号とし、画像のx方向(横方向)における天方向を表す出力値Outx、画像のy方向(縦方向)における天方向を表す出力値Outyを出力信号とするニューラルネットワークである。
【0128】
図22に、出力値Outx、Outyと、画像の天方向の関係を示す。例えば、Outxが、画像の左から右に向かって0.0〜1.0の範囲の値をとる場合、Outx〜1.0であれば、画像の右方向を天方向とし、Outx〜0.0であれば、画像の左方向を天方向とする。また、Outyが、画像の下から上に向かって0.0〜1.0の範囲の値を取る場合、Outy〜1.0であれば、画像の上方向を天方向とし、Outy〜0.0であれば、画像の下方向を天方向とする。従って、この2つの出力値Outx、Outyの大小に応じて、天方向を決定することができる。例えば、Outx〜0.5で、Outy〜1.0である場合、上方向が天方向であるとみなされる。
【0129】
なお、図21では、出力層の要素数が2個になっているが、上下左右の4方向に対応して4個にしてもよい。また、ニューラルネットワークの構成は、中間層の数が2層以上でもよく、各層の要素数も合わせて最も認識率が高くなるように決定すればよい。
【0130】
以上のように、本実施形態2の画像処理装置1によれば、撮影画像データから、配光条件に応じて決定された画像領域を抽出して、抽出された画像領域の特徴量と、配光条件の特徴量を入力信号、画像の天方向を表す出力値を出力信号としたニューラルネットワークを用いて天地を判定することにより、どのような撮影環境であっても天地判定の判定精度を向上させることができるとともに、ユーザの撮影状況が反映された天地判定を行うことができる。
【0131】
特に、空などのテクスチャの少ない背景領域から算出された特徴量に基づいて天地判定を行うと、判定精度を更に向上させることができる。また、撮影画像データに人物が含まれている場合、空領域だけでなく人物の顔領域を抽出し、空領域の特徴量及び顔領域の特徴量に基づいて天地判定を行うと、ユーザの撮影意図にそった天地判定を行うことができ、天地判定の判定精度を一層高めることができる。
【0132】
なお、上記各実施形態及びにおける記述内容は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
【図面の簡単な説明】
【0133】
【図1】本発明の実施形態1及び2における画像処理装置の外観構成を示す斜視図。
【図2】実施形態1及び2の画像処理装置の主要部構成を示すブロック図。
【図3】図2の画像処理部の主要部構成を示すブロック図。
【図4】実施形態1の画像調整処理部において実行される画像処理全体の流れを示すフローチャート。
【図5】配光条件判別処理を示すフローチャート。
【図6】明度・色相の領域毎に第1の占有率を算出する占有率算出処理を示すフローチャート。
【図7】RGBからHSV表色系に変換するプログラムの一例を示す図。
【図8】明度(V)−色相(H)平面と、V−H平面上の領域r1及び領域r2を示す図。
【図9】明度(V)−色相(H)平面と、V−H平面上の領域r3及び領域r4を示す図。
【図10】指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図。
【図11】指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図。
【図12】撮影画像データの構図に基づいて第2の占有率を算出する占有率算出処理を示すフローチャート。
【図13】撮影画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図。
【図14】指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図。
【図15】配光条件(順光、ストロボ、逆光)別に算出された指標4及び指標5のプロット図。
【図16】領域1(空)抽出処理を示すフローチャート(a)と、領域2(顔)抽出処理を示すフローチャート(b)。
【図17】実施形態2の画像調整処理部において実行される画像処理全体の流れを示すフローチャート。
【図18】特徴量算出処理を示すフローチャート。
【図19】階層型ニューラルネットワークの構造を模式的に示す図。
【図20】ニューラルネットワークを構成するニューロンの構造を示す図。
【図21】実施形態2で適用されるニューラルネットワークを示す図。
【図22】図21のニューラルネットワークの出力値と撮影画像との関係を示す図。
【符号の説明】
【0134】
1 画像処理装置
4 露光処理部
5 プリント作成部
7 制御部
8 CRT
9 フィルムスキャナ部
10 反射原稿入力装置
11 操作部
14 画像読込部
15 画像書込部
30 画像転送手段
31 画像搬送部
32 通信手段(入力)
33 通信手段(出力)
34 外部プリンタ
70 画像処理部
701 フィルムスキャンデータ処理部
702 反射原稿スキャンデータ処理部
703 画像データ書式解読処理部
704 画像調整処理部
705 CRT固有処理部
706 プリンタ固有処理部(1)
707 プリンタ固有処理部(2)
708 画像データ書式作成処理部
71 データ蓄積手段

【特許請求の範囲】
【請求項1】
撮影画像データから、撮影時の配光条件を判別する判別工程と、
前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定工程と、
前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出工程と、
前記抽出された画像領域に基づいて前記撮影画像データの天地を判定する判定工程と、
を含むことを特徴とする画像処理方法。
【請求項2】
撮影画像データから、撮影時の配光条件を判別する判別工程と、
前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定工程と、
前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出工程と、
前記抽出された画像領域から所定の特徴量を算出する算出工程と、
前記算出された特徴量及び前記判別された配光条件に基づいて算出された特徴量を入力信号として、ニューラルネットワークを用いて前記撮影画像データの天地を判定する判定工程と、
を含むことを特徴とする画像処理方法。
【請求項3】
前記撮影時の配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴とする請求項1又は2に記載の画像処理方法。
【請求項4】
前記抽出工程において抽出される画像領域には、少なくとも主要被写体の背景領域が含まれることを特徴とする請求項1〜3の何れか一項に記載の画像処理方法。
【請求項5】
前記抽出工程において抽出される画像領域には、少なくとも人物の顔領域が含まれることを特徴とする請求項4に記載の画像処理方法。
【請求項6】
撮影画像データから、撮影時の配光条件を判別する判別手段と、
前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定手段と、
前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出手段と、
前記抽出された画像領域に基づいて前記撮影画像データの天地を判定する判定手段と、
を備えることを特徴とする画像処理装置。
【請求項7】
撮影画像データから、撮影時の配光条件を判別する判別手段と、
前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定手段と、
前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出手段と、
前記抽出された画像領域から所定の特徴量を算出する算出手段と、
前記算出された特徴量及び前記判別された配光条件に基づいて算出された特徴量を入力信号として、ニューラルネットワークを用いて前記撮影画像データの天地を判定する判定手段と、
を備えることを特徴とする画像処理装置。
【請求項8】
前記撮影時の配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴とする請求項6又は7に記載の画像処理装置。
【請求項9】
前記抽出手段は、前記撮影画像データから、少なくとも主要被写体の背景領域を抽出することを特徴とする請求項6〜8の何れか一項に記載の画像処理装置。
【請求項10】
前記抽出手段は、前記撮影画像データから、少なくとも人物の顔領域を抽出することを特徴とする請求項9に記載の画像処理装置。
【請求項11】
画像処理を実行するコンピュータに、
撮影画像データから、撮影時の配光条件を判別する判別機能と、
前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定機能と、
前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出機能と、
前記抽出された画像領域に基づいて前記撮影画像データの天地を判定する判定機能と、
を実現させるための画像処理プログラム。
【請求項12】
画像処理を実行するコンピュータに、
撮影画像データから、撮影時の配光条件を判別する判別機能と、
前記判別された配光条件から、所定の画像領域の抽出条件を決定する決定機能と、
前記決定された抽出条件に従って、前記撮影画像データから少なくとも1つの画像領域を抽出する抽出機能と、
前記抽出された画像領域から所定の特徴量を算出する算出機能と、
前記算出された特徴量及び前記判別された配光条件に基づいて算出された特徴量を入力信号として、ニューラルネットワークを用いて前記撮影画像データの天地を判定する判定機能と、
を実現させるための画像処理プログラム。
【請求項13】
前記撮影時の配光条件には、逆光状態及び/又はフラッシュ光利用状態が含まれることを特徴とする請求項11又は12に記載の画像処理プログラム。
【請求項14】
前記抽出機能を実現させる際に、前記撮影画像データから、少なくとも主要被写体の背景領域を抽出させることを特徴とする請求項11〜13の何れか一項に記載の画像処理プログラム。
【請求項15】
前記抽出機能を実現させる際に、前記撮影画像データから、少なくとも人物の顔領域を抽出させることを特徴とする請求項14に記載の画像処理プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate


【公開番号】特開2006−39666(P2006−39666A)
【公開日】平成18年2月9日(2006.2.9)
【国際特許分類】
【出願番号】特願2004−214589(P2004−214589)
【出願日】平成16年7月22日(2004.7.22)
【出願人】(303050159)コニカミノルタフォトイメージング株式会社 (1,066)
【Fターム(参考)】