説明

撮像装置、表示方法およびプログラム

【課題】撮影時のライブビュー画像に写る被写体の顔を用いて新規な表示を行うことができる撮像装置、表示方法およびプログラムを提供する。
【解決手段】被写体を撮像して該被写体の画像データを連続的に生成する撮像部2と、撮像部2が生成した画像データに対応するライブビュー画像を生成順に表示する表示部6と、を備えた撮像装置1であって、ライブビュー画像に含まれる被写体の顔を検出する顔検出部92と、顔検出部92が検出した被写体の顔を含む顔領域を、画像から切出して顔画像を生成するトリミング部93と、表示部6の表示領域において指定された表示位置に、トリミング部93が生成した顔画像を表示部6に表示させる表示制御部96と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、被写体を撮像して電子的な画像データを生成する撮像装置、表示方法およびプログラムに関する。
【背景技術】
【0002】
近年、デジタルカメラ等の撮像装置は、2つの撮像手段を備えたものが知られている。たとえば、第1の撮像手段で被写体に面する前方側を撮影する一方、第2の撮影手段で撮影者に面する背面側を撮影することができる技術が知られている(特許文献1参照)。この技術では、第1の撮影手段で撮影した前方側画像に、第2の撮影手段で撮影した背面側の背面画像を一つの表示モニタで表示させることで、前方側画像と背面画像とを選択的に撮影することができるようにしている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2004−147046号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、従来の撮像装置では、表示モニタが撮像手段によって連続的に生成された画像内に写る被写体の顔を検出することができる。しかしながら、撮影画像内に写る被写体の顔を検出した場合であっても、主として撮影時におけるピントの確認にしか用いられていなかった。このため、被写体の顔を用いたエンターテインメント性が溢れる新規な表示技術が求められていた。
【0005】
本発明は、上記に鑑みてなされたものであって、撮影時のライブビュー画像に写る被写体の顔を用いて新規な表示を行うことができる撮像装置、表示方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明にかかる撮像装置は、被写体を撮像して該被写体の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応するライブビュー画像を生成順に表示する表示部と、を備えた撮像装置であって、前記ライブビュー画像に含まれる被写体の顔を検出する顔検出部と、前記顔検出部が検出した前記被写体の顔を含む顔領域を、前記ライブビュー画像から切出して顔画像を生成するトリミング部と、前記表示部の表示領域において指定された表示位置に、前記トリミング部が生成した前記顔画像を表示させる表示制御部と、を備えたことを特徴とする。
【0007】
また、本発明にかかる撮像装置は、上記発明において、前記顔検出部によって検出された前記被写体の顔の前記ライブビュー画像上における表示位置を検出する表示位置検出部をさらに備え、前記表示制御部は、前記表示位置検出部が検出した表示位置に対応する前記表示領域に、前記顔画像を表示させることを特徴とする。
【0008】
また、本発明にかかる撮像装置は、上記発明において、前記表示部が表示している前記顔画像の表示位置を、前記表示領域内において移動させる指示信号の入力を受け付ける入力部をさらに備え、前記表示制御部は、前記入力部が入力を受け付けた前記指示信号に応じて、前記顔画像を移動させて前記表示部に表示させることを特徴とする。
【0009】
また、本発明にかかる撮像装置は、上記発明において、前記入力部は、前記顔画像の大きさの変更を指示する変更指示信号の入力をさらに受け付け可能であり、前記表示制御部は、前記入力部が受け付けた前記変更指示信号に応じて、前記顔画像の大きさを変更して前記表示部に表示させることを特徴とする。
【0010】
また、本発明にかかる撮像装置は、上記発明において、前記顔検出部は、前記ライブビュー画像に含まれる複数の被写体の顔を検出可能であり、前記入力部は、前記顔検出部が検出した前記複数の顔の中から表示対象とする顔の選択する選択信号の入力をさらに受け付け可能であることを特徴とする。
【0011】
また、本発明にかかる撮像装置は、上記発明において、前記トリミング部が生成した前記顔画像を、予め設定された設定画像の前記表示位置に合成して合成画像を生成する画像合成部をさらに備え、前記表示制御部は、前記画像合成部が生成した前記合成画像を前記表示部に表示させることを特徴とする。
【0012】
また、本発明にかかる撮像装置は、上記発明において、前記顔領域を含む前記被写体以外の領域を背景領域として検出する背景領域検出部をさらに備え、前記トリミング部は、前記背景領域検出部が検出した前記背景領域を前記画像から切出して背景画像を生成し、前記画像合成部は、前記背景画像を前記設定画像として前記顔画像に合成することを特徴とする。
【0013】
また、本発明にかかる撮像装置は、上記発明において、前記撮像部と異なる位置に設けられ、所定の視野領域から光を集光して光電変換を行うことによって第2の画像データを生成する第2の撮像部をさらに備え、前記顔検出部は、前記第2の画像データに対応する第2の画像に含まれる被写体の顔を検出し、前記トリミング部は、前記顔検出部が前記第2の画像から検出した顔を含む顔領域を前記第2の画像から切出して第2の顔画像を生成し、前記画像合成部は、前記第2の顔画像を前記背景画像に合成することを特徴とする。
【0014】
また、本発明にかかる撮像装置は、上記発明において、前記画像合成部は、前記第2の顔画像の表示位置を左右反転にして前記背景画像に合成することを特徴とする。
【0015】
また、本発明にかかる撮像装置は、上記発明において、当該撮像装置の姿勢を検出する姿勢検出部をさらに備え、前記画像合成部は、前記姿勢検出部の検出結果に応じて、前記第2の顔画像を前記背景画像に合成することを特徴とする。
【0016】
また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記表示位置検出部が検出した表示位置に対応する前記表示領域を識別可能な表示態様で表示させることを特徴とする。
【0017】
また、本発明にかかる表示方法は、被写体を撮像して該被写体の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応するライブビュー画像を生成順に表示する表示部と、を備えた撮像装置が撮影時に実行する表示方法であって、前記ライブビュー画像に含まれる被写体の顔を検出する顔検出ステップと、前記顔検出ステップが検出した前記被写体の顔を含む顔領域を、前記ライブビュー画像から切出して顔画像を生成するトリミングステップと、前記表示部の表示領域において指定された表示位置に、前記トリミングステップが生成した前記顔画像を表示させる表示制御ステップと、を含むことを特徴とする。
【0018】
また、本発明にかかるプログラムは、被写体を撮像して該被写体の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応するライブビュー画像を生成順に表示する表示部と、を備えた撮像装置の撮影時に実行するプログラムであって、前記ライブビュー画像に含まれる被写体の顔を検出する顔検出ステップと、前記顔検出ステップが検出した前記被写体の顔を含む顔領域を、前記ライブビュー画像から切出して顔画像を生成するトリミングステップと、前記表示部の表示領域において指定された表示位置に、前記トリミングステップが生成した前記顔画像を表示させる表示制御ステップと、を実行させることを特徴とする。
【発明の効果】
【0019】
本発明によれば、表示制御部が、表示部の表示領域において指定された表示位置に、トリミング部によって生成された顔画像を表示させる。これにより、簡易な操作で撮影時に所望の被写体の顔を画像内に写すことができるという効果を奏する。
【図面の簡単な説明】
【0020】
【図1】図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側の構成を示す図である。
【図2】図2は、本発明の実施の形態1にかかる撮像装置の撮影者に面する側の構成を示す図である。
【図3】図3は、本発明の実施の形態1にかかる撮像装置の構成を示すブロック図である。
【図4】図4は、本発明の実施の形態1にかかる撮像装置が行う処理の概要を示すフローチャートである。
【図5】図5は、撮影者が撮像装置を用いて撮影する際の状況を示す図である。
【図6】図6は、図5に示す状況下で表示部が時系列に沿って順次表示するライブビュー画像のうち代表的な一枚の画像を示す図である。
【図7】図7は、図4のコラージュモード処理の概要を示すフローチャートである。
【図8】図8は、表示部6が表示するライブビュー画像の一例を示す図である。
【図9】図9は、表示部6が表示するライブビュー画像の一例を示す図である。
【図10】図10は、表示部6が表示するライブビュー画像の一例を示す図である。
【図11】図11は、表示部6が表示するライブビュー画像の一例を示す図である。
【図12】図12は、画像合成部が生成する合成画像の一例を示す図である。
【図13】図13は、顔画像を移動させるスライド操作を模式的に説明する図である。
【図14】図14は、顔画像の拡大させる拡大操作を模式的に説明する図である。
【図15】図15は、本発明の実施の形態2にかかる撮像装置の構成を示すブロック図である。
【図16】図16は、本発明の実施の形態2にかかる撮像装置が行うコラージュ処理の概要を示すフローチャートである。
【図17】図17は、図16の背景枠表示処理の概要を示すフローチャートである。
【図18】図18は、背景検出部が判定する背景領域の判定方法の概要を説明する図である。
【図19】図19は、表示部6が表示するライブビュー画像の一例を示す図である。
【図20】図20は、図16のコラージュ表示処理の概要を示すフローチャートである。
【図21】図21は、画像合成部が生成する合成画像の一例を示す図である。
【図22】図22は、整列アイコンが選択された際に表示部6が表示する画像の一例を示す図である。
【図23】図23は、本発明の実施の形態3にかかる撮影者に面する側の撮像装置の構成を示す斜視図である。
【図24】図24は、本発明の実施の形態3にかかる撮像装置の構成を示すブロック図である。
【図25】図25は、本発明の実施の形態3にかかる撮像装置が行うコラージュモード処理の概要を示すフローチャートである。
【図26】図26は、撮影者が撮像装置を用いて撮影する際の状況を示す図である。
【図27】図27は、図26に示す状況下で表示部が時系列に沿って順次表示するライブビュー画像のうち代表的な一枚の画像を示す図である。
【図28】図28は、図25の撮影者顔枠表示処理の概要を示すフローチャートである。
【図29】図29は、表示制御部がライブビュー画像上の白抜き部に撮影者の顔画像を表示させる際の表示方法を模式的に説明する図である。
【図30】図30は、表示制御部がライブビュー画像上の白抜き部に撮影者の顔画像を表示させる際の表示方法を模式的に説明する図である。
【図31】図31は、撮影者とこの撮影者が写る画像内の位置との関係を説明する図である。
【図32】図32は、撮影者が表示部によって表示されるライブビュー画像を見ながら撮影者自身の顔枠の位置を調整する際の状況を模式的に示す図である。
【図33】図33は、撮影者が表示部によって表示されるライブビュー画像を見ながら撮影者自身の顔枠の位置を調整する際の状況を模式的に示す図である。
【図34】図34は、コラージュモードで理想とする画像の一例を示す図である。
【図35】図35は、撮影者、被写体および撮像装置を含む位置関係を模式的に説明する図である。
【図36】図36は、本発明の実施の形態3にかかる撮像装置が行うコラージュ表示処理で表示される画像の一例を示す図である。
【発明を実施するための形態】
【0021】
以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付している。
【0022】
(実施の形態1)
図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側(前面側)の構成を示す図である。図2は、本発明の実施の形態1にかかる撮像装置の撮影者に面する側(背面側)の構成を示す図である。図3は、本発明の実施の形態1にかかる撮像装置の構成を示すブロック図である。
【0023】
図1〜図3に示すように、撮像装置1は、撮像部2と、姿勢検出部3と、タイマー4と、操作入力部5と、表示部6と、タッチパネル7と、記憶部8と、制御部9と、を備える。
【0024】
撮像部2は、被写体を撮像してこの被写体の画像データを生成する。撮像部2は、レンズ部21と、レンズ駆動部22と、絞り23と、絞り駆動部24と、シャッタ25と、シャッタ駆動部26と、撮像素子27と、撮像駆動部28と、信号処理部29と、を有する。
【0025】
レンズ部21は、フォーカスおよびズーム可能な複数のレンズ群によって構成され、所定の視野領域から光を集光する。レンズ駆動部22は、ステッピングモータまたはDCモータを用いて構成され、レンズ部21のレンズ群を光軸L1上に沿って移動させることにより、レンズ部21のピント位置や焦点距離等の変更を行う。
【0026】
絞り23は、レンズ部21が集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部24は、ステッピングモータ等によって構成され、絞り23を駆動する。
【0027】
シャッタ25は、撮像素子27の状態を露光状態または遮光状態に設定する。シャッタ駆動部26は、ステッピングモータ等によって構成され、レリーズ信号に応じてシャッタ25を駆動する。
【0028】
撮像素子27は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等によって構成される。撮像素子27は、レンズ部21が集光した光を受光して光電変換を行うことによって、光を電気信号(アナログ信号)に変換する。撮像駆動部28は、撮像素子27を駆動するタイミングパルスを生成し、撮像素子27が光電変換した電気信号を信号処理部29に出力させる。
【0029】
信号処理部29は、アナログアンプやA/D変換器等によって構成される。信号処理部29は、撮像素子27から出力される電気信号に増幅(ゲイン調整)等の信号処理を施した後、A/D変換を行うことによってデジタルの画像データに変換して制御部9に出力する。
【0030】
姿勢検出部3は、加速度センサを用いて構成される。姿勢検出部3は、撮像装置1の加速度を検出することにより、撮像装置1の姿勢状態を検出する。具体的には、姿勢検出部3は、水平面を基準としたときの撮像装置1の姿勢(傾斜角度)を検出する。
【0031】
タイマー4は、計時機能および撮影日時の判定機能を有する。タイマー4は、撮像された画像データに日時データを付加させるため、制御部9に日時データを出力する。
【0032】
操作入力部5は、撮像装置1の電源状態をオン状態またはオフ状態に切換える電源スイッチ51と、撮影の指示を与えるレリーズ信号の入力を受け付けるレリーズスイッチ52と、撮像装置1に設定された各種撮影モードを切換える撮影モード切換スイッチ53と、を有する。
【0033】
表示部6は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて実現される。表示部6は、撮像部2が生成する画像データに対応する画像を表示する。表示部6は、撮像装置1の操作情報および撮影に関する情報を適宜表示する。
【0034】
タッチパネル7は、表示部6の表示画面上に重ねて設けられる。タッチパネル7は、ユーザが表示部6に表示される情報に基づいて接触(タッチ)した位置を検出し、この接触位置に応じた指示信号の入力を受け付ける。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式、光学式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。なお、本実施の形態1では、タッチパネル7が入力部として機能する。
【0035】
記憶部8は、撮像装置1の内部に固定的に設けられるフラッシュメモリおよびRAM(Random Access Memory)等の半導体メモリを用いて実現される。記憶部8は、制御部9が実行中のデータを記憶する。記憶部8は、撮像部2が撮像した画像データを記憶する画像データ記憶部81と、撮像装置1が実行する各種プログラムを記憶するプログラム記憶部82と、被写体の顔の検出を行う際に参照する顔画像情報およびユーザによって予め登録された被写体の顔の特徴を記憶する特徴情報を記憶する顔情報記憶部83と、を有する。なお、記憶部8は、外部から装着されるメモリカード等のコンピュータで読取可能な記憶媒体を含むものであってもよい。
【0036】
制御部9は、CPU(Central Processing Unit)等を用いて構成される。制御部9は、操作入力部5やタッチパネル7からの指示信号や切換信号等に応じて撮像装置1を構成する各部に対応する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。
【0037】
制御部9の詳細な構成について説明する。制御部9は、画像処理部91と、顔検出部92と、トリミング部93と、表示位置検出部94と、画像合成部95と、表示制御部96と、を有する。
【0038】
画像処理部91は、信号処理部29から入力される画像デー対して各種の画像処理を施す。具体的には、画像処理部91は、画像データ(RAWデータ)に対して、エッジ強調処理、ホワイトバランス処理およびγ補正を含む画像処理を行う。画像処理部91は、JPEG(Joint Photographic Experts Group)方式等に基づいて、画像データの圧縮処理や伸長処理を行う。
【0039】
顔検出部92は、画像データに対応する画像に含まれる被写体の顔を検出する。具体的には、顔検出部92は、画像に含まれる人物の顔をパターンマッチングによって検出する。なお、顔検出部92は、人物の顔だけでなく、犬や猫等の顔を検出してもよい。さらに、顔検出部92は、パターンマッチング以外の周知技術を用いて人物の顔を検出してもよい。
【0040】
トリミング部93は、顔検出部92が検出した被写体の顔を含む顔領域を画像から切出して顔画像を生成する。トリミング部93は、顔検出部92が画像内から被写体の顔を複数検出した場合、画像から各顔領域をそれぞれ切出して顔画像を生成する。
【0041】
表示位置検出部94は、顔検出部92が検出した被写体の顔における画像上の表示位置を検出する。具体的には、表示位置検出部94は、表示部6の表示画面における左下(図2を参照)を原点とし、表示部6の横方向をX軸とし、縦方向をY軸とする座標系として考えた場合において、顔検出部92が検出する被写体の顔の表示位置としての座標を検出する。
【0042】
画像合成部95は、トリミング部93が生成した顔画像を、予め設定された設定画像の指定位置に合成して合成画像を生成する。具体的には、画像合成部95は、トリミング部93が生成した顔画像を、画像データ記憶部81が記憶する画像データに対応する設定画像の指定位置に合成して合成画像を生成する。
【0043】
表示制御部96は、表示部6の表示領域において指定された表示位置に、トリミング部93が生成した顔画像を表示部6に表示させる。表示制御部96は、タッチパネル7が入力を受け付けた指示信号に応じて、顔画像を表示する表示位置を移動させて表示部6に表示させる。表示制御部96は、タッチパネル7が入力を受け付けた顔画像の大きさを変更する変更信号に応じて、顔画像の大きさを変更して表示部6に表示させる。
【0044】
以上の構成を有する撮像装置1に電子ビューファインダ、フラッシュおよび外部処理装置と双方向に通信可能な通信部等を設けてもよい。
【0045】
つぎに、本実施の形態1にかかる撮像装置1が行う処理について説明する。図4は、撮像装置1が行う処理の概要を示すフローチャートである。
【0046】
図4において、撮像装置1が撮影モードに設定されている場合(ステップS101:Yes)について説明する。この場合、表示制御部96は、撮像部2が微小な時間間隔で連続的に生成する画像データに対応するライブビュー画像を表示部6に表示させる(ステップS102)。
【0047】
図5は、撮影者が撮像装置1を用いて撮影する際の状況を示す図である。図6は、図5に示す状況下で表示部6が時系列に沿って順次表示するライブビュー画像のうち代表的な一枚の画像W1を示す。図5および図6に示すように、撮影者は、たとえば図6のライブビュー画像W1を見ながら被写体を撮影する際の構図を決定する。
【0048】
続いて、制御部9は、撮像装置1にコラージュモードが設定されているか否かを判断する(ステップS103)。具体的には、図6に示すように、制御部9は、タッチパネル7から入力される指示信号に応じて、表示部6が表示するライブビュー画像W1上に重畳されるコラージュモードを設定するコラージュアイコンA1が選択されたから否かを判断する。撮像装置1にコラージュモードが選択されたと制御部9が判断した場合(ステップS103:Yes)、撮像装置1は、顔検出部92が検出した被写体の顔を一部に含む顔領域を切出して顔画像を生成し、この顔画像を表示部6の表示領域において予め指定された表示位置に表示させるコラージュモード処理を実行する(ステップS104)。なお、コラージュモード処理の詳細については後述する。
【0049】
これに対して、撮像装置1にコラージュモード処理が選択されていないと制御部9が判断した場合(ステップS103:No)、撮像装置1は、後述するステップS105へ移行する。
【0050】
ステップS105において、レリーズスイッチ52が操作されることにより、レリーズ信号が入力された場合(ステップS105:Yes)、撮像装置1は、制御部9の制御のもと、画像データを取得する(ステップS106)。なお、撮像装置1が取得する画像データには、コラージュモード処理が実行された画像データも含まれる。
【0051】
続いて、制御部9は、画像データに日時やデータサイズを含むヘッダ情報を関連付けて画像データ記憶部81に記憶させる(ステップS107)。
【0052】
その後、表示制御部96は、撮像した画像データに対応する画像を所定時間(たとえば2秒)だけ表示部6にレックビュー表示させる(ステップS108)。
【0053】
続いて、制御部9は、電源スイッチ51が操作されることにより、撮像装置1の電源がオフ状態になったか否かを判断する(ステップS109)。撮像装置1の電源がオフ状態になったと制御部9が判断した場合(ステップS109:Yes)、撮像装置1は、本処理を終了する。一方、撮像装置1の電源がオフ状態になっていないと制御部9が判断した場合(ステップS109:No)、撮像装置1は、ステップS110へ移行する。
【0054】
ステップS110において、制御部9は、撮影モード切換スイッチ53からモード切換信号が入力された場合、モード切換信号に応じて撮影・再生モードの変更操作を受け付ける一方、撮影モード切換スイッチ53を介してモード切換信号が入力されていない場合、現在のモードを維持する。その後、撮像装置1は、ステップS101へ戻る。
【0055】
ステップS105において、所定時間(たとえば2秒)内にレリーズスイッチ52を介してレリーズ信号が入力されていない場合(ステップS105:No)、撮像装置1は、ステップS109へ移行する。
【0056】
つぎに、撮像装置1が撮影モードに設定されておらず(ステップS101:No)、再生モードに設定されている場合(ステップS111:Yes)について説明する。この場合、表示制御部96は、画像データ記憶部81が記憶する画像データに対応する画像を縮小した縮小画像(サムネイル画像)の一覧を表示部6に表示させる(ステップS112)。
【0057】
続いて、操作入力部5またはタッチパネル7を介して拡大して表示する縮小画像が選択された場合(ステップS113:Yes)、表示制御部96は、選択された縮小画像を所定時間(たとえば3秒)だけ表示部6に全画面に拡大して表示させる(ステップS114)。その後、撮像装置1は、ステップS111へ戻る。
【0058】
これに対して、操作入力部5またはタッチパネル7を介して拡大して表示する縮小画像が選択されていない場合(ステップS113:No)、制御部9は、縮小画像の一覧表示を行ってから所定時間(たとえば5秒)経過したか否かを判断する(ステップS115)。縮小画像の一覧表示を行ってから所定時間経過したと制御部9が判断した場合(ステップS115:Yes)、撮像装置1は、ステップS109へ移行する。一方、縮小画像の一覧表示を行ってから所定時間経過していないと制御部9が判断した場合(ステップS115:No)、撮像装置1は、ステップS112へ戻る。
【0059】
ステップS111において、撮像装置1に再生モードが設定されていない場合(ステップS111:No)、撮像装置1は、ステップS109へ移行する。
【0060】
つぎに、図4のステップS103のコラージュモード処理について説明する。図7は、コラージュモード処理の概要を示すフローチャートである。
【0061】
図7において、顔検出部92がライブビュー画像に含まれる被写体の顔を検出したと制御部9が判断した場合(ステップS201:Yes)について説明する。この場合、制御部9は、コラージュ表示で表示対象とする被写体の選択が適用済みであるか否かを判断する(ステップS202)。コラージュ表示で表示対象とする被写体の選択が適用済みであると制御部9が判断した場合(ステップS202:Yes)、撮像装置1は、後述するステップS209へ移行する。一方、コラージュ表示で表示対象とする被写体の選択が適用済みでない場合(ステップS202:No)、撮像装置1は、後述するステップS203へ移行する。
【0062】
ステップS203において、表示制御部96は、顔検出部92が検出した被写体の顔を含む顔領域に対応する顔枠(ウィンドウ)を表示部6に表示させる。具体的には、図8に示すように、表示制御部96は、ライブビュー画像W2上に顔検出部92が検出した複数の被写体それぞれの顔領域に対応する矩形状の顔枠F1〜F4を表示部6に表示させる。さらに、表示制御部96は、コラージュモードで表示対象としない被写体の削除を指示する指示信号の入力を受け付ける削除アイコンA11と、コラージュ表示を適用する指示信号の入力を受け付ける適用アイコンA12と、を表示部6に表示させる。なお、図8では、表示制御部96が顔枠を矩形状で表示部6に表示させていたが、たとえば円形状で表示部6に表示させてもよい。
【0063】
続いて、制御部9は、削除アイコンA11が選択され、被写体の顔領域に対応する顔枠の領域内がタッチされたか否かを判断する(ステップS204)。具体的には、図9に示すように、制御部9は、タッチパネル7から入力される指示信号に応じて、ユーザが表示部6によって表示されているライブビュー画像W2の削除アイコンA11をタッチし(図9(a))、被写体の顔領域に対応する顔枠F1〜F4の領域内のいずれか、たとえば顔枠F1の領域内をタッチしたか否かを判断する(図9(b))。削除アイコンA11が選択され、被写体の顔領域に対応する顔枠F1〜F4の領域内のいずれかがタッチされたと制御部9が判断した場合(ステップS204:Yes)、撮像装置1は、後述するステップS205へ移行する。一方、削除アイコンA11が選択されず、被写体の顔領域に対応する顔枠F1〜F4の領域内のいずれもタッチされていないと制御部9が判断した場合(ステップS204:No)、撮像装置1は、後述するステップS208へ移行する。
【0064】
ステップS205において、制御部9は、タッチされた被写体の顔領域に対応する顔枠がコラージュ表示の表示対象であるか否かを判断する。タッチされた被写体の顔領域に対応する顔枠がコラージュ表示の表示対象であると制御部9が判断した場合(ステップS205:Yes)、表示制御部96は、タッチされた被写体の顔領域に対応する顔枠内を識別可能な表示態様で表示部6に表示させる(ステップS206)。たとえば、図10に示すように、表示制御部96は、タッチされた被写体の顔領域に対応する顔枠F1および顔枠F4の内部を黒く塗りつぶした状態(非表示状態)で表示部6に表示させる。なお、表示制御部96は、タッチされた被写体の顔領域に対応する顔枠内を、白抜きで表示したり、顔枠を太くする表示等を行って識別可能な表示態様で表示部6に表示させてもよい。
【0065】
これに対して、タッチされた被写体の顔領域に対応する顔枠がコラージュ表示の表示対象でないと制御部9が判断した場合(ステップS205:No)、表示制御部96は、タッチされた被写体の顔領域に対応する顔枠内を黒く塗りつぶされた状態から元の状態に戻して表示部6に表示させる(ステップS207)。
【0066】
ステップS208において、制御部9は、タッチパネル7から入力される指示信号に応じて、適用アイコンA12が選択されたか否かを判断する。具体的には、図11に示すように、制御部9は、タッチパネル7から入力される指示信号に応じて、ライブビュー画像W3の適用アイコンA12が選択されたか否かを判断する。適用アイコンA12が選択されたと制御部9が判断した場合(ステップS208:Yes)、撮像装置1は、後述するステップS209へ移行する。一方、所定時間(たとえば3秒)に適用アイコンA12が選択されていないと制御部9が判断した場合(ステップS208:No)、撮像装置1は、図4のメインルーチンへ戻る。
【0067】
ステップS209において、表示位置検出部94は、ライブビュー画像上において表示対象とする被写体の顔が写る表示位置を検出する。具体的には、図11に示す状況下において、表示位置検出部94は、ライブビュー画像W3において表示対象とする顔枠F2およびF3それぞれの表示位置を検出する。
【0068】
続いて、トリミング部93は、顔検出部92によって検出された複数の顔うちコラージュ表示で適用された表示対象とする顔を一部に含む顔領域を画像から切出して顔画像を生成する(ステップS210)。具体的には、トリミング部93は、図11に示した顔枠F2および顔枠F3それぞれの被写体の顔を一部に含む顔領域をライブビュー画像W3から切出して顔画像を生成する。この場合、トリミング部93は、顔の頭部を含むように円形に切取ってもよい。さらに、トリミング部93は、顔枠の周辺におけるコントラスト変化に基づいて、被写体の頭部の輪郭を検出し、検出した輪郭に沿って切出して顔画像を生成してもよい。
【0069】
続いて、画像合成部95は、トリミング部93が生成した顔画像を、予め設定された設定画像の指定位置に合成して合成画像を生成する(ステップS211)。具体的には、図12に示すように、画像合成部95は、トリミング部93が生成した顔画像M1および顔画像M2を、画像データ記憶部81が記憶する複数の画像データから予めユーザが設定した画像データを取得し、この取得した画像データに対応する画像の指定位置である白抜き部N1および白抜き部N2に合成することによって合成画像W4を生成する。指定位置としては、表示位置検出部94が検出した顔の表示位置に対応する画像内の位置である。さらに、表示制御部96は、指定位置を含む領域を識別可能な表示態様、たとえば白くくり抜いた白抜き部N1および白抜き部N2で表示する。これにより、合成される顔画像M1および顔画像M2の周辺が他の画像に比して強調されるので、コラージュ手法のような画像にすることができる。なお、図12では、白抜き部N1,N2を表現するため、ハッチングを施して表現した。また、顔画像に合成する設定画像は、ユーザが予め設定する必要はなく、たとえば、画像データ記憶部81に記憶された複数の画像データのうち日付等が最新の画像データに対応する画像を設定するようにしてもよい。
【0070】
その後、表示制御部96は、画像合成部95が生成した合成画像を表示部6に表示させる(ステップS212)。具体的には、表示制御部96は、図12に示した合成画像W4を表示部6に表示させる。
【0071】
続いて、制御部9は、タッチパネル7から入力される指示信号に応じて、表示部6が表示している合成画像に含まれる顔画像の表示位置を移動させるスライド操作が行われたか否かを判断する(ステップS213)。合成画像に含まれる顔画像の表示位置を移動させるスライド操作が行われたと制御部9が判断した場合(ステップS213:Yes)、撮像装置1は、ステップS214へ移行する。一方、所定時間(3秒)内に合成画像に含まれる顔画像の表示位置を移動させるスライド操作が行われていないと制御部9が判断した場合(ステップS213:No)、撮像装置1は、図4に示したメインルーチンへ戻る。
【0072】
ステップS214において、表示制御部96は、ユーザのスライド操作の軌跡に応じて、顔画像の表示位置を移動させて表示部6に表示させる。具体的には、図13に示すように、表示制御部96は、ユーザのスライド操作に応じて(図13(a)→図13(b))、顔画像M1の表示位置を移動させて表示部6に表示させる。その後、撮像装置1は、図4に示したメインルーチンへ戻る。
【0073】
ステップS201において、顔検出部92がライブビュー画像に含まれる被写体の顔を検出していないと制御部9が判断した場合(ステップS201:No)について説明する。この場合、表示制御部96は、表示部6が表示しているライブビュー画像上に、コラージュモードを実行することができない旨の警告を表示部6に表示させる(ステップS215)。その後、撮像装置1は、図4に示したメインルーチンへ戻る。
【0074】
以上説明した本発明の実施の形態1によれば、表示制御部96が、表示部6の表示領域において予め指定された表示位置に、トリミング部93によって生成された各顔画像を表示部6に表示させる。これにより、簡易な操作で撮影時に写る所望の被写体を画像内に写すことができるとともに、コラージュ表現を用いた作風の画像を撮影することができる。
【0075】
さらに、本発明の実施の形態1によれば、被写体が混み合った状況下であっても、ユーザが所望する被写体のみを撮影することができる。
【0076】
また、本発明の実施の形態1によれば、表示制御部96が表示位置検出部93の検出結果に応じて、ライブビュー画像の白抜き部の位置を変更する。これにより、被写体が撮像装置1の視野領域において動き回る毎に、コラージュ表示による白抜き部の位置が変わるので、撮影者や被写体の工夫を面白く反映することできる。さらに、撮影者が撮影の構図を決定する際に被写体の位置に応じて直感的に表示位置を把握しながら撮影を行うことできる。
【0077】
なお、上述した実施の形態1では、撮影者が削除アイコンA11をタッチし、非表示対象とする被写体を選択していたが、たとえば顔情報記憶部83に予め所望の被写体の顔の特徴を記憶させ、この特徴に応じて表示制御部96が自動的に表示対象とする被写体の顔を選択するようにしてもよい。
【0078】
また、上述した実施の形態1では、ユーザがスライド操作で顔画像を移動させていたが、図14に示すように、表示部6が表示する合成画像W4内の顔画像M1内において、2点間の距離を引き伸ばす操作が行われた場合(図14(a)→(図14(b))、表示制御部96は、顔画像M1の縦横比を一定に維持しながら拡大して表示部6に表示させるようにしてもよい。
【0079】
(実施の形態2)
つぎに、本発明の実施の形態2について説明する。本発明の実施の形態2にかかる撮像装置は、制御部の構成が上述した撮像装置と異なる。さらに、本発明の実施の形態2にかかる撮像装置が行う動作は、コラージュモード処理が上述した実施の形態1と異なる。このため、以下においては、上述した実施の形態1と異なる構成を説明後、本発明の実施の形態2にかかる撮像装置による動作のコラージュモード処理を説明する。なお、図面の記載において、同一の部分には同一の符号を付している。
【0080】
図15は、本発明の実施の形態2にかかる撮像装置100の構成を示すブロック図である。図15に示すように、撮像装置100の制御部101は、画像処理部91と、顔検出部92と、トリミング部93と、表示位置検出部94と、画像合成部95と、表示制御部96と、背景検出部102と、を有する。
【0081】
背景検出部102は、撮像部2が生成した画像データに対応する画像から被写体の顔領域を含む人物以外の領域を背景領域として検出する。具体的には、背景検出部102は、撮像部2が生成した画像データに対応する画像を複数(たとえば9分割)の領域毎に分割し、この分割した各領域に顔検出部92によって検出された顔が含まれているか否かを判定し、顔が含まれていない領域を背景領域として検出する。
【0082】
つぎに、本実施の形態2にかかる撮像装置100が行うコラージュモード処理について説明する。図16は、本実施の形態2にかかる撮像装置100が行うコラージュモード処理(図4のステップS104)の概要を示すフローチャートである。
【0083】
図16において、顔検出部92がライブビュー画像に含まれる被写体の顔を検出したと制御部101が判断した場合(ステップS301:Yes)について説明する。この場合、制御部101は、コラージュ表示で表示対象とする被写体の選択が適用済みであるか否かを判断する(ステップS302)。コラージュ表示で表示対象とする被写体の選択が適用済みであると制御部101が判断した場合(ステップS302:Yes)、撮像装置100は、後述するステップS310へ移行する。一方、コラージュ表示で表示対象とする被写体の選択が適用済みでないと制御部101が判断した場合(ステップS302:No)、撮像装置100は、後述するステップS303へ移行する。
【0084】
ステップS303において、表示制御部96は、顔検出部92が検出した被写体の顔を一部に含む顔領域に対応する顔枠を表示部6に表示させる。
【0085】
続いて、撮像装置100は、コラージュ表示で顔画像に合成する背景画像を、ライブビュー画像上に背景枠として表示する背景枠表示処理を実行する(ステップS304)。なお、背景枠表示処理の詳細については後述する。
【0086】
ステップS305〜ステップS309は、図7で説明したステップS205〜208それぞれに対応するため、説明を省略する。
【0087】
ステップS310において、撮像装置100は、顔検出部92が検出した被写体の顔を一部に含む顔領域を切出して顔画像を生成し、この顔画像を背景画像に合成して合成画像を表示部6に表示させるコラージュ表示処理を実行する。なお、コラージュ表示処理の詳細については後述する。ステップS310の後、撮像装置100は、図4に示したメインルーチンへ戻る。
【0088】
ステップS301において、顔検出部92がライブビュー画像に含まれる被写体の顔を検出していないと制御部101が判断した場合(ステップS301:No)について説明する。この場合、表示制御部96は、表示部6が表示しているライブビュー画像上に、コラージュモードを実行することができない旨の警告を表示部6に表示させる(ステップS311)。その後、撮像装置100は、図4に示したメインルーチンへ戻る。
【0089】
つぎに、図16のステップS304の背景枠表示処理について説明する。図17は、背景枠表示処理の概要を示すフローチャートである。
【0090】
図17に示すように、背景検出部102は、ライブビュー画像の中央領域に、顔検出部92が検出した被写体の顔があるか否かを判定する(ステップS401)。
【0091】
図18は、背景検出部102が判定する背景領域の判定方法の概要を説明する図である。図18に示すように、背景検出部102は、ライブビュー画像W5を所定の領域毎、たとえば9分割し(D1〜D9)、まず、9分割の中央の領域(D1)に対して、顔検出部92が検出した被写体の顔があるか否かを判定する。図18に示す状態では、背景検出部102は、ライブビュー画像W5の中央領域D1に、二人の被写体の顔が写っているため、顔があると判定する。このように、背景検出部102は、各領域毎に顔検出部92が検出した被写体の顔があるか否かを判定する。なお、図18においては、ライブビュー画像を9分割しているが、たとえば16分割であってもよい。また、分割する領域の画素数が100万画素以上であれば、撮像素子27の画像数に応じて適宜変更できるようにしてもよい。
【0092】
ステップS401において、ライブビュー画像の中央領域に顔があると背景検出部102が判定した場合(ステップS401:Yes)、撮像装置100は、後述するステップS406へ移行する。一方、ライブビュー画像の中央領域に顔がないと背景検出部102が判定した場合(ステップS401:No)、撮像装置100は、後述するステップS402へ移行する。
【0093】
ステップS402において、背景検出部102は、ライブビュー画像W5の中央領域を背景領域として検出する。
【0094】
続いて、表示制御部96は、表示部6が表示するライブビュー画像上に、背景検出部102が検出した背景領域に対応する背景枠を表示させる(ステップS403)。具体的には、図19に示すように、表示制御部96は、表示部6が表示するライブビュー画像W5上に、背景検出部102が検出した背景領域に対応する背景枠F11を表示部6に表示させる。
【0095】
続いて、制御部101は、タッチパネル7から入力される指示信号に応じて、表示部6が表示している背景枠F11を移動させるスライド操作が行われたか否かを判断する(ステップS404)。背景枠F11を移動させるスライド操作が行われたと制御部101が判断した場合(ステップS404:Yes)、撮像装置100は、ステップS405へ移行する。一方、背景枠F11を移動させるスライド操作が行われていないと制御部101が判断した場合(ステップS404:No)、撮像装置100は、図16のコラージュモード処理へ戻る。
【0096】
ステップS405において、表示制御部96は、ユーザのスライド操作の軌跡に応じて、背景枠F11の表示移動を移動させて表示部6に表示させる。その後、撮像装置100は、図16のコラージュモード処理へ戻る。
【0097】
ステップS406において、背景検出部102は、ライブビュー画像W5の左右領域に顔検出部92が検出した顔があるか否かを判定する。具体的には、図18に示すように、ライブビュー画像W5の左右領域D2,D3に、顔検出部92が検出した被写体の顔があるか否かを判定する。ライブビュー画像の左右領域に顔検出部92が検出した顔があると背景検出部102が判定した場合(ステップS406:Yes)、撮像装置100は、後述するステップS408へ移行する。一方、ライブビュー画像の左右領域に顔検出部92が検出した顔がないと背景検出部102が判定した場合(ステップS406:No)、撮像装置100は、後述するステップS407へ移行する。
【0098】
ステップS407において、背景検出部102は、ライブビュー画像の左右領域における色変化およびコントラスト変化に基づいて、ライブビュー画像の左右領域のどちらかを背景領域として検出する。具体的には、背景検出部102は、左右領域における色変化およびコントラスト変化それぞれを比較し、変化率が大きい方を背景領域として検出する。その後、撮像装置100は、ステップS403へ移行する。
【0099】
ステップS408において、背景検出部102は、ライブビュー画像の上領域に、顔検出部92が検出した顔があるか否かを判定する。具体的には、図18に示すように、背景検出部102は、ライブビュー画像W5の上領域D4〜D6に、顔検出部92によって検出された被写体の顔が検出されているか否かを判定する。ライブビュー画像の上領域に顔検出部92によって検出された被写体の顔があると背景検出部102が判定した場合(ステップS408:Yes)、撮像装置100は、後述するステップS410へ移行する。一方、ライブビュー画像の上領域に顔検出部92によって被写体の顔が検出されていないと背景検出部102が判定した場合(ステップS408:No)、撮像装置100は、後述するステップS409へ移行する。
【0100】
ステップS409において、背景検出部102は、ライブビュー画像の上領域における色変化およびコントラスト変化に基づいて、ライブビュー画像の上領域のいずれかを背景領域として検出する。具体的には、図18に示す状況では、背景検出部102は、上領域D6を背景領域として検出する。その後、撮像装置100は、ステップS403へ移行する。
【0101】
ステップS410において、背景検出部102は、ライブビュー画像の下領域に、顔検出部92が検出した被写体の顔があるか否かを判断する。具体的には、図18に示すように、背景検出部102は、ライブビュー画像の下領域D7〜D9に、顔検出部92によって検出された被写体の顔があるか否かを判定する。ライブビュー画像の下領域に顔検出部92によって検出された被写体の顔があると背景検出部102が判定した場合(ステップS410:Yes)、撮像装置100は、後述するステップS412へ移行する。一方、ライブビュー画像の下領域に顔検出部92によって検出された被写体の顔がないと判定した場合(ステップS410:No)、撮像装置100は、後述するステップS411へ移行する。
【0102】
ステップS411において、背景検出部102は、ライブビュー画像の下領域における色変化およびコントラスト変化に基づいて、ライブビュー画像の下領域のいずれかを背景領域として検出する。その後、撮像装置100は、ステップS403へ移行する。
【0103】
ステップS412において、表示制御部96は、表示部が表示するライブビュー画像上に、背景検出部102が背景を検出できなかったことを示す警告を表示させる。その後、撮像装置100は、図16のコラージュモード処理へ戻る。
【0104】
つぎに、図16のステップS310のコラージュ表示処理について説明する。図20は、コラージュ表示処理の概要を示すフローチャートである。
【0105】
図20に示すように、表示位置検出部94は、表示部6が表示するライブビュー画像における表示対象とする被写体の顔を含む顔の表示位置を検出する(ステップS501)。
【0106】
続いて、トリミング部93は、表示制御部96がライブビュー画像に表示している背景枠に対応する領域をライブビュー画像から切出して背景画像を生成する(ステップS502)。
【0107】
その後、表示制御部96は、トリミング部93が生成した背景画像を表示部6に全画面表示させ、(ステップS503)、表示部6が表示している背景画像に対して、表示位置検出部94によって検出された表示対象とする被写体の顔の表示位置(座標位置)を中心に含む所定の大きさの領域を、白くして抜き出した白抜き部で表示部6に表示させる(ステップS504)。
【0108】
続いて、トリミング部93は、顔検出部92が検出した顔を一部に含む顔領域に対応する顔画像を生成する(ステップS505)。
【0109】
その後、表示制御部96は、背景画像の白抜き部の表示位置に、トリミング部93が生成した顔画像を画像合成部95に合成させた合成画像を表示部6に表示させる(ステップS506)。具体的には、図21に示すように、表示制御部96は、画像合成部95が背景画像の白抜き部N1および白抜き部N2それぞれに顔画像M1およびM2を合成した合成画像W6を表示部6に表示させる。この際、表示制御部96は、合成画像W6上に、複数の顔画像それぞれを等間隔に整列させて表示させる指示信号の入力を受け付ける整列アイコンA21を表示部6に表示させる。
【0110】
続いて、制御部101は、整列アイコンA21がタッチされたか否かを判断する(ステップS507)。具体的には、制御部101は、タッチパネル7がタッチされることにより、タッチパネル7から入力される指示信号に応じて、整列アイコンA21がタッチされたか否かを判断する。整列アイコンA21がタッチされたと制御部101が判定した場合(ステップS507:Yes)、撮像装置100は、後述するステップS508へ移行する。一方、所定時間(たとえば2秒)内に整列アイコンA21がタッチされていないと制御部101が判断した場合(ステップS507:No)、撮像装置100は、後述するステップS510へ移行する。
【0111】
ステップS508において、表示制御部96は、複数の顔画像それぞれを背景画像上において等間隔に表示されるように整列して表示部6に表示させ、顔画像の大きさをどちらか一方の大きさに統一して表示部6に表示させる(ステップS509)。たとえば、図22に示すように、表示制御部96は、顔画像が2つの場合、表示部6の表示領域の表示領域において均等に配置されるように各顔画像を配置する。具体的には、表示制御部96は、表示部6の表示領域において縦方向と横方向との表示間隔が同じになるように各画像を表示する。さらに、表示制御部96は、顔画像の大きさが大きい方(M1)に合わせて、他方の顔画像(M2)の大きさを拡大して表示部6に表示させる。
【0112】
続いて、制御部101は、タッチパネル7から入力される指示信号に応じて、表示部6が表示している合成画像に含まれる顔画像の表示位置を移動させるスライド操作が行われたか否かを判断する(ステップS510)。合成画像に含まれる顔画像の表示位置を移動させるスライド操作が行われたと制御部101が判断した場合(ステップS510:Yes)、撮像装置100は、後述するステップS511へ移行する。一方、所定時間(3秒)内に合成画像に含まれる顔画像の表示位置を移動させるスライド操作が行われていないと制御部101が判断した場合(ステップS510:No)、撮像装置100は、図13のコラージュモード処理へ戻る。
【0113】
ステップS511において、表示制御部96は、ユーザのスライド操作の軌跡に応じて、顔画像の表示位置を移動させて表示部6に表示させる。その後、撮像装置100は、図13のコラージュモード処理へ戻る。
【0114】
以上説明した本発明の実施の形態2によれば、背景検出部102が表示部6によって表示されているライブビュー画像から表示対象とする被写体の顔を含まない領域を背景領域として検出し、トリミング部93が背景検出部102によって検出された背景領域およびユーザによって選択された表示対象とする顔領域をそれぞれライブビュー画像から切出して背景画像および顔画像を生成し、画像合成部95が背景画像の指定画像に顔画像を合成して合成画像を生成し、表示制御部96が画像合成部95によって生成された合成画像を表示部6に表示させる。これにより、撮影時にいた複数の人物の中から所定する人物のみを写しこめた画像を撮影することができる。
【0115】
(実施の形態3)
つぎに、本発明の実施の形態3について説明する。本発明の実施の形態3にかかる撮像装置は、背面側に撮影者を撮影する背面撮像部を備える。さらに、本発明の実施の形態3にかかる撮像装置が行う動作は、コラージュモード処理が上述した実施の形態と異なる。このため、以下においては、上述した実施の形態と異なる構成を説明後、本発明の実施の形態3にかかる撮像装置による動作のコラージュモード処理を説明する。なお、図面の記載において、同一の部分には同一の符号を付している。
【0116】
図23は、本発明の実施の形態3にかかる撮像装置200の撮影者に面する側(背面側)の構成を示す斜視図である。図24は、本発明の実施の形態3にかかる撮像装置200の構成を示すブロック図である。
【0117】
図23〜図24に示すように、撮像装置200は、背面撮像部201をさらに備える。背面撮像部201は、撮像部2と同一の構成によって実現され、レンズ部21と、レンズ駆動部22と、絞り23と、絞り駆動部24と、シャッタ25と、シャッタ駆動部26と、撮像素子27と、撮像駆動部28と、信号処理部29と、を有する。背面撮像部201は、背面側の視野領域から光を集光して光電変換を行うことによって背面画像データを生成する。
【0118】
つぎに、本実施の形態3にかかる撮像装置200が行うコラージュモード処理について説明する。図25は、本実施の形態3にかかる撮像装置200が行うコラージュモード処理(図4のステップS104)の概要を示すフローチャートである。
【0119】
図25において、撮像装置200は、制御部101の制御のもと、背面撮像部201を駆動することにより、撮像装置200の背面を撮影する(ステップS601)。
【0120】
図26は、撮影者が撮像装置200を用いて撮影する際の状況を示す図である。図27は、図26に示す状況下で表示部6が時系列に沿って順次表示するライブビュー画像のうち代表的な一枚の画像を示す。図26および図27に示すように、撮影者K1は、たとえば図27のようなライブビュー画像W8を見ながら被写体K2(お母さん)被写体K3(子供)を撮影する際の構図を決定する。さらに、背面撮像部201は、撮影者K1(お父さん)を含む背面側を撮影する。
【0121】
続いて、制御部101は、顔検出部92が背面画像の中央領域付近で被写体である撮影者の顔を検出したか否かを判断する(ステップS602)。顔検出部92が背面画像の中央領域(正面)付近で被写体である撮影者の顔を検出したと制御部101が判断した場合(ステップS602:Yes)、撮像装置200は、後述するステップS603へ移行する。一方、顔検出部92が背面画像の中央領域付近で被写体である撮影者の顔を検出していないと制御部101が判断した場合(ステップS602:No)、撮像装置200は、後述するステップS614へ移行する。
【0122】
ステップS603において、制御部101は、顔検出部92が背面画像から検出した撮影者の顔を一部に含む顔領域を顔枠の大きさを設定する。具体的には、制御部101は、顔検出部92が背面画像から検出した撮影者の顔を一部に含む顔領域に対応する顔枠の大きさを、背面画像を9等分にした際の中央領域の大きさに設定する。
【0123】
続いて、撮像装置200は、コラージュ表示で台紙として用いる背景画像の背景枠をライブビュー画像に表示する上述した背景枠表示処理(図17を参照)を実行する(ステップS604)。
【0124】
その後、制御部101は、撮影者の顔を表示する表示位置が指定されているか否かを判断する(ステップS605)。撮影者の顔を表示する表示位置が指定されていると制御部101が判断した場合(ステップS605:Yes)、撮像装置200は、後述するステップS615へ移行する。一方、撮像者の顔を表示する表示位置が指定されていないと制御部101が判断した場合(ステップS605;No)、撮像装置200は、後述するステップS606へ移行する。
【0125】
ステップS606において、撮像装置200は、背面画像に写る撮影者の位置に応じて、ライブビュー画像上に撮影者の顔枠の表示位置を設定する撮影者顔枠表示処理を実行する。
【0126】
図28は、図25のステップS606の撮影者顔枠表示処理の概要を示すフローチャートである。
【0127】
図28に示すように、表示位置検出部94は、背景画像における撮影者の顔の位置を検出する(ステップS701)。
【0128】
続いて、表示制御部96は、表示位置検出部94によって検出された背面画像における撮影者の顔の位置に応じて、表示部6が表示するライブビュー画像上に白抜き部を表示部6に表示させる(ステップS702)。その後、撮像装置200は、図25のコラージュモード処理へ戻る。
【0129】
図29は、表示制御部96がライブビュー画像上の白抜き部に撮影者の顔画像を表示させる際の表示方法を模式的に説明する図であり、撮影者が背面撮像部201の光軸L2に対して左寄りに位置する状況を示す。図30は、表示制御部96がライブビュー画像上の白抜き部に撮影者の顔画像を表示させる際の表示方法を模式的に説明する図であり、撮影者が背面撮像部201の光軸L2に対して右寄りに位置する状況を示す。また、図29および図30において、背面撮像部201の撮影領域を201aとする。
【0130】
図29(d)および図30(d)に示すように、本実施の形態3では、表示制御部96は、表示部6に対して、背面画像201aに写る撮影者の位置に対応したライブビュー画像の位置に白抜き部を表示させるとともに、白抜き部に合成する撮影者の顔画像を反転させて表示部6に表示させる(図29(d),図30(d))。これにより、図32および図33に示すように、撮影者は、ライブビュー画像の色抜き部を見ながら、撮像装置200の位置を調整することで、撮影者自身が画像に写りこめる位置を調整することができる。これに対して、図29(a)および図30(a)に示すように、従来の撮像装置は、背面撮像部201で撮影した画像を表示部6に表示する場合、撮影者K1に対して撮影した画像を認識し易くするため、前面側の撮像部2で撮影した画像の位置で表されるように撮影者K1の位置を反転(座標変換)させて表示させる(図29(b)→図29(c),図30(b)→図30(c))。また、図31に示すように、単に、背面画像に写る撮影者の顔の位置に応じて、前面側で撮影される画像に撮影者の顔画像を合成しても、撮影者の顔が左右逆(図31(b)になるため、前面側の撮像部2で撮影した画像に合成する際に不自然な状態で合成されてしまう場合があった。
【0131】
ここで、表示制御部96が表示部6に表示させるライブビュー画像上の白抜き部の位置について説明する。具体的には、図29(c)において、背面画像201aの左下を原点P1とし、背面画像201aの横方向をX軸とし、背面画像201aの縦方向をY軸とする座標系として考える。また、図29(d)において、表示部6の左下を原点P11として、表示部6の横方向をX軸とし、表示部6の縦方向をY軸とする座標系として考える。
【0132】
図29(c)および図29(d)に示すように、表示制御部96は、背面画像201aの右下の点P2の座標を(X1,0)、背面画像201aにおける撮影者K1の点P3の座標を(Xf,Yf)、表示部6の右下の点P12の座標を(X2,0)、表示部6における撮影者K1の点P13の座標を(Xa,Ya)としたとき、以下の式によって表示部6における撮影者K1の点P13の座標が算出される。
a:X2=X1−Xf:X1 ・・・(1)
したがって、
a=(X1−Xf)X2/X1 ・・・(2)
になる。同様に、背面画像201aの左上の点P4の座標を(0,Y)、表示部6の左上の点P14の座標を(0,Y2)、としたとき
a:Y2=Yf:Y ・・・(3)
したがって、
a=Y2f/Y ・・・(4)
になる。このように、表示制御部96は、式(2)および式(4)を用いて、表示部6における撮影者K1の座標を算出し、この算出した座標を一部に含む領域を白抜き部として
表示部6が表示するライブビュー画像上に表示させる。なお、表示制御部96は、座標変換等を行わず、単に背面画像201aにおける撮影者の顔の位置に応じて、白抜き部を表示部6が表示するライブビュー画像上に表示させてもよい。
【0133】
図25に戻り、ステップS607以降の説明を続ける。ステップS607において、制御部101は、姿勢検出部3の検出結果に基づいて、撮像装置1の光軸L2が水平であるか否かを判断する。撮像装置200の光軸L1および光軸L2が水平状態である場合(ステップS607:Yes)、撮像装置200は、後述するステップS608へ移行する。一方、撮像装置200の光軸L1および光軸L2が水平状態でない場合(ステップS607:No)、撮像装置200は、後述するステップS616へ移行する。
【0134】
ここで、水平状態を判断する理由について説明する。図34に示すように、撮影者の顔画像M11を合成する場合、撮影者の顔画像M11の位置を背面撮像部201で得られた顔の高さと撮像部2に写る被写体の顔の高さとの関係を反映した状態で合成すること好ましい。たとえば、撮影者であるお父さんK1の顔の表示位置が子供のK3の顔の表示位置より低くなると不自然である。このため、図35に示すように、制御部101は、姿勢検出部3の検出結果に基づいて、撮像装置200の光軸L1およびL2が水平状態であるか否かを判断する。
【0135】
ステップS608において、制御部101は、顔検出部92によって背面画像から撮影者の顔が検出されているか否かを判断する。顔検出部92によって背面画像から撮影者の顔が検出されていると制御部101が判断した場合(ステップS608:Yes)、撮像装置200は、後述するステップS609へ移行する。一方、顔検出部92によって背面画像から撮影者の顔が検出されていないと制御部101が判断した場合(ステップS608:No)、撮像装置200は、後述するステップS617へ移行する。
【0136】
ステップS609において、画像合成部95は、トリミング部93が生成した撮影者の顔画像の左右を反転させてライブビュー画像上の白抜き部に合成して合成画像を生成する。
【0137】
続いて、表示制御部96は、画像合成部95がライブビュー画像上の白抜き部に撮影者の顔画像の左右を反転させて合成した合成画像を表示部6に表示させる(ステップS610)。
【0138】
続いて、制御部101は、タッチパネル7から入力される指示信号に応じて、適用アイコンA12が選択されたか否かを判断する(ステップS611)。適用アイコンA12が選択されたと制御部101が判断した場合(ステップS611:Yes)、撮像装置200は、上述したコラージュ表示処理(図20を参照)を実行する(ステップS612)。この際、図36に示すように、表示制御部96は、コラージュ表示処理を行った画像W20を表示部6に表示させる。これにより、家族撮影を行う際に家族M12,M13と一緒にお父さんM11も写り込んだ家族写真を撮影することができ、再生する場合に撮影時の思い出を共有することができる。
【0139】
その後、制御部101は、タッチパネル7から入力される指示信号に応じて、コラージュ表示解除アイコン(図示せず)が選択されたか否かを判断する(ステップS613)。コラージュ表示解除アイコンが選択されたと制御部101が判断した場合(ステップS613:Yes)、撮像装置200は、ステップS607へ戻る。一方、所定時間(たとえば2秒)以内にコラージュ表示解除アイコンが選択されていない場合(ステップS613:No)、撮像装置200は、図4のメインルーチンへ戻る。
【0140】
ステップS611において、所定時間(たとえば3秒)内に適用アイコンA12が選択されていないと制御部101が判断した場合(ステップS611:No)、撮像装置200は、図4のメインルーチンへ戻る。
【0141】
ステップS614において、制御部101は、顔検出部92が背面画像から検出した撮影者の顔領域に基づいて、表示部6が表示するライブビュー画像上の顔枠の大きさを設定する。その後、撮像装置200は、ステップS605へ移行する。
【0142】
ステップS615において、表示制御部96は、表示部6が表示するライブビュー画像上において、ユーザによって予め指定された表示位置に撮影者の顔枠を表示部6に表示させる。その後、撮像装置200は、ステップS607へ移行する。
【0143】
ステップS616において、制御部101は、表示部6が表示するライブビュー画像上において、撮影者の顔枠の表示位置が指定されているか否かを判断する。撮影者の顔枠の表示位置が指定されていると制御部101が判断した場合(ステップS616:Yes)、撮像装置200は、ステップS608へ移行する。一方、撮影者の顔枠の表示位置が指定されていないと制御部101が判断した場合(ステップS616:No)、撮像装置200は、ステップS617へ移行する。
【0144】
ステップS617において、表示制御部96は、撮影者の顔を合成することができない旨の警告を表示部6に表示させる。その後、撮像装置200は、図4のメインルーチンへ戻る。
【0145】
以上説明した本発明の実施の形態3によれば、撮影者を撮影する背面撮像部201を設け、背面撮像部201が生成した背面画像に写る撮影者の顔画像を、撮像部2によって生成された画像に合成して表示部6に表示させる。これにより、撮影者が撮影時の同じ構図内に入れなくても、仮想的に入れるので、たとえば家族写真のように、撮影時の思い出を共有することができる画像を撮影することができる。
【0146】
なお、上述した実施の形態3では、撮像装置200の背面に背面撮像部201を設けていたが、たとえば、撮像装置200の側面に設けてもよい。
【0147】
また、上述した実施の形態3では、撮像装置200の前面および背面それぞれに撮像部2および背面撮像部201を設けていたが、撮像装置200の両側面それぞれに撮像部をさらに設けてもよい。
【0148】
(その他の実施の形態)
【0149】
また、上述した実施の形態では、特許請求の範囲、明細書および図面中の動作フローに関して、便宜上「まず、」や「つぎに、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
【0150】
また、上述した実施の形態では、撮像装置としてデジタルカメラとして説明していたが、たとえばデジタル一眼レフカメラ、デジタルビデオカメラおよび2つの撮影機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。
【符号の説明】
【0151】
1,100,200 撮像装置
2 撮像部
3 姿勢検出部
4 タイマー
5 操作入力部
6 表示部
7 タッチパネル
8 記憶部
9,101 制御部
21 レンズ部
22 レンズ駆動部
23 絞り
24 絞り駆動部
25 シャッタ
26 シャッタ駆動部
27 撮像素子
28 撮像駆動部
29 信号処理部
51 電源スイッチ
52 レリーズスイッチ
53 撮影モード切換スイッチ
81 画像データ記憶部
82 プログラム記憶部
83 顔情報記憶部
91 画像処理部
92 顔検出部
93 トリミング部
94 表示位置検出部
95 画像合成部
96 表示制御部
101 背景検出部
201 背面撮像部

【特許請求の範囲】
【請求項1】
被写体を撮像して該被写体の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応するライブビュー画像を生成順に表示する表示部と、を備えた撮像装置であって、
前記ライブビュー画像に含まれる被写体の顔を検出する顔検出部と、
前記顔検出部が検出した前記被写体の顔を含む顔領域を、前記ライブビュー画像から切出して顔画像を生成するトリミング部と、
前記表示部の表示領域において指定された表示位置に、前記トリミング部が生成した前記顔画像を表示させる表示制御部と、
を備えたことを特徴とする撮像装置。
【請求項2】
前記顔検出部によって検出された前記被写体の顔の前記ライブビュー画像上における表示位置を検出する表示位置検出部をさらに備え、
前記表示制御部は、前記表示位置検出部が検出した表示位置に対応する前記表示領域に、前記顔画像を表示させることを特徴とする請求項1に記載の撮像装置。
【請求項3】
前記表示部が表示している前記顔画像の表示位置を、前記表示領域内において移動させる指示信号の入力を受け付ける入力部をさらに備え、
前記表示制御部は、前記入力部が入力を受け付けた前記指示信号に応じて、前記顔画像を移動させて前記表示部に表示させることを特徴とする請求項1または2に記載の撮像装置。
【請求項4】
前記入力部は、前記顔画像の大きさの変更を指示する変更指示信号の入力をさらに受け付け可能であり、
前記表示制御部は、前記入力部が受け付けた前記変更指示信号に応じて、前記顔画像の大きさを変更して前記表示部に表示させることを特徴とする請求項3に記載の撮像装置。
【請求項5】
前記顔検出部は、前記ライブビュー画像に含まれる複数の被写体の顔を検出可能であり、
前記入力部は、前記顔検出部が検出した前記複数の顔の中から表示対象とする顔の選択する選択信号の入力をさらに受け付け可能であることを特徴とする請求項3または4に記載の撮像装置。
【請求項6】
前記トリミング部が生成した前記顔画像を、予め設定された設定画像の前記表示位置に合成して合成画像を生成する画像合成部をさらに備え、
前記表示制御部は、前記画像合成部が生成した前記合成画像を前記表示部に表示させることを特徴とする請求項1〜5のいずれか一つに記載の撮像装置。
【請求項7】
前記顔領域を含む前記被写体以外の領域を背景領域として検出する背景領域検出部をさらに備え、
前記トリミング部は、前記背景領域検出部が検出した前記背景領域を前記画像から切出して背景画像を生成し、
前記画像合成部は、前記背景画像を前記設定画像として前記顔画像に合成することを特徴とする請求項6に記載の撮像装置。
【請求項8】
前記撮像部と異なる位置に設けられ、所定の視野領域から光を集光して光電変換を行うことによって第2の画像データを生成する第2の撮像部をさらに備え、
前記顔検出部は、前記第2の画像データに対応する第2の画像に含まれる被写体の顔を検出し、
前記トリミング部は、前記顔検出部が前記第2の画像から検出した顔を含む顔領域を前記第2の画像から切出して第2の顔画像を生成し、
前記画像合成部は、前記第2の顔画像を前記背景画像に合成することを特徴とする請求項7に記載の撮像装置。
【請求項9】
前記画像合成部は、前記第2の顔画像の表示位置を左右反転にして前記背景画像に合成することを特徴とする請求項8に記載の撮像装置。
【請求項10】
当該撮像装置の姿勢を検出する姿勢検出部をさらに備え、
前記画像合成部は、前記姿勢検出部の検出結果に応じて、前記第2の顔画像を前記背景画像に合成することを特徴とする請求項9に記載の撮像装置。
【請求項11】
前記表示制御部は、前記表示位置検出部が検出した表示位置に対応する前記表示領域を識別可能な表示態様で表示させることを特徴とする請求項10に記載の撮像装置。
【請求項12】
被写体を撮像して該被写体の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応するライブビュー画像を生成順に表示する表示部と、を備えた撮像装置が撮影時に実行する表示方法であって、
前記ライブビュー画像に含まれる被写体の顔を検出する顔検出ステップと、
前記顔検出ステップが検出した前記被写体の顔を含む顔領域を、前記ライブビュー画像から切出して顔画像を生成するトリミングステップと、
前記表示部の表示領域において指定された表示位置に、前記トリミングステップが生成した前記顔画像を表示させる表示制御ステップと、
を含むことを特徴とする表示方法。
【請求項13】
被写体を撮像して該被写体の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応するライブビュー画像を生成順に表示する表示部と、を備えた撮像装置の撮影時に実行するプログラムであって、
前記ライブビュー画像に含まれる被写体の顔を検出する顔検出ステップと、
前記顔検出ステップが検出した前記被写体の顔を含む顔領域を、前記ライブビュー画像から切出して顔画像を生成するトリミングステップと、
前記表示部の表示領域において指定された表示位置に、前記トリミングステップが生成した前記顔画像を表示させる表示制御ステップと、
を実行させることを特徴とするプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate

【図31】
image rotate

【図32】
image rotate

【図33】
image rotate

【図34】
image rotate

【図35】
image rotate

【図36】
image rotate


【公開番号】特開2012−249175(P2012−249175A)
【公開日】平成24年12月13日(2012.12.13)
【国際特許分類】
【出願番号】特願2011−120796(P2011−120796)
【出願日】平成23年5月30日(2011.5.30)
【出願人】(504371974)オリンパスイメージング株式会社 (2,647)
【Fターム(参考)】