説明

電子カメラ

【課題】
従来、発音してペットなどの顔をカメラの方に向けさせる場合、どのような音が最適かわからないという問題があった。
【解決手段】
本発明では、被写体画像を撮像する撮像手段と、前記撮像手段に撮像指示を与える操作手段と、前記撮像手段が撮像する画像から顔を検出する顔検出手段と、予め登録された複数種類の音を発生する発音手段と、前記発音手段が音を発生してから前記顔検出手段で顔を検出するまでの時間を測定する時間測定手段と、前記時間測定手段により測定された時間を前記音の種類に対応させて保存する保存手段と、前記保存手段に保存された時間が最小となる音の種類を判別する判別手段とを有し、前記発音手段は、本撮影時に前記判別手段が判別した種類の音を発生させることを特徴とする。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、電子カメラに関する。
【背景技術】
【0002】
従来、ペットなどの動物を撮影する場合、撮影者の意思に反して、カメラの方に顔を向けないことが多い。そのため、ペットを振り向かせるための音をカメラで発音して、ペットがカメラの方に顔を向けたときに撮影するカメラが提案されている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2002−107807号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところが、ペットを振り向かせるのに最適な音がペットの種類や個体により異なり、どの音が最適であるかわからないという問題がある。例えば同じ種類のペットの声(たとえば犬の吠える声)をカメラで発音しても、その音で犬がカメラの方を向くとは限らず、逆にカメラから逃げてしまう場合もある。
【0005】
本発明の目的は、撮影するペットをカメラの方に振り向かせるのに最適な音を発音することができる電子カメラを提供することである。
【課題を解決するための手段】
【0006】
本発明に係る電子カメラは、被写体画像を撮像する撮像手段と、前記撮像手段に撮像指示を与える操作手段と、前記撮像手段が撮像する画像から顔を検出する顔検出手段と、予め登録された複数種類の音を発生する発音手段と、前記発音手段が音を発生してから前記顔検出手段で顔を検出するまでの時間を測定する時間測定手段と、前記時間測定手段により測定された時間を前記音の種類に対応させて保存する保存手段と、前記保存手段に保存された時間が最小となる音の種類を判別する判別手段とを有し、前記発音手段は、本撮影時に前記判別手段が判別した種類の音を発生させることを特徴とする。
【発明の効果】
【0007】
本発明に係る電子カメラは、撮影するペットを振り向かせるのに最適な音を発音することができる。
【図面の簡単な説明】
【0008】
【図1】本実施形態に係る電子カメラ101の構成例を示す図である。
【図2】電子カメラ101の「ペット撮影モード」の処理を示すフローチャートである。
【図3】音選択処理を示すフローチャートである。
【図4】変形例1および変形例2に係る電子カメラ101aの構成例を示す図である。
【図5】変形例1の「ペット撮影モード」の処理を示すフローチャートである。
【図6】変形例1の音選択処理を示すフローチャートである。
【図7】時間計測例を示す図である。
【図8】個体識別例を示す図である。
【発明を実施するための形態】
【0009】
以下、本発明に係る電子カメラの実施形態について図面を用いて詳しく説明する。
【0010】
図1は、本実施形態に係る電子カメラ101の構成例を示す図である。図1において、電子カメラ101は、レンズ102と、撮像部103と、画像バッファ104と、CPU105と、表示部106と、操作部107と、音発生部108と、スピーカ109と、メモリ110と、時計部111と、メモリカードIF(インターフェース)112と、共通バス113とで構成される。
【0011】
レンズ102は、入射される被写体光を撮像部103の受光面に結像する。尚、図には示していないが、レンズ102はフォーカスレンズおよびフォーカスレンズ位置の駆動機構を有し、CPU105によりフォーカスレンズ位置が制御される。
【0012】
撮像部103は、例えばCMOS型固体撮像素子で構成され、受光面に行列状に配置された画素のフォトダイオードにより受光量に応じた電気信号に変換する。そして、各画素毎に出力されるアナログの電気信号をA/D変換して、デジタルの画像データを出力する。尚、本実施形態に係る電子カメラ101では、CPU105により撮像部103の露光時間を制御する電子シャッタ方式を用いるものとするが、メカニカルシャッタを設けてもよい。尚、CPU105による自動露出(AE)制御は、撮像部103で撮像しているライブビュー画像から測光を行うものとするが、専用の測光部を設けてもよい。また、AF制御についても、撮像部103で撮像しているライブビュー画像からフォーカス制御を行うものとするが、専用のAF部を設けてもよい。
【0013】
画像バッファ104は、撮像部103から出力される画像データを一時的に記憶するためのバッファである。
【0014】
CPU105は、中央演算処理部で内部に予め記憶されたプログラムに従って動作し、操作部107から出力される操作情報に応じて、電子カメラ101の各部を制御する。
【0015】
表示部106は、液晶モニタなどで構成され、CPU105により、メニュー画面、メッセージ情報、ライブビュー画像、撮影画像などが表示される。
【0016】
操作部107は、電源ボタン107a、レリーズボタン107b、撮影モード選択ダイヤル107c、メニューボタン107d、十字キー107eなどの操作ボタンやスイッチで構成され、各操作情報はCPU105に出力される。
【0017】
音発生部108は、共通バス113を介して入力する音声データをアナログの音声信号にD/A変換し、アンプで音量を調節してスピーカ109を駆動する。
【0018】
スピーカ109は、音発生部108が出力する音声信号を空気振動に変換し、音声データに応じた音を発生する。ここで、説明がわかり易いように、スピーカ109を別に設けたが、音発生部108にスピーカの機能を含めてもよい。
【0019】
メモリ110は、電子カメラ101の動作に必要なパラメータが記憶されている。特に本実施形態に係る電子カメラ101では、音発生部108およびスピーカ109から発音する音声データや撮影画像から顔を検出するための顔情報などが予め記憶されている。また、スピーカ109で発音してから顔検出するまでの測定時間が記憶される。
【0020】
時計部111は、時刻情報を出力する。そして、CPU105は時計部111が出力する時刻情報を用いて、スピーカ109で発音してから顔検出するまでの時間を計測する。
【0021】
メモリカードIF112は、メモリカード112aを接続するためのインターフェースで、メモリカード112aに画像データを書き込んだり、メモリカード112aに記憶されている撮影済みの画像データを読み出すことができる。
【0022】
共通バス113は、各ブロック間で画像データや制御コマンドなどを入出力するためのバスである。
【0023】
ここで、本実施形態に係る電子カメラ101は、撮影モード選択ダイヤル107cにより「通常撮影モード」と「ペット撮影モード」とを選択できるようになっている。「通常撮影モード」では、一般的なカメラと同じようにレリーズボタン107bを押下した時に撮像部103で撮影した画像をメモリカード112aに記録する。「ペット撮影モード」では、撮影時にスピーカ109から音を発してペットや乳幼児などの気を惹くことにより、電子カメラ101の方に顔を向けさせて撮影することができる。
【0024】
また、「ペット撮影モード」では、さらに「時間測定撮影モード」と「本撮影モード」とを選択する。尚、本実施形態では、撮影モード選択ダイヤル107cによって「時間測定撮影モード」と「本撮影モード」とを選択するようにしたが、専用のスイッチを設けても構わない。
【0025】
「時間測定撮影モード」では、メモリ110に予め記憶された複数の異なる種類の音データを順番に読み出して音発生部108およびスピーカ109から発音し、撮像部103からリアルタイムで画像バッファ104に取り込まれるライブビュー画像の画像データからペットなどの顔を検出するまでの時間を計測し、音の種類別にメモリ110に保存するための撮影モードである。ここで、撮像部103からリアルタイムで画像バッファ104に取り込まれる画像データは、動画撮影やライブビュー撮影のように、例えば30フレーム/秒で撮影される画像である。尚、計測される時間は、フレームレート単位の離散値なので、時間を計測するのではなく、発音から顔検出までのフレーム数をカウントして保存するようにしてもよい。また、ペットや乳幼児などの顔検出は、周知の技術を用いることができ、例えば顔の形状や目鼻口の配置などの特徴量により、検出可能である。ここでの説明では、一般的な顔検出で個体識別は行わない。
【0026】
さらに、本実施形態では、「時間測定撮影モード」でレリーズボタン107bを半押し状態にする毎に、発音から顔検出までの時間を計測してメモリ110に保存する。そして、半押し状態のレリーズボタン107bを全押しすると、撮像部103で撮像した画像をメモリカード112aに記録する。
【0027】
尚、レリーズボタン112bの半押し状態と半押し解除を繰り返すことにより、静止画撮影を行うことなく、メモリ110に予め記憶された複数の異なる種類の音データを順番に読み出してスピーカ109から発音し、顔検出するまでの時間を計測してメモリ110に保存することができる。この場合、CPU105は、レリーズボタン112bの半押し状態と半押し解除を繰り返す毎に、メモリ110に記憶された複数の異なる種類の音データを順番に読み出すように制御する。これにより、様々な種類の音を発音することができ、音の種類別に顔検出するまでの時間を計測できる。
【0028】
[CPU105の処理]
次に、CPU105の処理について詳しく説明する。CPU105は、先に説明したように、操作部107から出力される操作情報に応じて、電子カメラ101の各部を制御する。特に本実施形態では、「ペット撮影モード」に関係するCPU105の処理として、発音処理201と、顔検出処理202と、時間測定処理203と、時間保存処理204と、音判別処理205と、撮影処理206と、記録処理207とを有する。
【0029】
発音処理201では、メモリ110に予め記憶された音データを読み出して音発生部108に設定し、スピーカ109から発音する処理を行う。
【0030】
顔検出処理202では、撮像部103で撮像され画像バッファ104にリアルタイムで取り込まれる画像からペットなどの顔を検出する処理を行う。尚、顔検出処理は、顔の特徴量(顔の輪郭形状、目や鼻や口の配置や形状など)によってパターンマッチングを行うなどの周知技術を用いて検出する。
【0031】
時間測定処理203では、時計部111が出力する時刻情報により、スピーカ109で発音してから顔検出するまでの時間を計測する。
【0032】
時間保存処理204では、発音処理201によりスピーカ109から発音した音の種類別に時間測定処理203で計測した時間をメモリ110に保存する。
【0033】
音判別処理205では、時間保存処理204でメモリ110に保存した音の種類の中で計測時間が最小の音を判別する処理を行う。尚、同じ種類の音に対して複数回の計測時間が保存されている場合は、平均値を求めて、他の種類の音の平均時間と比較する。また、平均時間を求める時に、特異点を排除するために最大値と最小値の計測時間を除いて平均値を求めるようにしてもよい。或いは、発音してから所定時間が経過しても顔検出できなかった場合は、他の測定時間よりも十分に大きな時間を計測時間として保存するようにしてもよい。
【0034】
撮影処理206では、「時間測定撮影モード」においては、スピーカ109で発音してから顔検出するまでの時間を計測するために、動画撮影やライブビュー撮影と同じようにリアルタイムで画像を撮影する処理を行い、顔検出処理202で顔検出するまで撮影処理を行う。そして、レリーズボタン107bが全押しされた時に静止画撮影を行う。また、「本撮影モード」においては、音判別処理205で判別された種類の音をレリーズボタン107bの半押し状態でスピーカ109から発音し、ペットが振り向いたことを表示部106で撮影者が確認してからレリーズボタン107bを全押しし、静止画撮影を行う。
【0035】
記録処理207では、撮影処理206で撮影された静止画をメモリカード112aに保存する処理を行う。或いは、ペットがカメラの方を振り向いて、顔検出処理202で顔検出したタイミングで、自動的に静止画撮影を行うようにしてもよい。
【0036】
このように、本実施形態に係る電子カメラ101は、撮影時にスピーカ109から音を発してペットや乳幼児などの気を惹くことにより、電子カメラ101の方に顔を向けさせて撮影することができる。特に「時間測定撮影モード」においては、スピーカ109で発音してから顔検出するまでの時間が最小の音を判別して、「本撮影モード」で静止画撮影する時にスピーカ109から発音するので、高い確率で電子カメラ101の方に顔を向けさせることができる。
【0037】
[ペット撮影モード]
次に、本実施形態に係る電子カメラ101の「ペット撮影モード」における動作について、図2のフローチャートを用いて説明する。尚、図2のフローチャートは、撮影者の操作に応じてCPU105の内部に予め記憶されたプログラムによって実行される処理で、操作部107の撮影モード選択ダイヤル107cで「ペット撮影モード」を選択した時の処理の流れを示している。
【0038】
尚、本実施形態に係る電子カメラ101は、撮影モード選択ダイヤル107cにより、通常のカメラと同様に「風景撮影モード」、「ポートレート撮影モード」、「スポーツ撮影モード」、「夜景撮影モード」などの撮影モードとは別に、「ペット撮影モード」が設けられている。
【0039】
また、「ペット撮影モード」の中で、更に「時間測定撮影モード」と「本撮影モード」とを選択する。「ペット撮影モード」では、レリーズボタン107bが半押しされると選択された音がスピーカ109から発音され、レリーズボタン107bを全押しされると静止画撮影を行うことができるが、スピーカ109から発音される音が時間計測のための音であるか、ペットを振り向かせるために判別した最適な音であるかが異なる。以下に「時間測定撮影モード」と「本撮影モード」の動作の違いを説明する。
【0040】
「時間測定撮影モード」では、レリーズボタン107bが半押しされる毎に様々な種類の音を順番に発音し、各音の種類別にペットが電子カメラ101の方に顔を向けるまでの時間を計測して保存する処理が行われる。尚、「時間測定撮影モード」でもレリーズボタン107bを全押しすることにより静止画の撮影を行うことができる。
【0041】
「本撮影モード」では、レリーズボタン107bが半押しされると「時間測定撮影モード」で保存した音の種類別の計測時間の中で最小の計測時間であった種類の音を発音し、レリーズボタン107bが全押しされると静止画の撮影を行う。
【0042】
以下、「ペット撮影モード」における処理を図3のフローチャートに従って説明する。尚、電子カメラ101の電源ボタン107aが押下されて電源が投入され、さらに撮影モード選択ダイヤル107cで「ペット撮影モード」が選択されて表示部106には撮像部103で撮像されるライブビュー画像が動画表示された状態にある。また、「ペット撮影モード」が選択されると、先ず「時間測定撮影モード」が自動的に選択されるものとするが、撮影するペットに対して過去に「時間測定撮影モード」が実行されている場合は撮影者がマニュアルで「本撮影モード」を選択しても構わない。
【0043】
(ステップS101)CPU105は、操作部107のレリーズボタン107bが半押しされたか否かを判別する。そして、レリーズボタン107bが半押しされるまで待機し、半押しされた場合はステップS102に進む。
【0044】
(ステップS102)CPU105は、レリーズボタン107bが半押しされると、一般的な電子カメラと同様に、撮像部103で撮像されるライブビュー画像に基づいてAE制御と、AF制御とを行う。
【0045】
(ステップS103)CPU105は、メモリ110から読み出す音データの種類を選択する処理(音選択処理)を行う。音選択処理は、サブルーチン化されており、CPU105は、スピーカ109から発音する音を選択してメモリ110から音データを読み出し、次のステップS104の処理を実行する。尚、音選択処理については後で詳しく説明する。
【0046】
(ステップS104)CPU105は、音選択処理でメモリ110から読み出された音データを音発生部108に出力し、音発生部108で音声信号に変換してスピーカ109から発音する(発音処理201)。
【0047】
(ステップS105)CPU105は、時計部111から発音した時刻を取得し、時間計測を開始する(時間測定処理203)。
【0048】
(ステップS106)CPU105は、撮像部103が撮像するライブビュー画像に対して、ペットの顔があるか否かを検出する処理を行う(顔検出処理202)。ペットの顔が未検出の場合はステップS107に進み、ペットの顔が検出された場合はステップS111に進む。ここでの顔検出は、予め決められた一般的なペットの特徴量に基づいて行われ、個体識別は行わない。
【0049】
(ステップS107)CPU105は、予め設定した所定時間が経過したか否かを判別する。例えば所定時間が1分間に設定されている場合は、発音してから1分間が経過した時にステップS115に進み、1分間が経過するまではステップS108に進む。
【0050】
(ステップS108)CPU105は、ステップS106と同じ処理を行い、ペットの顔が未検出の場合はステップS111に進み、ペットの顔が検出された場合はステップS109に進む。
【0051】
(ステップS109)CPU105は、時間計測を終了する。例えば発音してから3秒後にペットの顔を検出した場合は計測時間は3秒となる。尚、ここでは処理遅延などを無視するが、実際には顔検出の処理時間や、ライブビュー画像のフレーム間隔などにより、実際にスピーカ109から発音してペットが電子カメラ101の方を向くまでの時間とは少し異なるが、音の種類毎の計測時間に同様に誤差が含まれるので、後に説明する相対的な計測時間の比較には影響しない。
【0052】
(ステップS110)CPU105は、計測した時間を発音した音の種類に対応させてメモリ110に保存する(時間保存処理204)。
【0053】
(ステップS111)CPU105は、操作部107のレリーズボタン107bが半押し状態にあるか否かを判別する。半押し状態が維持されている場合はステップS112に進み、半押し状態が解除された場合は処理を終了する。尚、処理を終了した場合も「ペット撮影モード」にあり、ステップS101の処理が再び実行される。
【0054】
(ステップS112)CPU105は、操作部107のレリーズボタン107bが全押しされたか否かを判別する。全押しされた場合はステップS113に進み、全押しされていない場合はステップS106に戻る。
【0055】
(ステップS113)CPU105は、静止画の撮影を行う。具体的には、CPU105は、撮像部103で静止画を撮影して画像バッファ104に取り込む。尚、撮像部103は、レリーズボタン107bが全押しされるまでライブビュー画像を撮影しているので、ライブビュー画像の解像度(例えば320×240画素)から静止画の解像度(1280×960画素)に切り替えて撮像し、撮像部103から画像データを読み出して画像バッファ104に取り込む。
【0056】
(ステップS114)CPU105は、画像バッファ104に取り込まれた静止画に対して色補間処理やガンマ補正処理あるいはJPEG規格による画像圧縮処理などを施し、メモリカードIF112に装着されているメモリカード112aに記憶する。
【0057】
(ステップS115)ステップS107でタイムアウトした場合、CPU105は、計測時間を予め設定した所定値とする。ここで、所定値は、実際に計測されない時間(例えばタイムアウト時間が1分の場合は2分など)に設定する。これにより、後に説明する平均時間で比較して最適な音を判別する際に、タイムアウトした種類の音の適性度を低くすることができる。
【0058】
(ステップS116)CPU105は、ステップS110と同様に、計測した時間を発音した音の種類に対応させてメモリ110に保存する(時間保存処理204)。
【0059】
(ステップS117)CPU105は、顔検出できなかったことを示す情報を表示部106に表示して撮影者に知らせる。例えばライブビュー画像を表示している表示部106に「顔検出できませんでした」というメッセージをオーバーレイ表示することにより、撮影者にレリーズボタン107bの半押しを一旦解除することを促すことができる。
【0060】
尚、ステップS107、ステップS115からステップS117までの処理は無くても構わない。この場合、ステップS106とステップS108の間でループが形成されるが、実際には撮影者が永久に半押し状態を続けることはなく、ある程度の時間が経過すれば、撮影者はレリーズボタン107bの半押しから全押しに移行するか、半押しを解除すると考えられるからである。但し、ステップS107、ステップS115からステップS117までの処理が無い場合は、顔検出できなかったことが計測時間に反映されないので、音の種類別の計測時間の比較を公正に行えないという問題が生じる。例えば3回中で1回しか検出できなかった音Aの計測時間が2秒で、3回中で3回検出できた音Bの計測時間の平均が3秒であった場合、音Bの方が確実にペットを振り向かせることができるにも拘わらず、音Aが最適な音として判別されることになる。これに対して、ステップS107、ステップS115からステップS117までの処理を実行することにより、上記の例では音Aの平均時間は、2秒と、120秒と、120秒とを平均した約82秒となり、音Aは選択されず、確実にペットを振り向かせることができる音Bを最適な音として判別することができる。
【0061】
次に、ステップS103の音選択処理について図3のフローチャートを用いて詳しく説明する。図3のフローチャートは、スピーカ109から発音する音の種類を選択する処理を示している。尚、図3の例では、メモリ110に予め記憶されている音の種類は、音A、音Bおよび音Cの三種類である。そして、「時間測定撮影モード」で最初に選択される音は、音Aに設定されている。
【0062】
(ステップS201)CPU105は、撮影モード選択ダイヤル107cで「時間測定撮影モード」が選択されているか、「本撮影モード」が選択されているかを判別する。「時間測定撮影モード」が選択されている場合はステップS202に進み、「本撮影モード」が選択されている場合はステップS206に進む。
【0063】
(ステップS202)CPU105は、前回、レリーズボタン107bが押下された時にスピーカ109から発音した音が音A、音Bおよび音Cのいずれであるかを判別する。前回が音Aである場合はステップS203、音Bである場合はステップS204、音Cである場合はステップS205にそれぞれ進む。これは、音Aから音Cまでの全ての種類の音を順番に発音して、全ての種類の音に対してペットが電子カメラ101の方を振り向くまでの時間を計測するために行われる処理である。
【0064】
(ステップS203)CPU105は、メモリ110から音Bの音データを読み出して、音発生部108で発音できるように設定し、音選択処理を終了する。
【0065】
(ステップS204)CPU105は、メモリ110から音Cの音データを読み出して、音発生部108で発音できるように設定し、音選択処理を終了する。
【0066】
(ステップS205)CPU105は、メモリ110から音Aの音データを読み出して、音発生部108で発音できるように設定し、音選択処理を終了する。
【0067】
(ステップS206)CPU105は、「時間測定撮影モード」で音A、音Bおよび音Cのそれぞれに対応させてメモリ110に保存された計測時間を読み出す。
【0068】
(ステップS207)CPU105は、音A、音Bおよび音Cの各音の種類別に計測時間の平均時間を算出する。
【0069】
(ステップS208)CPU105は、音A、音Bおよび音Cの平均時間が最小の音を判別する。平均時間が最小の音が音Aである場合はステップS209、音Bである場合はステップS210、音Cである場合はステップS211にそれぞれ進む。
【0070】
(ステップS209)CPU105は、メモリ110から音Aの音データを読み出して、音発生部108で発音できるように設定し、音選択処理を終了する。
【0071】
(ステップS210)CPU105は、メモリ110から音Bの音データを読み出して、音発生部108で発音できるように設定し、音選択処理を終了する。
【0072】
(ステップS211)CPU105は、メモリ110から音Cの音データを読み出して、音発生部108で発音できるように設定し、音選択処理を終了する。
【0073】
このようにして、「時間測定撮影モード」の場合はメモリ110に予め記憶されている全ての種類の音を順番に選択し、「本撮影モード」の場合は「時間測定撮影モード」で計測した発音から顔検出までの時間が最小となる音を選択することができる。
【0074】
以上、説明したように、本実施形態に係る電子カメラ101は、レリーズボタン107bを半押しする毎に、予めメモリ110に登録された複数種類の音を順番に発生して、ペットの顔を検出するまでの時間を計測し、計測時間(または平均時間)が最小となる音の種類を判別することができる。そして、本撮影時に計測時間が最小となる音を発音するので、ペットの顔を電子カメラ101の方に容易に向けさせて撮影することができる。
【0075】
(変形例1)
次に、上記の実施形態に係る電子カメラ101の変形例1について説明する。上記の説明ではペットの種類については特に言及しなかったが、例えばペットとして複数の犬や猫を飼っている場合、ペットによってカメラの方を振り向かせるのに最適な音が異なることが考えられる。そこで、本変形例1に係る電子カメラ101aでは、ペットの個体別に最適な音を判別して設定することができる。例えば犬Xの場合は音A、猫Yの場合は音B、犬Zの場合は音Cのように最適な音を個体別に設定する。
【0076】
図4は、本実施形態に係る電子カメラ101aの構成例を示す図である。尚、図4において図1と同符号のブロックは同じ機能のブロックなので重複する説明は省略する。本変形例1では、個体識別のためにペットの声を識別する場合について説明するが、ペットの横顔や体型あるいは体の模様などにより個体識別を行うようにしても構わない。
【0077】
図4の電子カメラ101aでは、ペットの声を識別するために、図1の電子カメラ101に対して音入力部114とマイク115とが追加されている。また、CPU105の処理として声や横顔などの個体情報を取得してメモリ110に予め登録する処理を行う個体情報登録処理208と、メモリ110に登録された個体情報により個体識別を行う個体識別処理209とが追加されている。
【0078】
ここで、CPU105の個体情報登録処理208は、例えば操作部107のメニューボタン107dで個体情報登録メニューを選択することにより、個体情報の登録処理が開始される。本実施形態では個体情報としてペットの声を利用するので、マイク115から入力する音声信号を音入力部114で音データにA/D変換してメモリ110に登録する。この時、例えば登録処理が開始されてから入力する音データの大まかな周波数スペクトルや変化の特徴などが予め設定された範囲にあるものを自動的に判別し、その特徴量(個体識別可能な詳細な周波数スペクトルや変化の特徴)を個体情報としてメモリ110に登録するようにしてもよいし、音声波形などを表示部106に表示して撮影者が指定するようにしてもよい。
【0079】
次に、図4の電子カメラ101aにおける「ペット撮影モード」の処理について図5のフローチャートを用いて説明する。尚、図2のフローチャートと同符号の処理ステップは同じ処理を示すので重複する説明は省略する。また、電子カメラ101の電源ボタン107aが押下されて電源が投入され、さらに撮影モード選択ダイヤル107cで「ペット撮影モード」が選択されて表示部106には撮像部103で撮像されるライブビュー画像が動画表示された状態にある。
【0080】
図5では、図2で説明したステップS101の処理でレリーズボタン107bが半押しされるまで待機している間に以下の個体識別処理300を実行する。
【0081】
尚、先に説明したように、個体情報登録処理208により、事前に個体情報がメモリ110に登録されているものとする。
【0082】
(ステップS301)CPU105は、マイク115から入力する音声信号を音入力部114で音データに変換する。
【0083】
(ステップS302)CPU105は、入力した音データが一般的なペット(犬や猫)の声の特徴(大まかな周波数スペクトルや音の変化など)に類似するか否かを判別する。そして、ペットの声であると判断した場合はステップS303に進み、ペットの声ではない場合はステップS101に進んでレリーズボタン107bが半押しになるまで待機する処理を継続する。尚、本処理ステップでは個体識別は行わない。
【0084】
(ステップS303)CPU105は、ステップS301でマイク115から入力した音データと、事前にメモリ110に登録された個体別のペットの声データとを比較して、ペットの個体識別を行う。尚、ここでは、音声入力したペットの声は必ず予め登録した個体のいずれかに識別されるものとするが、実際には識別できない場合も考えられるので、この場合は個体識別できなかったものとしてステップS101に進ようにしてもよい。
【0085】
このようにして、個体識別処理300により、電子カメラ101aで撮影するペットの個体識別を行うことができる。尚、レリーズボタン107bの半押し待ちの間に複数の個体が識別される場合が考えられるが、この場合は例えば半押しタイミングに一番近い最新の識別個体のみを選択する。
【0086】
そして、ステップS101でレリーズボタン107bの半押しが検出されると次のステップS102に進み、音選択処理S103aを実行する。尚、音選択処理S103aは、図2で説明した音選択処理S103と同様に、スピーカ109から発音する音を選択する処理を行うが、本変形例ではステップS300で識別した個体別に音を選択する。尚、音選択処理S103aについては、後で詳しく説明する。
【0087】
次のステップS104からステップS109までの処理は図2の場合と同じである。そして、ステップS109で時間計測を終了すると、次のステップS110aを実行する。
【0088】
(ステップS110a)CPU105は、計測した時間を発音した音の種類に対応させてステップS300で識別した個体別にメモリ110に保存する(時間保存処理204a)。
【0089】
次のステップS111からステップS115までの処理は図2の場合と同じである。そして、次のステップS116aの処理を実行する。
【0090】
(ステップS116a)CPU105は、ステップS110aと同様に、計測した時間を発音した音の種類に対応させて個体別にメモリ110に保存する(時間保存処理204a)。
【0091】
尚、上記以外の処理については、図2と同じである。
【0092】
次に、ステップS103aの音選択処理について図6のフローチャートを用いて詳しく説明する。図6のフローチャートは、図3と同様に、スピーカ109から発音する音の種類を選択する処理を示している。尚、図3と同符号の処理ステップは同じ処理を示すので重複する説明は省略する。
【0093】
次のステップS201からステップS205までの処理は図3の場合と同じである。そして、「本撮影モード」が選択された場合はステップS201の次にステップS206aを実行する。
【0094】
(ステップS206a)CPU105は、「時間測定撮影モード」で音A、音Bおよび音Cのそれぞれに対応させて個体別にメモリ110に保存された計測時間を読み出す。この時、図5のフローチャートのステップS300で識別した個体に対応する音A、音Bおよび音Cの計測時間をメモリ110から読み出す。
【0095】
次のステップS207からステップS211までの処理は図3の場合と同じである。
【0096】
例えばメモリ110には、各個体別に、音の種類に対応させて発音から顔検出までの計測時間が保存されている。図7は、ペットXに対して、複数種類の音(音A,音Bおよび音C)別に発音してから顔検出するまでの時間を計測してメモリ110に保存された例を示している。図7において、各音は10回ずつ計測され、その平均時間は、音Aでは、二回目が0.5秒、三回目が0.8秒、・・・、10回目が0.7秒であるが、一回目が検出できなかったので60秒と記録され、平均時間は約6.7秒である。同様に、音Bの平均時間は約0.2秒、音Cの平均時間は約0.5秒である。図7の例では、ペットXを電子カメラ101の方に振り向かせるのに最適な音は音Bであると判定される。尚、ペットYおよびペットZについても同様に平均時間が求められ、例えばペットYに最適な音は音B、ペットZに最適な音は音Cのように判定される。
【0097】
このようにして、「時間測定撮影モード」の場合はメモリ110に予め記憶されている全ての種類の音を順番に選択し、「本撮影モード」の場合は「時間測定撮影モード」で計測した発音から顔検出までの時間または平均時間が最小となる音を個体別に選択することができる。
【0098】
以上、説明したように、本実施形態に係る電子カメラ101は、撮影前に個体識別を行って、レリーズボタン107bを半押しする毎に、予めメモリ110に登録された複数種類の音を順番に発生して、ペットの顔を検出するまでの時間を計測し、計測時間(または平均時間)が最小となる音の種類を個体別に判別することができる。そして、本撮影時に個体別に計測時間が最小となる音を発音して撮影することができるので、予め登録された複数のペットに対応して、撮影時にペットの顔を電子カメラ101の方に容易に向けさせることができる。
【0099】
尚、上記の変形例1では、ステップS300の個体識別処理でペットの声を識別するようにしたが、ペットの横顔や体型あるいは体の模様などにより個体識別を行うようにしても構わない。この場合、CPU105の個体情報登録処理208では、操作部107のメニューボタン107dで個体情報登録メニューが選択されると、撮像部103で撮像して画像バッファ104に取り込まれた画像から特徴量(ペットの横顔や体型あるいは体の模様など)や画像自体を個体情報としてメモリ110に登録する。
【0100】
図8は、CPU105の個体情報登録処理208でメモリ110に登録される個体別の画像例を示す図である。図8において、画像401はペットXの横顔および体型あるいは体の模様などの個体情報を取得するために撮像部103で撮像された画像例である。同様に、画像402はペットY、画像403はペットZのそれぞれの横顔および体型あるいは体の模様などの個体情報を取得するために撮像部103で撮像された画像例である。
【0101】
このようにして、事前にメモリ110に登録された個体情報を用いて、次のようにステップS300aの個体識別処理が実行される。
【0102】
(ステップS301a)CPU105は、撮像部103が撮像するライブビュー画像を画像バッファ104に取り込む。
【0103】
(ステップS302a)CPU105は、画像バッファ104に取り込まれた画像にペットが撮影されているか否かを被写体の輪郭などから大まかに判別する。そして、ペットの画像であると判断した場合はステップS303に進み、ペットの画像ではない場合はステップS101に進んでレリーズボタン107bが半押しになるまで待機する処理を継続する。尚、ここでは、ペットの個体識別は行わない。
【0104】
(ステップS303a)CPU105は、画像バッファ104に取り込まれた画像がメモリ110に事前に登録された個体情報のペットの画像に類似しているか否かを判別する。そして、最も類似している画像に対応する個体であると判断する。尚、ここでは、ステップS302aで検出した画像は必ず予め登録した個体のいずれかに識別されるものとするが、識別できなかった場合は個体識別できなかったものとしてステップS101に進んでもよい。
【0105】
このようにして、個体識別処理300aにより、電子カメラ101aで撮影するペットの個体識別を行うことができる。尚、ステップS300aの個体識別処理以外の処理は、図5および図6と同じなので重複する説明は省略する。
【0106】
このようにして、個体別に最適な音の種類を判別することができるので、本撮影時に個体別に最適な音をスピーカ109から発音することにより、撮影者はペットの顔が電子カメラ101の方を向いた時の画像を簡単に撮影することができる。例えば、先に説明した図8の例では、ステップS300aの個体識別処理で画像401によりペットXと識別された場合、ペットXに最適な音(例えば音A)をスピーカ109から発音してペットXが電子カメラ101の方を向いた時の画像404を撮影することができる。同様に、ペットYの場合は例えば音Bをスピーカ109から発音してペットYが電子カメラ101の方を向いた時の画像405を撮影することができ、ペットZの場合は例えば音Cをスピーカ109から発音してペットZが電子カメラ101の方を向いた時の画像406を撮影することができる。
【0107】
(変形例2)
次に、上記の実施形態に係る電子カメラ101の変形例2について説明する。上記の説明では音発生部108から発生する音は、予めメモリ110に記憶された複数の音の種類しか発生させることができなかったが、ペットの種類や他の動物或いは乳幼児など被写体に応じて発声させる音を追加したい場合がある。本変形例2では、撮影者が任意の音を後で追加できるようになっている。尚、先に説明した電子カメラ101aと同様の構成で、マイク115と音入力部114とを備えている。そして、CPU105の処理として、図4に示したように、音登録処理210を実行する。
【0108】
音登録処理210は、変形例1の個体情報登録処理208と同様に、例えば操作部107のメニューボタン107dで音登録メニューを選択することにより、音を登録するための処理を開始する。そして、マイク115から入力する音声信号を音入力部114で音データにA/D変換し、音発生部108で発音する新たな音データとしてメモリ110に登録する。
【0109】
このようにして、撮影者が任意の音を追加することができる。尚、追加された音が例えば音Dである場合は、図3および図6の音選択処理において、ステップS202で前回の音が音Cの場合は次の音として音Dを設定する。そして、ステップS208では音Dの計測時間を含めて平均時間が最小の音を判別し、音Dの平均時間が最小の場合は音Dを設定する。これにより、新たに追加した音Dを本撮影時に発音することができる。
【0110】
以上、各実施形態で説明してきたように、本発明に係る電子カメラ101は、ペットを撮影する際に、電子カメラ101から音を発音し、発音からペットの顔検出までの時間を測定する。特に撮影する毎に、複数の音のいずれかの音を順番に発音し、検出時間を音の種類別に保存して平均時間を求め、平均時間が最も短かった音を、そのペットに対して最適な音と判断する。また、ペットを繰り返し撮影して多数の計測時間が蓄積されることによって、最適な音を判別するときの平均時間の信頼性が向上し、そのペットにとって最適な音を決定することができる。これにより、ペットを確実にカメラの方に向けさせて撮影することができる。
【0111】
また、個体識別をすることにより、複数種類のペットや乳幼児などを撮影対象とした場合でも、撮影する個体に応じて最適な音を自動的に選択して発音するので、撮影しようとするペットや乳幼児などを確実にカメラの方に向けさせて撮影することができる。
【0112】
さらに、発音する音の種類を任意に追加できるので、ペットや乳幼児などが好む音が電子カメラ101に登録されていない場合でも対応することができ、最適な音を選択して確実にカメラの方に向けさせて撮影することができる。
【0113】
以上、本発明に係る電子カメラについて、各実施形態で例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
【符号の説明】
【0114】
101、101a・・・電子カメラ;102・・・レンズ;103・・・撮像部;104・・・画像バッファ;105、105a・・・CPU;106・・・表示部;107・・・操作部;108・・・音発生部;109・・・スピーカ;110・・・メモリ;111・・・時計部;112・・・メモリカードIF;113・・・共通バス;114・・・音入力部114;115・・・マイク;112a・・・メモリカード;201・・・発音処理;202・・・顔検出処理;203・・・時間測定処理;204、204a・・・時間保存処理;205・・・音判別処理;206・・・撮影処理;207・・・記録処理;208・・・個体情報登録処理;209・・・個体識別処理;210・・・音登録処理

【特許請求の範囲】
【請求項1】
被写体画像を撮像する撮像手段と、
前記撮像手段に撮像指示を与える操作手段と、
前記撮像手段が撮像する画像から顔を検出する顔検出手段と、
予め登録された複数種類の音を発生する発音手段と、
前記発音手段が音を発生してから前記顔検出手段で顔を検出するまでの時間を測定する時間測定手段と、
前記時間測定手段により測定された時間を前記音の種類に対応させて保存する保存手段と、
前記保存手段に保存された時間が最小となる音の種類を判別する判別手段と
を有し、
前記発音手段は、本撮影時に前記判別手段が判別した種類の音を発生させる
ことを特徴とする電子カメラ。
【請求項2】
請求項1に記載の電子カメラにおいて、
前記操作手段は、時間測定撮影モードまたは本撮影モードの選択手段を有し、
前記発音手段は、前記本撮影モードが選択されている場合には、前記判別手段が判別した種類の音を発生させ、前記時間撮影モードが選択されている場合には、前記複数種類の音を順番に発生させる
ことを特徴とする電子カメラ。
【請求項3】
請求項1または2に記載の電子カメラにおいて、
前記判別手段は、前記保存手段に保存された時間の平均時間を音の種類毎に求め、前記平均時間が最小となる音を判別する
ことを特徴とする電子カメラ。
【請求項4】
請求項3に記載の電子カメラにおいて、
前記時間測定手段は、予め設定した時間内に前記顔検出手段で顔を検出できなかった場合、他の測定時間よりも十分に大きな値を測定時間として前記保存手段に保存する
ことを特徴とする電子カメラ。
【請求項5】
請求項1から4のいずれか一項に記載の電子カメラにおいて、
撮影時に予め登録された複数の個体のいずれであるかを識別する個体識別手段を更に設け、
前記保存手段は、前記個体識別手段が識別した前記個体別に前記時間測定手段により測定された時間を前記音の種類に対応させて保存し、
前記判別手段は、前記保存手段に保存された時間が最小となる音の種類を前記個体別に判別する
ことを特徴とする電子カメラ。
【請求項6】
請求項5に記載の電子カメラにおいて、
前記個体識別手段は、撮影しようとする個体の声の特徴により個体識別を行うことを特徴とする電子カメラ。
【請求項7】
請求項5に記載の電子カメラにおいて、
前記個体識別手段は、撮影しようとする個体画像の特徴により個体識別を行うことを特徴とする電子カメラ。
【請求項8】
請求項1から7のいずれか一項に記載の電子カメラにおいて、
音を入力する音入力手段と、
前記音入力手段から入力する音を前記発音手段が発生する音の種類に追加する音登録手段と
を更に設けたことを特徴とする電子カメラ。
【請求項9】
請求項1から8のいずれか一項に記載の電子カメラにおいて、
前記操作手段は、撮影準備を指示する半押し状態と、画像を撮影して記憶媒体に保存する指示を行う全押し状態の二段階のレリーズボタンを有し、
前記レリーズボタンが半押しされる毎に、前記発音手段は前記複数種類の音を順番に発生させ、前記時間測定手段は前記発音手段が音を発生してから前記顔検出部が顔を検出するまでの時間を測定して前記保存手段に保存し、前記レリーズボタンが全押しされた場合は、前記撮像手段により撮像された画像を前記記憶媒体に保存する
ことを特徴とする電子カメラ。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2013−12901(P2013−12901A)
【公開日】平成25年1月17日(2013.1.17)
【国際特許分類】
【出願番号】特願2011−144211(P2011−144211)
【出願日】平成23年6月29日(2011.6.29)
【出願人】(000004112)株式会社ニコン (12,601)
【Fターム(参考)】