説明

撮像装置及びその追尾方法

【課題】被写体追尾中、一時的に追尾できなくなった場合、追尾可能な状態に復帰する可能性のある保持時間を適切に設定することができ、ユーザの使い勝手が向上する撮像装置を提供する。
【解決手段】撮像装置は、被写体を追尾していることを示す追尾枠の表示および消去を制御する際、撮像装置の焦点距離などに応じて、追尾枠の表示を保持する保持時間を設定する。撮像装置は、被写体を見失ってからこの設定された保持時間が経過した場合、追尾枠の表示を終了させる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、撮影された撮影画像を生成する撮像装置及びその追尾方法に関する。
【背景技術】
【0002】
従来、デジタルカメラや監視カメラを利用した監視装置において、被写体追尾を行う撮像システムが知られている。
【0003】
例えば、特許文献1には、複数の画像データから被写体の動きベクトルを計算し、被写体の動きを追尾してカメラを回転させるシステムが開示されている。このシステムは、ズームの位置が望遠である場合にカメラの回転速度を速やかにし、広角である場合にゆるくして被写体を効果的に追跡して撮影する。
【0004】
また、特許文献2には、肌色領域の検出を行い、検出された領域を追尾枠としてWB(ホワイトバランス)や露出を制御することで、ホワイトバランスや露出制御の性能を最適に向上させることが示されている。
【0005】
このように、被写体追尾システムや、被写体追尾機能を利用したホワイトバランスや露出制御を行う装置など、さまざまな応用例が提案されている。
【0006】
これらの追尾方法として、動きベクトルを計算するフレーム画像データ間の相関を用いた追尾方法、画像特徴量を基に行われる被写体追尾方法などが一般的である。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開平06−054326号公報
【特許文献2】特開2007−104200号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかしながら、上記従来の撮像装置では、以下に掲げる問題があった。すなわち、上記追尾方法として、画像データの相関を用いて追尾する方法では、たとえば、主要被写体の前を別の移動物体が横切った場合、主要被写体の画像データの相関が低くなり、横切った被写体に追尾してしまう可能性が高かった。
【0009】
また、色味などの画像特徴量による主要被写体の追尾方法では、似通った被写体が主要被写体の周りに存在している場合、主要被写体を追尾し続けることが難しかった。
【0010】
さらに、これらの手法を組み合わせた追尾方法においても、同様に個々の手法で苦手な条件が重なった場合において、被写体追尾を継続することが難しかった。
【0011】
また、特許文献2には、被写体追尾を終了させる条件として、角速度センサおよびAF(オートフォーカス)の情報を用いて被写体を追尾し、追尾領域の被写体の特徴量が追尾開始時と比較して大きく異なった場合、被写体を見失った(ロストした)と判断することが示されている。
【0012】
しかし、被写体の前に車などが横切った場合や検出された顔が一時的に横向きになった場合など、一時的に追尾ができなかった場合においても、一定の時間内であれば追尾が可能な状態に復帰する可能性も十分に考えられる。
【0013】
そのような場合、例えば、追尾できない状況が一時的な短い時間内の場合は、一時的に追尾領域を固定させ、もとの被写体と相関の高い被写体が再検出されたときに追尾を再開することで、見失わない(ロストしない)ように制御することが可能である。これにより、使い勝手を向上させることも可能である。
【0014】
ここで、このような被写体追尾機能を備えた撮像装置は、被写体追尾に成功しているか否かをユーザが容易に確認できるようにするため、追尾領域に枠(追尾枠)を重畳した画像を生成してモニタ装置に表示する機能を有している。
【0015】
主要被写体を見失った場合には、この追尾枠は消去されるべきである。しかしながら、見失った直後に追尾枠をすぐに消去してしまうと、その直後に主要被写体が見つかった場合に追尾枠がすぐに復帰することとなり、かえって見苦しい表示となってしまうことがある。
【0016】
そのため、主要被写体を一時的に見失ったのであれば追尾枠の表示を継続し、まったく見失ったのであれば追尾枠の表示を停止すべきであるが、その判断を行うことは非常に難しかった。
【0017】
そこで、本発明は、被写体追尾中、一時的に追尾できなくなった場合、追尾可能な状態に復帰する可能性のある保持時間を適切に設定することができ、ユーザの使い勝手が向上する撮像装置及びその追尾方法を提供することを目的とする。
【課題を解決するための手段】
【0018】
本発明に係る撮像装置は、上記の目的を達成させるため、撮影された撮影画像を生成する撮像装置において、前記撮影画像に含まれる被写体を特定する特定手段と、前記撮影画像を画面に表示するとともに、前記特定された被写体を追尾していることを示す識別情報を表示する表示手段と、前記被写体を追尾する追尾手段と、前記撮像装置の焦点距離、および、被写体距離の少なくともいずれかに応じて、前記識別情報の表示を保持する保持時間を設定する設定手段と、前記追尾手段が前記被写体を見失ってから前記設定された保持時間が経過した場合に前記識別情報の表示を消去する消去手段とを備えたことを特徴とする。
【発明の効果】
【0019】
本発明によれば、被写体を追尾していることを示す識別情報の表示および消去を制御する際、焦点距離、および、被写体距離の少なくともいずれかに応じて、識別情報の表示を保持する保持時間を設定できる。そして、被写体を見失ってからこの設定された保持時間が経過した場合、撮像装置は識別情報の表示を終了させる。従って、被写体追尾中、一時的に追尾できなくなった場合、追尾可能な状態に復帰する可能性のある保持時間を適切に設定することができ、ユーザの使い勝手が向上する。
【図面の簡単な説明】
【0020】
【図1】本発明の実施の形態における撮像装置の構成を示すブロック図である。
【図2】図1の撮像装置の被写体追尾動作手順の前半を示すフローチャートである。
【図3】図1の撮像装置の被写体追尾動作手順の後半を示すフローチャートである。
【図4】図1の撮像装置の顔検出処理を示すフローチャートである。
【図5】(a)は図1の撮像装置の顔検出処理の対象となる原画像データ、(b)は原画像データから抽出された肌色領域の画像データ、(c)は肌色領域の画像データに対してハイパスフィルタを適用した画像データ、および、(d)はハイパスフィルタを適用した画像データに対するテンプレートマッチングの方法を示す図である。
【図6】CIELABのLab色空間における代表色を示した色度図である。
【図7】図1の撮像装置の空間フィルタリング処理に用いられる係数が示された2次元ハイパスフィルタの一例の行列を示す図である。
【図8】図2のステップS4、S5の処理に相当する画像データの相関を算出する手順を示すフローチャートである。
【図9】(a)は図8の追尾処理で相関をとる元となる追尾対象領域の画像データ、(b)は対象となる次フレーム画像データを示す図である。
【図10】(a)は図3のステップS12における保持時間算出の基礎となる焦点距離および被写体距離に対応する保持時間を示す表、(b)は同内容を示すグラフである。
【発明を実施するための形態】
【0021】
本発明の撮像装置及びその追尾方法の実施の形態について図面を参照しながら説明する。図1は実施の形態における撮像装置の構成を示すブロック図である。撮像装置は、撮像素子101、バッファメモリ102、ユーザインタフェース103、圧縮回路104、記録装置105、記録媒体106、システムコントローラ107、表示制御回路108、D/A変換器109およびモニタ装置110を有する。また、撮像装置は、信号処理回路111、鏡筒装置112、発光装置113、顔検出部120および被写体追尾部121を有する。鏡筒装置112内には、手ぶれ防止装置(IS:Image Stabilizer)112aおよび角速度センサ112bが設けられている。
【0022】
ユーザからユーザインタフェース103を介して撮影指示があると、システムコントローラ107は、鏡筒装置112の焦点位置や絞り・メカシャッタ、CCDからなる撮像素子101、フラッシュ撮影を行う際の発光装置113等を制御し、撮影を行う。
【0023】
撮影が行われると、撮像素子101から撮像信号が出力され、バッファメモリ102に蓄えられる。その後、バッファメモリ102に蓄えられた撮像信号に対し、信号処理回路111によって画像生成用の信号処理が施され、YUV画像データが生成される。
【0024】
この生成された画像データは、バッファメモリ102に記憶され、画像データの記録が行われる場合、バッファメモリ102から圧縮回路(圧縮・伸長回路)104に送られ、JPEGファイルとして圧縮される。この圧縮された画像データは、記録装置(記録・読み出し装置)105によって記録媒体106に記録される。
【0025】
また、バッファメモリ102に蓄えられたYUV画像データを基に、表示制御回路108によって表示画像データ(撮影画像)が生成されると、その撮影画像はD/A変換器109によって信号変換され、モニタ装置110の画面上に表示される。
【0026】
また、画像データから顔検出を行う場合、顔検出部120は、バッファメモリ102に蓄えられたYUV画像データまたはCCD画像データから顔検出を行い、画像データ中の座標位置(場所)を出力する。
【0027】
顔検出部120によって顔検出が行われていた場合、システムコントローラ107は、表示制御回路108に対して顔位置に顔枠を表示するように指示を行う。そして、システムコントローラ107は、検出された顔のうちのいずれかを追尾対象として選択し、表示制御回路108に対して追尾対象として選択した顔位置に、顔枠の代わりに追尾枠を表示するように指示を行う。この追尾枠は、ユーザがどの被写体が追尾されているのかを識別するための識別情報として用いられる。
【0028】
動画の撮影時やEVF(Electric View Finder)の利用時において被写体追尾を行う場合、被写体追尾部121は、システムコントローラ107から追尾対象が存在する追尾対象領域の画像データを取得する。そして、被写体追尾部121はこの追尾対象領域の画像データと、新たに得られたフレーム画像データとの相関を求めることで、新たなフレーム画像データにおける追尾対象領域の位置を求める。システムコントローラ107は、追尾枠の位置を、被写体追尾部121が求めた新たなフレーム画像データにおける追尾対象領域の位置に変更するよう表示制御回路108に指示を出す。
【0029】
本実施形態では、システムコントローラ107が顔検出部120によって検出された顔位置を顔検出情報として受け取り、この顔位置の画像データを追尾対象領域の画像データとして設定する。そして、被写体追尾部121が連続したフレーム画像データの中から、追尾対象領域の画像データと最も相関の高い領域の画像データを検出することを繰り返すことで、被写体の追尾を行う。被写体追尾部121は、追尾が成功している間は、顔検出部120によって新たに検出された顔位置を追尾には用いない。被写体追尾部121は、追尾に失敗して追尾枠が消去された場合に、再び、顔検出部120にて検出された顔位置を追尾対象領域として設定する。なお、本実施形態は追尾対象として設定される被写体は人物の顔であるものとして説明を行っているが、これに限られるものではない。例えば、ユーザインタフェース(操作パネル)103を介してユーザにより指定された任意の被写体を追尾対象として設定してもよい。
【0030】
上記構成を有する撮像装置において、顔検出部120にて検出された顔を追尾する手法について説明する。図2および図3は被写体追尾時の動作手順を示すフローチャートである。この処理は被写体追尾部121によって実行される。
【0031】
被写体追尾部121は、システムコントローラ107から追尾対象領域を取得し、その追尾対象領域の画像データを取得する(ステップS1)。上述したように、本実施形態では、システムコントローラ107は顔検出部120で検出された顔位置の領域を最初の追尾対象領域として設定する。被写体追尾部121は、この最初の追尾対象領域の画像特徴量を抽出する(ステップS2)。この画像特徴量は、例えば明るさや色相といった色情報などである。
【0032】
被写体追尾部121は次のフレーム画像データを取得する(ステップS3)。被写体追尾部121は、追尾対象領域と最も相関の大きくなる領域を次フレーム画像データから検出し(ステップS4)、動きベクトルを算出する(ステップS5)。この相関の計算および動きベクトルの算出の詳細については後述する。
【0033】
被写体追尾部121は、この動きベクトル量分だけ追尾対象領域の位置を移動させて追尾対象候補領域の位置を求め、次フレーム画像データから、この追尾対象候補領域の画像データを取得する(ステップS6)。すなわち、被写体追尾部121は、次フレーム画像データのうち、追尾対象領域と最も相関の高い追尾対象候補領域の画像データを取得する。被写体追尾部121は、ステップS2と同様に、この追尾対象候補領域の画像特徴量を抽出する(ステップS7)。
【0034】
被写体追尾部121は、ステップS2で取得した追尾対象領域の画像特徴量とステップS7で取得した追尾対象候補領域の画像特徴量を比較する(ステップS8)。この比較の結果、被写体追尾部121は画像特徴量の差が所定の範囲内であるか否か、つまり、このステップS6で取得した追尾対象候補領域の被写体が、ステップS1で設定した最初の追尾対象領域と同じ被写体であるか否かを判別する(ステップS9)。
【0035】
画像特徴量の差が所定の範囲内である場合、被写体追尾部121は、被写体追尾に成功したとして、システムコントローラ107に伝える。システムコントローラ107は、ステップS6で求めた追尾対象候補領域を新たな追尾対象領域として更新し、更新された追尾対象領域の位置に基づいて、表示制御回路108に対して追尾枠の表示位置を更新するように指示を行う(ステップS10)。また、システムコントローラ107は、後述するステップS13でタイマがスタートしていた場合には、タイマをストップさせ、かつ、保持時間をリセットする。
【0036】
この後、被写体追尾部121は、ステップS3の処理に戻り、新たに次フレーム画像データを取得する。被写体追尾部121は、ステップS4〜S6で、次フレーム画像データからステップS10で更新した追尾対象領域と最も類似した追尾対象候補領域を検出し、ステップS7でその追尾対象候補領域の画像特徴量を求める。そして、被写体追尾部121はこの追尾対象候補領域の画像特徴量と、ステップS2で求めた初期の追尾対象領域の画像特徴量と比較し、その差分が所定範囲内であれば、システムコントローラ107が再び追尾対象領域を更新する。
【0037】
このように、被写体追尾部121は、新たなフレーム画像データから追尾対象領域と相関の高い領域を追尾対象候補領域として検出し、この追尾対象候補領域と初期の追尾対象領域の画像特徴量が類似していれば、この追尾対象候補領域を追尾候補領域として更新する。被写体追尾部121は、追尾対象領域を更新することで、被写体の向きが徐々に変化したり、被写体の形状が徐々に変化したりした場合であっても、継続して追尾を行うことが可能となる。ただし、追尾対象候補領域と初期の追尾対象領域の画像特徴量の差分が所定範囲を超えたのであれば、追尾初期とは別の被写体を追尾対象候補領域として検出している可能性が高い。そのような場合には、追尾に失敗したと判断する。
【0038】
一方、ステップS9に戻り、画像特徴量の差が所定の範囲内でなかった場合、被写体追尾部121は、追尾が失敗していると判断し、ステップS11以降の被写体追尾失敗ルーチンに進む。
【0039】
被写体追尾部121は、前フレーム画像データで追尾が成功していたか否かを判別する(ステップS11)。前フレーム画像データにおいて、追尾が成功していた場合、被写体追尾部121は、現段階のフレームで始めて追尾が失敗したものとして、保持時間を決定(設定)する(ステップS12)。この保持時間は、追尾が失敗しても追尾枠の表示をそのまま保持する時間である。また、この保持時間は、後述するように、鏡筒装置112で制御されている焦点距離、前フレーム画像データ以前に検出された被写体位置および被写体距離、手ぶれ防止装置(IS)112aの制御情報や角速度センサ112bの出力などを取得して設定される。
【0040】
被写体追尾部121は、内蔵するタイマをスタートさせ(ステップS13)、ステップS14の処理に進む。
【0041】
一方、ステップS11で前フレーム画像データにおいても追尾に失敗していた場合、被写体追尾部121は、前フレーム画像データに連続して被写体追尾に失敗しているとして、タイマの経過時間が所定の保持時間を超過しているか否かを判別する(ステップS14)。
【0042】
所定の保持時間内であった場合、表示制御回路108に同じ位置での追尾枠の表示を継続させたまま、被写体追尾部121は次フレーム画像データを取得し(ステップS16)、ステップS6の処理に戻る。被写体追尾部121はステップS16からステップS6に進んだ場合は、最後に更新された追尾対象領域を追尾対象候補領域として設定する。
【0043】
一方、所定の保持時間を超過(経過)した場合、被写体追尾部121は、追尾枠を消去することを決定し(ステップS15)、本処理を終了する。この追尾枠の消去の決定は被写体追尾部121からシステムコントローラ107に伝えられる。システムコントローラ107は、この決定に従って表示制御回路108に追尾枠を消去する指示を送出すると、追尾枠は消去される。これにより、追尾終了となる。
【0044】
つぎに、顔検出部120による顔検出方法について説明する。顔検出方法として、多数の方法が提案されている。一般的には、ニューラルネットワークに代表される学習を用いた方法、目や鼻といった物理的な形状の特徴のある部位の領域によるテンプレートマッチングを用いた方法、肌の色や目の形といった画像特徴量を検出しその統計的解析を用いた方法などがある。また、これらの方法を複数組み合わせて顔認識を行う方法が一般的である。
【0045】
現在提案されているものとして、ウェーブレット変換と画像特徴量を利用して顔検出する方法や、テンプレートマッチング等を組み合わせた方法など、多数の顔検出方法がある。その一例として、図4は顔検出処理手順を示すフローチャートである。この処理は、前述したように、顔検出部120によって行われる。図5は顔検出方法を説明する図である。図5(a)は顔検出が行われる対象画像データ(原画像)を示す。
【0046】
まず、顔検出部120は、肌色領域抽出処理を行い、対象画像データから肌色の領域を抽出する(ステップS21)。図6はCIELABのLab色空間における代表色を示した色度図である。図中の楕円aで示される領域は、肌色である可能性が高い領域である。図5(b)は、ステップS21の処理によって対象画像データから肌色領域の色度である領域が抽出された画像データである。
【0047】
顔検出部120は、抽出された肌色の領域の画像データに対し、ハイパスフィルタを適用する空間フィルタリング処理を行う(ステップS22)。図7は空間フィルタリング処理に用いられる係数が示された2次元ハイパスフィルタの一例を示す行列である。図5(c)は、図5(b)の画像データに対し、図7のハイパスフィルタを適用した画像データである。このハイパスフィルタの適用によって画像データ中、目や鼻などの変化のある部分の輪郭線が強調される。
【0048】
さらに、顔検出部120は、テンプレートマッチングを行い、画像データ中における目の検出を行う(ステップS23)。図5(d)は、ハイパスフィルタを適用した図5(c)の画像データに対するテンプレートマッチングの方法を示す図である。顔検出部120は、検出された目の領域の位置関係から顔認識を行い、方向、大きさ等の特徴量を抽出する(ステップS24)。この後、顔検出部120は本処理を終了する。なお、ステップS21を省略し、ステップS22にて対象画像データの全領域に対してハイパスフィルタを適用し、ステップS23でテンプレートマッチングを行って顔認識を行うように処理を修正してもよい。
【0049】
ステップS24で抽出された方向、大きさ等の特徴量である顔検出情報は、顔検出部120からシステムコントローラ107に伝送される。システムコントローラ107は、顔検出情報から追尾対象となる領域(追尾枠)を決定する。
【0050】
つぎに、被写体の追尾方法について説明する。被写体の相関および動きベクトルを検出する方法は、多数提案されており、ここでは比較的単純な方法について説明する。
【0051】
図8は画像データの相関を算出する手順を示すフローチャートである。この処理は図2に示す追尾処理におけるステップS4、S5の処理に相当する。
【0052】
図9は、それぞれ前のフレーム画像データにおける追尾対象領域の画像データ、および、次のフレーム画像データを示す図である。被写体追尾部121は、相関をとる元となる追尾対象領域の画像データ201を取得する(ステップS31)。なお、図9(a)に示すように、追尾枠210は追尾対象領域の画像データ201を囲うように設定される。
【0053】
続いて、被写体追尾部121は、追尾対象領域の画像データ201が得られたフレーム画像データの次に得られたフレーム画像データ300のうち、追尾対象領域の画像データ201と同じ位置に存在する比較領域の位置を取得する(ステップS32)。
【0054】
被写体追尾部121は、比較領域の位置を、フレーム画像データ300上で垂直、水平あるいは斜め方向に所定範囲内でシフトさせ、シフトさせた位置での比較領域の画像データを取得する(ステップS33)。
【0055】
被写体追尾部121は、ステップS33で取得した比較領域の画像データと追尾対象領域の画像データ201との画像差分を算出する(ステップS34)。被写体追尾部121は、ステップS34における画像差分の絶対値の積分値を取得する(ステップS35)。ここで、画像差分の積分値の絶対値が小さいほど画像データの相関が高い(画像データの相関が大きい)。
【0056】
被写体追尾部121は、画像データの相関がそれまで得られた中で最大であるか否かを判別する(ステップS36)。画像データの相関が最大である場合、被写体追尾部121は、この相関および比較領域の位置を保存する(ステップS37)。一方、画像データの相関が最大でない場合、被写体追尾部121はそのままステップS38の処理に進む。
【0057】
被写体追尾部121は、ステップS33にて、ステップS32で取得した位置を含む、あらかじめ設定された全ての位置に比較領域の位置を移動させたか否かを判別する(ステップS38)。全ての位置に移動させていない場合、被写体追尾部121はステップS33の処理に戻る。一方、全ての位置に移動させていた場合、被写体追尾部121は、最も相関が高かった位置までのシフト量(動きベクトル)および相関を出力する(ステップS39)。図9(b)において、画像データ301は、追尾対象領域の画像データ201と最も相関が高いと判断された比較領域の画像データを示している。この後、被写体追尾部121は本処理を終了する。なお、動きベクトルを算出する方法は様々であり、本方法に限定されるものではない。
【0058】
つぎに、ステップS12における保持時間の設定について説明する。図10は焦点距離および被写体距離に対応する保持時間を示す表およびグラフである。図10(a)に示す表および同図10(b)に示すグラフでは、被写体距離と焦点距離との組み合わせで保持時間は設定される。
【0059】
ここで、焦点距離が長い程、保持時間は短く設定される。すなわち、ズームアップ時には、手ぶれなどによる視野(撮影範囲)の変動や被写体の移動によって追尾対象である被写体が視野から外れる可能性が高いので、そのような場合、保持時間は短く設定される。これにより、追尾に失敗すると、次の被写体の検出に移行するまでの時間が短くなる。また同様に、被写体距離が短い程、主要被写体が視野から外れやすくなるので、保持時間は短く設定される。なお、被写体距離の代わりに、主要被写体の画面内のサイズが大きいほど保持時間を長くすることで、同様の効果が得られる。
【0060】
また同様に、焦点距離、および撮影画像の画面内で被写体追尾が失敗した場所に応じて、保持時間を決定するようにしてもよい。すなわち、前フレーム以前に検出された被写体位置が画面の中心部から外れて周辺にある程、被写体が視野から外れやすいので、このような場合、保持時間を短く設定することが好ましい。
【0061】
また、焦点距離情報、手振れ防止装置(IS)の制御情報、角速度センサの出力および被写体位置の少なくとも1つによって、主要被写体が視野から外れたことを検出することも可能である。ここで、角速度センサやISから所定値よりも大きい値が出力された場合に、視野から主要被写体が外れたと判断し、保持時間を短く設定するようにしてもよい。
【0062】
また、撮像装置に搭載した角速度センサから、撮像装置が三脚に装着されているか否かを判断し、三脚に装着されていると判断された場合には、保持時間を長く設定するようにしてもよい。主要被写体以外の部分の画像データの相関が極めて高い場合には、三脚に装着されているものと判断して、保持時間を長く設定してもよい。
【0063】
焦点距離や被写体距離だけでなく、被写体輝度、色温度、あるいは、撮像素子の感度に応じて保持時間を設定してもよい。例えば、撮像素子の感度が高めに設定されるとノイズが増加し、被写体輝度が低い場合には被写体の相関が低くなるため、顔検出処理や追尾処理の精度が低下する。このような場合には、追尾枠が誤った位置に表示される可能性が高まるため、保持時間を短めに設定する。また、色温度が低い場合には電球などの低輝度の光源が用いられていることが多く、被写体輝度が低いと推定される。そのため、色温度に応じて保持時間を設定するようにしてもよい。
【0064】
本実施形態の撮像装置は、被写体追尾機能を利用し、被写体に最適な撮影設定および信号処理を行う際、被写体を追尾していることを示す追尾枠の表示および消去を制御する。さらに、撮像装置は、焦点距離などに応じて、被写体追尾が失敗しても追尾枠の表示をそのまま保持するための保持時間を制御することで、ユーザの使い勝手を向上させることが可能である。
【0065】
このように、撮像装置は、被写体を追尾していることを示す追尾枠の表示および消去を制御する際、焦点距離に応じて、保持時間を設定する。そして、被写体を見失ってからこの設定された保持時間が経過した場合、撮像装置は追尾枠の表示を終了させる。従って、被写体追尾中、一時的に追尾できなくなった場合、追尾可能な状態に復帰する可能性のある保持時間を適切に設定することができ、ユーザの使い勝手が向上する。
【0066】
また、一時的に被写体を見失っても、保持時間内であれば、速やかに追尾状態に復帰することができる。
【0067】
また、ズームアップ時に手ぶれなどによる視野の変動や被写体の移動によって追尾被写体が視野から外れる可能性が高いが、焦点距離が長い程、保持時間を短くすることで、追尾処理を行う時間が短くなり、次の被写体検出に移行し易くなる。
【0068】
また、被写体距離が短い程、主要被写体が視野から外れ易くなることに対処できる。また、被写体追尾が失敗した場所が画面の中心から周辺に外れる程、主要被写体が視野から外れ易いことに対処できる。また、撮像装置が振動している程、主要被写体が視野から外れ易くなることに対処できる。また、被写体を自動的に検出あるいはユーザが指定することで、被写体の特定が容易になる。また、追尾対象となる被写体を示す追尾枠を表示することで、被写体領域の識別が容易である。
【0069】
なお、本発明は、上記実施形態の構成に限られるものではなく、特許請求の範囲で示した機能、または本実施形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。
【0070】
例えば、上記実施形態では、被写体領域として、顔検出部120が顔検出を行い、その顔位置を含む領域が特定されたが、前述したように、ユーザインタフェース103を介してユーザによって指定されたユーザ指定領域が特定されてもよい。
【0071】
また、上記実施形態では、撮像素子としてCCD素子が用いられたが、CMOS素子等でもよい。
【0072】
また、モニタ(表示)装置としては、液晶ディスプレイに限らず、有機ELディスプレイ、表面電界ディスプレイ(SED)、プラズマディスプレイなどを用いてもよい。
【0073】
また、本発明は、撮像装置として、コンパクトタイプのデジタルカメラ、デジタルビデオカメラ、デジタルSLR(一眼レフカメラ)等に適用可能である。
【符号の説明】
【0074】
101 撮像素子
102 バッファメモリ
107 システムコントローラ
110 モニタ装置
120 顔検出部
121 被写体追尾部
210 追尾枠

【特許請求の範囲】
【請求項1】
撮影された撮影画像を生成する撮像装置において、
前記撮影画像に含まれる被写体を特定する特定手段と、
前記撮影画像を画面に表示するとともに、前記特定された被写体を追尾していることを示す識別情報を表示する表示手段と、
前記被写体を追尾する追尾手段と、
前記撮像装置の焦点距離、および、被写体距離の少なくともいずれかに応じて、前記識別情報の表示を保持する保持時間を設定する設定手段と、
前記追尾手段が前記被写体を見失ってから前記設定された保持時間が経過した場合に前記識別情報の表示を消去する消去手段とを備えたことを特徴とする撮像装置。
【請求項2】
前記追尾手段が前記被写体を見失ってから前記設定された保持時間を経過していない場合、前記表示手段は前記識別情報の表示を継続することを特徴とする請求項1記載の撮像装置。
【請求項3】
前記設定手段は、前記焦点距離が長い程、前記保持時間を短く設定することを特徴とする請求項1記載の撮像装置。
【請求項4】
前記設定手段は、前記被写体距離が長い程、前記保持時間を長く設定することを特徴とする請求項1記載の撮像装置。
【請求項5】
前記設定手段は、被写体距離と前記焦点距離の組み合わせによって前記保持時間を決定することを特徴とする請求項1記載の撮像装置。
【請求項6】
前記設定手段は、さらに前記撮影画像の画面内で被写体追尾が失敗した場所に応じて、前記保持時間を決定することを特徴とする請求項1記載の撮像装置。
【請求項7】
前記設定手段は、前記撮影画像の画面内で前記被写体追尾が失敗した場所が前記画面の中心と比較して周辺である程、前記保持時間を短く設定することを特徴とする請求項6記載の撮像装置。
【請求項8】
前記設定手段は、さらに手ぶれ防止装置の制御情報または角速度センサの出力に応じて、前記保持時間を決定することを特徴とする請求項1記載の撮像装置。
【請求項9】
前記設定手段は、前記制御情報または前記出力を基に、前記撮像装置が振動していると判断した場合、振動していない場合と比較して前記保持時間を短く設定することを特徴とする請求項8記載の撮像装置。
【請求項10】
前記特定手段は、前記撮影画像に含まれる被写体を検出する検出手段を備えたことを特徴とする請求項1記載の撮像装置。
【請求項11】
前記表示手段によって表示される識別情報は、前記撮影画像に表示される追尾枠であることを特徴とする請求項1記載の撮像装置。
【請求項12】
撮影された撮影画像を生成する撮像装置の追尾方法において、
前記撮像装置が、前記撮影画像に含まれる被写体を特定する特定ステップと、
前記撮像装置が、前記撮影画像を画面に表示するとともに、前記特定された被写体を追尾していることを示す識別情報を表示する表示ステップと、
前記撮像装置が、前記被写体を追尾する追尾ステップと、
前記撮像装置が、前記撮像装置の焦点距離、および、被写体距離の少なくともいずれかに応じて、前記識別情報の表示を保持する保持時間を設定する設定ステップと、
前記撮像装置が、前記追尾ステップで前記被写体を見失ってから前記設定された保持時間が経過した場合、前記識別情報の表示を消去する消去ステップとを有することを特徴とする撮像装置の追尾方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate


【公開番号】特開2010−81587(P2010−81587A)
【公開日】平成22年4月8日(2010.4.8)
【国際特許分類】
【出願番号】特願2009−190119(P2009−190119)
【出願日】平成21年8月19日(2009.8.19)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】