複眼撮影装置及び撮影方法
【課題】 輻輳角が固定された複眼撮影装置によりセルフタイマー機能を利用して立体表示用の視差画像の撮影を行う場合に、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止するための複眼撮影装置及び撮影方法を提供する。
【解決手段】 複眼撮影装置10は、被写体を立体視することが可能な立体視可能範囲A1内にいると判断すると(ステップS20のYes)、タイマーを起動して時間のカウントを開始する(ステップS22)。そして、予め設定された時間(例えば、数秒)が経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS24)。
【解決手段】 複眼撮影装置10は、被写体を立体視することが可能な立体視可能範囲A1内にいると判断すると(ステップS20のYes)、タイマーを起動して時間のカウントを開始する(ステップS22)。そして、予め設定された時間(例えば、数秒)が経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS24)。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は複眼撮影装置及び撮影方法に係り、特に立体視可能な画像表示を行うための画像を撮影する複眼撮影装置及び撮影方法に関する。
【背景技術】
【0002】
特許文献1から3には、左右の視差画像を撮影する撮影装置において輻輳制御を自動化することが開示されている。特許文献1から3には、検出した被写体距離と前回更新した被写体距離との差分の絶対値が所定値より大きい状態が所定時間継続した場合に限って、検出した被写体距離に輻輳距離を設定することが開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2001−16618号公報
【特許文献2】特開2001−16619号公報
【特許文献3】特開2001−16620号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
立体視可能な画像表示を行うための左右の視差画像を撮影する場合、被写体が撮影装置に近すぎると視差ズレが大きくなり、立体表示画像(3D画像)がブレてしまう。一方、被写体が撮影装置から遠すぎると視差ズレが小さくなり、立体感が得られなくなるという現象が発生する。
【0005】
セルフタイマー機能を利用して視差画像を撮影する場合、被写体であるユーザは、画角や構図を決めた後に撮影装置の視野内に移動することになるため、3D画像を確認しながら撮影することができない。このため、ユーザは、視差画像が撮影可能な範囲(視差ズレが大きくなりすぎず且つ小さくなりすぎない範囲)内に自分がいるかどうか判断することが困難であるため、撮影に失敗しやすい。
【0006】
特許文献1から3に記載の発明は、輻輳角が固定された複眼撮影装置に適用することは不可能である。また、特許文献1から3に記載の発明は、セルフタイマー撮影に着目してなされたものではない。更に、特許文献1から3に記載の発明は、検出した被写体距離と前回更新した被写体距離との差分の絶対値を所定時間監視した結果に応じて輻輳制御を行うものであり、輻輳角が固定された複眼撮影装置において画角及び構図を決めてからセルフタイマー撮影を行う場合における視差画像の撮影の失敗を防止するという課題を解決するものではない。
【0007】
本発明はこのような事情に鑑みてなされたもので、輻輳角が固定された複眼撮影装置によりセルフタイマー機能を利用して立体表示用の視差画像の撮影を行う場合に、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止するための複眼撮影装置及び撮影方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明の第1の態様に係る複眼撮影装置は、所定の輻輳角をなすように固定された第1及び第2の撮影部と、ユーザからの撮影指示の入力を受け付ける撮影指示部と、セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部とを備える。
【0009】
上記第1の態様によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。
【0010】
本発明の第2の態様に係る複眼撮影装置は、上記第1の態様において、前記第1の判断部は、前記第1及び第2の撮影部によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0011】
本発明の第3の態様に係る複眼撮影装置は、上記第2の態様において、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップを更に備え、前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0012】
上記第3の態様によれば、上記した効果に加え、ユーザが立体視可能範囲内にいるかどうかの判断基準となるマップを予め備えておくことにより、ユーザが立体視可能範囲内にいるかどうかの判断のための処理時間を短縮することが可能になる。
【0013】
本発明の第4の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断したことを、前記ユーザに報知する報知部を更に備える。
【0014】
上記第4の態様によれば、ユーザの位置が立体視可能範囲内であるかどうかを報知部によりユーザに報知することができる。
【0015】
本発明の第5の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断部と、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行するようにしたものである。
【0016】
上記第5の態様によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置の前方にいるユーザに上記第2の判断部による判断結果を報知することができる。
【0017】
本発明の第6の態様に係るは、上記第4又は第5の態様において、前記報知部を補助光発光部又はフラッシュ発光部としたものである。
【0018】
本発明の第7の態様に係るは、上記第4から第6の態様において、前記報知部を音声出力部としたものである。
【0019】
上記第6及び第7の態様によれば、既存の補助光発光部、フラッシュ発光部又は音声出力部をユーザへの報知に用いたので、複眼撮影装置の製造コストを抑制することができる。
【0020】
本発明の第8の態様に係る複眼撮影装置は、上記第1から第7の態様において、前記所定時間を変更する変更部を更に備える。
【0021】
上記第8の態様によれば、ユーザ等が撮影時の姿勢を決めるまでの所定時間の自由に設定できるので、ユーザの意図通りの撮影を容易にすることができる。
【0022】
本発明の第9の態様に係る複眼撮影装置は、上記第1から第8の態様において、前記ユーザの特徴点情報を記録する特徴点情報記録部を更に備え、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。
【0023】
上記第9の態様によれば、上記した効果に加え、予め記録しておいたユーザの特徴点情報により検出対象を絞り込むことができるので、ユーザの検出処理に要する時間を短縮することができる。
【0024】
本発明の第10の態様に係る複眼撮影装置は、上記第9の態様において、前記特徴点情報記録部は、前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報を記録しており、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行するようにしたものである。
【0025】
上記第10の態様によれば、予め登録した人物(ユーザを含む)がすべて立体視可能範囲内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、予め記録しておいた特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。
【0026】
本発明の第11の態様に係る撮影方法は、所定の輻輳角をなすように固定された第1及び第2の撮影手段を備えた複眼撮影装置によりユーザの視差画像を撮影する撮影方法であって、前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程とを備える。
【0027】
本発明の第12の態様に係る撮影方法は、上記第11の態様の前記第1の判断工程において、前記複眼撮影装置は、前記第1及び第2の撮影手段によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0028】
本発明の第13の態様に係る撮影方法は、上記第12の態様の前記第1の判断工程において、前記複眼撮影装置は、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップと前記特徴点の視差ズレ量とを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0029】
本発明の第14の態様に係る撮影方法は、上記第11から第13の態様において、前記ユーザの位置が前記立体視可能範囲内であると判断されたことを、前記複眼撮影装置が前記ユーザに報知する報知工程を更に備える。
【0030】
本発明の第15の態様に係る撮影方法は、上記第11から第13の態様において、前記複眼撮影装置が前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程とを更に備える。
【0031】
本発明の第16の態様に係る撮影方法は、上記第11から第15の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記ユーザの特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。
【0032】
本発明の第17の態様に係る撮影方法は、上記第16の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行するようにしたものである。
【発明の効果】
【0033】
本発明によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。
【図面の簡単な説明】
【0034】
【図1】本発明の第1の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図2】本実施形態に係る複眼撮影装置により視差画像をセルフタイマー撮影する方法を説明するための図
【図3】本発明の第1の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図4】ユーザの位置の判断方法を説明するための図
【図5】複眼撮影装置のポストビュー表示を示す図
【図6】本発明の第2の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図7】立体視可能範囲A1と視差ズレ量の対応関係を示すマップ
【図8】本発明の第3の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図9】本発明の第3の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図10】本発明の第4の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図11】本発明の第5の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図12】本発明の第6の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図13】本発明の第6の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図14】本発明の第7の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図15】本発明の第7の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図16】本発明の第8の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図17】本発明の第9の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図18】ユーザの特徴点情報の登録処理を示すフローチャート
【図19】本発明の第10の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図20】本発明の第11の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【発明を実施するための形態】
【0035】
以下、添付図面に従って本発明に係る複眼撮影装置及び撮影方法の好ましい実施の形態について説明する。
【0036】
[第1の実施形態]
まず、本実施形態に係る複眼撮影装置の構成について、図1のブロック図を参照して説明する。
【0037】
図1に示すように、複眼撮影装置10は、2つの撮影部12−1及び12−2を備えている。なお、撮影部12は2つ以上設けてもよい。
【0038】
複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の画像データを合成する。例えば、複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の視差画像データを合成して立体視表示用の画像の作成及び表示を行う。複眼撮影装置10は、上記視差画像データを、1つの記録用画像ファイルに格納する。また、複眼撮影装置10は、ブラケット撮影時、動画撮影時及び連写撮影した複数フレームの画像データをつなぎ合わせて1つの記録用画像ファイルに格納する。
【0039】
この複数フレームの画像を記録するフォーマットとしては、例えば“マルチピクチャフォーマット”などが知られているが、それに限られるものではない。(以下の実施例においても同様)
信号処理IC(Integrated Circuit)は、CPU(Central Processing Unit)14を含んでおり、操作部16からの入力に基づき所定の制御プログラムに従って複眼撮影装置10全体の動作を統括制御する手段である。
【0040】
信号処理ICは、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)及びワークメモリ(RAM(Random Access Memory))を含んでいる。ROMには、CPU14が実行する制御プログラム及び制御に必要な各種データ等が格納される。EPROMには、ユーザ設定情報等の複眼撮影装置10の動作に関する各種設定情報等が格納されるものであり、EEPROMとしては電源を切っても記憶内容が消去されない不揮発性メモリが使用される。ワークメモリは、CPU14の演算作業用領域及び画像データの一時記憶領域を含んでいるものであり、通常はコスト面から揮発性メモリであるダイナミックRAMが使用される。
【0041】
操作部16は、ユーザが各種の操作入力を行うための操作手段であり、電源のオン、オフの切り替えを行う電源スイッチ、複眼撮影装置10の動作モードの切り替えを行うモードダイヤル、レリーズスイッチ及びズームボタンを含んでいる。
【0042】
モードダイヤルは、複眼撮影装置10の動作モードの切り替え入力を行うための操作手段であり、モードダイヤルの設定位置に応じて、2次元の画像(静止画、動画)を撮影する2Dモードと、立体視用の画像(静止画、動画)を撮影する3Dモードと、画像の再生を行う再生モードとの間で動作モードが切り替えられる。
【0043】
レリーズスイッチは、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。静止画を撮影するモードの時には、レリーズスイッチが半押しされると(S1オン)、撮影準備処理(例えば、自動露出調整処理(AE(Automatic Exposure))、自動焦点合わせ処理(AF(Auto Focus))、自動ホワイトバランス調整処理(AWB(Automatic White Balance)))が行われる。そして、レリーズスイッチが全押しされると(S2オン)、静止画の撮影・記録処理が行われる。また、動画を撮影するモードの時には、レリーズスイッチが全押しされると動画の撮影が開始され、再度全押しされると動画の撮影が終了する。なお、静止画撮影用のレリーズスイッチ及び動画撮影用のレリーズスイッチを別々に設けてもよい。
【0044】
ズームボタンは、撮影部12−1及び12−2のズーミング操作を行うための操作手段であり、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとを備えている。
【0045】
表示部18は、例えば、カラー液晶パネル(LCD(Liquid Crystal Display))を備えた表示装置である。表示部18は、撮影された画像を表示する表示部として機能するとともに、複眼撮影装置10の各種機能に関する設定を行うときのユーザインターフェースとして機能する。また、表示部18は、撮影モード時に画角を確認するためのライブビュー画像を表示する電子ファインダとして機能する。
【0046】
表示部18は、3Dモード時に、ユーザ、観察者が立体視可能な立体視用(3D)画像を表示する機能を有する。3D画像の表示方式としては、例えば、ライト・ディレクション・コントロール・システム(Light Direction Control System)が採用される。ライト・ディレクション・コントロール・システムでは、左眼用の画像データをLCDに表示して、バックライトパネルによってユーザの左眼に届くように指向性をもたせた照明光をLCDに照射する処理と、右眼用の画像データをLCDに表示して、バックライトパネルによってユーザの右眼に届くように指向性をもたせた照明光をLCDに照射する処理とを交互に(例えば、1/60秒間隔で)繰り返す。これにより、相互に視差のある左眼用画像と右眼用画像が、ユーザの左右の眼によって交互に観察可能になるので、ユーザは立体的な画像を観察することができる。立体視用画像を表示する方法にはたくさんの方式があり、どれを使用してもよい。
【0047】
記録部20は、撮影された画像ファイル及び各種のデータを記録する。記録部20は、例えば、SDメモリカード(登録商標)又はxDピクチャカード(登録商標)のような着脱可能な記録メディアでもよいし、複眼撮影装置10の本体に内蔵されているメモリでもよい。ただし、複眼撮影装置10の本体に内蔵されているメモリを使用する場合は、カメラ本体の電源を切った場合でも画像が消去されないように不揮発性メモリを使用する必要がある。
【0048】
次に、複眼撮影装置10の撮影機能について説明する。なお、図1では、各撮影部12−1及び12−2等にそれぞれ符号1及び2を付して区別しているが、各部の機能は略同様であるため、以下の説明では、符号1及び2を適宜省略して説明する。
【0049】
各撮影部12は、フォーカスレンズ24、ズームレンズ26、絞り28及びメカシャッタ30を含む撮影レンズ(撮影レンズ)22を備えている。本実施形態では、撮影レンズ22−1及び22−2の輻輳角θは固定されている。
【0050】
フォーカスレンズ24及びズームレンズ26は、各撮影部12の光軸に沿って前後に移動する。CPU14は、光学系駆動部32に設けられたフォーカスアクチュエータの動作を制御して、フォーカスレンズ24の位置を調整してフォーカシングを行う。また、CPU14は、光学系駆動部32に設けられたズームアクチュエータの動作を制御して、ズームレンズ26の位置を調整してズーミングを行う。また、CPU14は、光学系駆動部32に設けられた絞りアクチュエータの駆動を制御することにより、絞り28の開口量(絞り値)を調整して撮像素子34への入射光量を制御する。
【0051】
メカシャッタ30は、撮像素子34からデータを読み出すときに閉じられる。これにより、データ読み出し時に撮像素子34に入射する光が遮光される。
【0052】
CPU14は、3Dモード時に、各撮影部12−1及び12−2の撮影レンズ22−1及び22−1(即ち、フォーカスレンズ24−1及び24−2、ズームレンズ26−1及び26−2、絞り28−1及び28−2)を同期させて駆動する。即ち、撮影部12−1及び12−2は、3Dモード時に、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ入射光量(絞り値)となるように絞りが調整される。更に、3Dモード時には、常に同じ被写体にピントが合うように焦点調節が行われる。
【0053】
撮像素子34は、例えば、カラーCCD(Charge Coupled Device)固体撮像素子である。撮像素子34−1と撮像素子34−2は、サイズ及び飽和特性が同じものであってもよいし、相互に異なっているものであってもよい。なお、撮像素子34としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等のCCD以外の撮像素子を用いることもできる。
【0054】
撮像素子34の受光面には、多数のフォトダイオードが2次元的に配列されている。各フォトダイオードには所定の色(例えば、赤(R)、緑(G)、青(B)の3原色)のカラーフィルタが所定の配列となるように配置されている。なお、カラーフィルタの色はR,G,Bの3原色に限定されるものではなく、例えば、補色系のカラーフィルタを用いることも可能である。撮影部12を介して撮像素子34の受光面上に被写体光が結像されると、この被写体光はフォトダイオードによって入射光量に応じた信号電荷に変換される。撮像素子34は、電子シャッタ機能を備えており、CPU14はフォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)を制御する。各フォトダイオードに蓄積された信号電荷は、CPU14の指令に従ってタイミング・ジェネレータ(TG)36から与えられる駆動パルスに基づいて、電荷量に応じた画像信号(R、G、B信号)として撮像素子34から順次読み出される。撮像素子34から読み出された画像信号は、アンプ38を経てアナログ信号処理部40に入力される。
【0055】
アナログ信号処理部40は、撮像素子34から出力されたR、G、B信号に含まれるリセットノイズ(低周波)を除去するための相関2重サンプリング(CDS(Correlated Double Sampling))回路、R、G、B信号を増幅して一定レベルの大きさにコントロールするためのAGC(Automatic Gain Control)回路、アナログ信号をデジタル信号に変換するA/D変換器を含んでいる。撮像素子34から出力されるアナログのR、G、B信号は、アナログ信号処理部40によって相関2重サンプリング処理されるとともに増幅される。アナログ信号処理部40におけるR、G、B信号の増幅ゲインは撮影感度(ISO感度)に相当する。CPU14は、被写体の明るさ等に応じて、この増幅ゲインを調整することにより撮影感度を設定する。なお、感度が等しい2つの撮像素子を用いて画像を撮影する場合(3Dモード)、このゲインは、[1]系アナログ信号処理部40−1と[2]系アナログ信号処理部40−2とで同じ値に設定される。
【0056】
ゲイン調整されたアナログのR、G、B信号は、A/D変換器によってデジタルのR、G、B信号に変換された後、バッファメモリを介して信号処理IC14に入力される。
【0057】
上記のようにして生成されたデジタルのR、G、B信号は、信号処理ICによって、所定の処理(例えば、単板撮像素子のカラーフィルタ配列に伴う色信号の空間的なズレを補間してR、G、Bの色信号を作る処理)、ホワイトバランス調整処理、階調変換(ガンマ補正)処理及び輪郭補正処理が施されて、輝度信号(Y信号)及び色差信号(Cr、Cb信号)、即ち、Y/C信号に変換される。
【0058】
静止画や動画を撮影する場合の画角を確認するための画像であるライブビュー画像(スルー画像)を表示部18に表示する場合、撮像素子34に蓄積された画像信号が所定時間間隔で間引き読み出しされる。この読み出された画像信号は、信号処理ICによって、所定の処理が施されるとともに、Y/C信号に変換される。そして、このY/C信号は、表示部18の表示に適した信号(例えば、R、G、B信号)に変換された後、1フレーム分ずつ表示部18に出力される。これにより、表示部18に画角確認用の動画(スルー画像)が表示される。2Dモード時には、1つの撮影部12のみからスルー画像用の画像信号の読み出しが行われる。一方、3Dモード時には、左右の撮影部12−1及び12−2の両方からスルー画像用の画像信号の読み出しが行われ、両方の画像を用いて3Dのスルー画像(動画)の表示が行われる。
【0059】
なお、3Dモード時には、設定によりスルー画像を2D表示とすることができる。この場合、左右の撮影部12−1及び12−2のいずれか一方から得られた画像を用いて作成されたスルー画像が表示される。3Dモード時において被写体の検出(顔検出)を行う場合、当該被写体が立体視可能範囲内にいるかどうかに応じて、上記2Dのスルー画像から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。
【0060】
次に、画像の撮影及び記録処理について説明する。2Dモード時には、所定の1つの撮影部(例えば、12−1)により記録用の画像が撮影される。なお、撮影部12−1、12−2(撮影レンズ22、撮像素子34等)の特性を互い異なるものにして、2Dモード時にどちらの撮影部を使用するかをユーザが選択できるようにしてもよい。
【0061】
2Dモード時に、撮影部12−1によって撮影された画像は、信号処理ICによって圧縮される。圧縮された画像データは、所定形式の画像ファイルとして記録部20に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)、動画についてはMPEG2又はMPEG4、H.264等の規格に準拠した圧縮画像ファイルとして記録される。ただし、圧縮方式はこれらに限るものではない。
【0062】
3Dモード時には、撮影部12−1及び12−2によって同期して画像が撮影される。上記3Dモード時には、AF処理及びAE処理は、撮影部12−1及び12−2のいずれか一方によって取得された画像信号に基づいて行われる。上記3Dモード時には、各撮影部12−1及び12−2によって撮影された2視点の画像は、それぞれ圧縮されて1つのファイルに格納されて記録部20に記録される。ファイルには、2視点の圧縮画像データとともに、被写体距離情報、撮影部12の撮影レンズの間隔及び輻輳角に関する情報が格納される。
【0063】
再生モード時には、記録部20に記録されている最終の画像ファイル(最後に記録された画像ファイル)が読み出されて、信号処理ICによって非圧縮のY/C信号に伸張される。この非圧縮のY/C信号は、R、G、B信号に変換された後表示部18に出力される。これにより、記録部20に記録されている画像ファイルが表示部18に表示される。
【0064】
3Dモードで撮影された画像の再生時には、設定により3D表示と2D表示とを選択することができる。画像中から被写体の検出(顔検出)を行う場合、撮影時に当該被写体が立体視可能範囲内にいたかどうかに応じて、上記2D表示から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。
【0065】
[セルフタイマー撮影]
次に、セルフタイマー撮影時における複眼撮影装置10の処理について説明する。
【0066】
図2は、本実施形態に係る複眼撮影装置により視差画像をセルフタイマー撮影する方法を説明するための図である。
【0067】
図2に示すように、複眼撮影装置10の輻輳角θは固定されており、左右の撮影レンズ22−1及び22−2の光軸(それぞれL1,L2)は、複眼撮影装置10の前方のクロスポイントPcにおいて交わっている。左右の撮影レンズ22−1及び22−2の間隔(ステレオベース)をX(mm)、クロスポイントPcと複眼撮影装置10との間の距離をY(mm)とすると、輻輳角θは、θ=tan−1(X/2Y)により表される。
【0068】
クロスポイントPcは、被写体を立体視する(立体視可能な視差画像を撮影する)ために最適な被写体の位置である。立体視可能範囲A1は、被写体を立体視することが可能な被写体までの距離範囲である。図2において、立体視可能範囲A1は、クロスポイントPcから複眼撮影装置10に近づく側に距離W1、クロスポイントPcを起点として複眼撮影装置10から遠ざかる側に距離W2の範囲である。
【0069】
立体視可能範囲A1は、ステレオベースX、撮像素子34−1及び34−2の有効領域の幅、撮影レンズ22−1及び22−2の焦点距離及び許容視差量に基づいて定められる。
【0070】
立体視可能範囲A1の複眼撮影装置10に最も近い点を近点Pn、複眼撮影装置10から最も遠い点を遠点Pfとする。φ=90°−θ、近点Pnにおける視差ズレ量をδ1(°)、遠点Pfにおける視差ズレ量をδ2(°)とすると、近点Pnと左レンズ22−2との距離Yn(=Y−W1)、遠点Pfと左レンズ22−2との距離Yf(=Y+W2)は、それぞれ下記の式(1)及び(2)により表される。
【0071】
Yn=X/2×tan(φ−δ1) …(1)
Yf=X/2×tan(φ+δ2) …(2)
立体視可能範囲A1は、一例でδ1≦30°,δ2≦7°〜8°の範囲(範囲A)である。最近の調査では、立体視可能範囲A1は、好ましくはδ1≦3.34°,δ2≦3.05°の範囲(範囲B)であり、より好ましくはδ1≦1.84°,δ2≦2.04°の範囲(範囲C)と言われている。
【0072】
図2では、計算を簡単にするために、左右の撮影レンズ22−1及び22−2の両方に角度をつけてクロスポイントPcを作っているが、左右どちらかの撮影レンズを固定してもよいことはもちろんである。
【0073】
なお、複眼撮影装置10が、各範囲A,B,Cにユーザが出入りしたことを検知したときに、ユーザにその旨を報知するようにしてもよい。
【0074】
図3は、本発明の第1の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0075】
まず、複眼撮影装置10の電源がオンになると(ステップS10)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS12)。
【0076】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS14)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS16)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS18)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS20)。なお、3Dモードで起動された場合に、デフォルトでセルフタイマーモードに設定されるようにしてもよい。
【0077】
図4は、ユーザの位置の判断方法を説明するための図である。
【0078】
複眼撮影装置10は、左右の視差画像(左画像IMGL、右画像IMGR)からユーザを検出する。ここで、ユーザの検出は、例えば、顔検出処理により行われる。顔検出処理の方式としては、例えば、肌色に予め指定された色と近い色をもつ画素を原画像から取り出し、取り出した領域を顔領域として検出するものがある。この顔検出処理の方式では、例えば、肌色を他の色と区別するための色空間上で、予めサンプリングした肌色の情報から色空間上の肌色の範囲を定める。複眼撮影装置10は、例えば、画像中から検出した肌色領域ごとに、肌色の度合等に基づいて顔らしさの評価値(顔らしさ度)を算出する。そして、複眼撮影装置10は、上記顔らしさ度が所定値以上の肌色領域を顔領域と判断する。また、耳の検出処理の方式としては、例えば、上記顔検出処理によって検出された肌色の領域の中から左右に2つ並ぶ黒色を含む領域(目の領域)を検出し、こうして検出した目の領域の位置を基準として肌色領域の端部付近を耳の領域として検出するものがある。
【0079】
次に、複眼撮影装置10は、左画像IMGL及び右画像IMGR中のユーザ(顔)の特徴点(それぞれPL、PR)を検出し、左画像IMGLと右画像IMGRとを重ねたときの特徴点PLとPRとのズレ量を測定する。そして、複眼撮影装置10は、このズレ量の絶対値(特徴点が複数の場合には、対応する特徴点間のズレ量の絶対値の合計値、平均値又は最大値)が所定値以下の場合、又は左画像IMGL、右画像IMGRの中心線(それぞれLL、LR)と特徴点PL、PRとの間の距離の絶対値の合計値、平均値又は最大値が所定値以下の場合にユーザの位置が立体視可能範囲A1内にあると判断する。
【0080】
複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS20のYes)、タイマーを起動して時間のカウントを開始する(ステップS22)。そして、予め設定された時間(例えば、数秒)が経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS24)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS26)。また、図5に示すように、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS28)。
【0081】
本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。
【0082】
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
【0083】
本実施形態は、立体視可能範囲A1と視差ズレ量との関係を予めマップとして記録しておき、このマップに基づいて、ユーザが立体視可能範囲A1内にいるかどうかを判断するようにしたものである。
【0084】
図6は、本発明の第2の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0085】
まず、複眼撮影装置10の電源がオンになると(ステップS30)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく立体視のライブビュー画像(スルー画像)を表示部18に表示する(ステップS32)。
【0086】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS34)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS36)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS38)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS40)。
【0087】
図7は、立体視可能範囲A1と視差ズレ量の対応関係を示すマップである。
【0088】
図7に示すように、マップM1には、視差ズレ量(角度)と立体視可能範囲であるかどうかを示す値が関連付けられて格納される。マップM1は、信号処理ICのROM又はEPROMに格納される。参照アドレスは、上記ROM又はEPROMにおけるデータの格納位置を示している。
【0089】
複眼撮影装置10は、上記実施形態と同様、左画像IMGL及び右画像IMGRに対してそれぞれ顔検出処理を施し、検出したユーザ(顔)の特徴点(それぞれPL、PR)を検出する。そして、複眼撮影装置10は、左画像IMGLと右画像IMGRとを重ねたときの特徴点PLとPRとのズレ量を測定する。複眼撮影装置10は、このズレ量の絶対値とマップM1に基づいて、ユーザの位置が立体視可能範囲A1内にあるかどうかを判断する。
【0090】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS40のYes)、下記のアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS42)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS44)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS46)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS48)。
[アルゴリズム]
IF ((ズレ量)≧min or (ズレ量)≦MAX)
{タイマー起動する}
else
本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。また、ユーザが立体視可能範囲A1内にいるかどうかの判断基準となるマップM1を予め記憶しておくことにより、ユーザが立体視可能範囲A1内にいるかどうかの判断のための処理時間を短縮することが可能になる。
【0091】
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0092】
図8は、本発明の第3の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。
【0093】
図8に示すように、本実施形態に係る複眼撮影装置10は、発光部50を備えている。発光部50は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。発光部50は、オートフォーカス時に被写体に光を照射して、AF検出を精度よく行うためのものである。
【0094】
本実施形態は、上記発光部50を用いて、立体視可能範囲A1内にいるかどうかをユーザに報知するようにしたものである。
【0095】
図9は、本発明の第3の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0096】
まず、複眼撮影装置10の電源がオンになると(ステップS50)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS52)。
【0097】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS54)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS56)、複眼撮影装置10は、後述のステップS64が終了するまで発光部50を発光させるとともに(ステップS58)、ユーザ(被写体)の位置の検出を開始する(ステップS60)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS62)。なお、ステップS62の判断工程については、上記第1及び第2の実施形態と同様である。
【0098】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS62のYes)、発光部50を点滅させて(ステップS64)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS66)、タイマーを起動して時間のカウントを開始する(ステップS68)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS70)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS72)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS74)。
【0099】
本実施形態によれば、セルフタイマーで視差画像を撮影するときに、発光部50により、ユーザの位置が立体視可能範囲A1内であるかどうかをユーザに報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0100】
なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。
【0101】
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0102】
本実施形態は、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて、立体視可能な3D表示を行うことが可能かどうかを判断し、複眼撮影装置10の前方にいるユーザに上記判断結果を報知し、必要に応じて再撮影するようにしたものである。
【0103】
図10は、本発明の第4の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0104】
まず、複眼撮影装置10の電源がオンになると(ステップS80)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS82)。
【0105】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS84)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS86)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS88)、ユーザ(被写体)の位置の検出を開始する(ステップS90)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS92)。なお、ステップS92の判断工程については上記の実施形態と同様である。
【0106】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS92のYes)、発光部50を点滅させて(ステップS94)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS96)、タイマーを起動して時間のカウントを開始する(ステップS98)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS100)。
【0107】
次に、複眼撮影装置10は、ステップS100において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS102)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS92と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS106)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS108)。
【0108】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS104)。
【0109】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS108のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS110)。
【0110】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS108のNo)、点滅していた発光部50を発光させて(ステップS112)、撮影の失敗をユーザに報知する(ステップS114)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS92からS114)。
【0111】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0112】
なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させ、撮影の失敗時に発光部50を再点灯させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。
【0113】
[第5の実施形態]
次に、本発明の第5の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0114】
図11は、本発明の第5の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0115】
まず、複眼撮影装置10の電源がオンになると(ステップS120)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS122)。
【0116】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS124)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS126)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS128)、ユーザ(被写体)の位置の検出を開始する(ステップS130)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS132)。なお、ステップS132の判断工程については上記の実施形態と同様である。
【0117】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS132のYes)、発光部50の発光色を変化(遷移)させて(ステップS134)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS136)、タイマーを起動して時間のカウントを開始する(ステップS138)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS140)。
【0118】
次に、複眼撮影装置10は、ステップS140において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS142)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS132と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS146)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS148)。
【0119】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS144)。
【0120】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS148のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS150)。
【0121】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS148のNo)、発光部50の発光色をステップS128の発光色に戻し(ステップS152)、撮影の失敗をユーザに報知する(ステップS154)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS132からS154)。
【0122】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0123】
[第6の実施形態]
次に、本発明の第6の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0124】
図12は、本発明の第6の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。
【0125】
図12に示すように、本実施形態に係る複眼撮影装置10は、フラッシュ発光部60を備えている。フラッシュ発光部60は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。フラッシュ発光部60は、AEの結果又はユーザの設定に応じて撮影時に被写体に光を照射するためのものである。
【0126】
本実施形態は、上記フラッシュ発光部60を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。
【0127】
図13は、本発明の第6の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0128】
まず、複眼撮影装置10の電源がオンになると(ステップS160)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS162)。
【0129】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS164)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS166)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS168)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS170)。なお、ステップS170の判断工程については上記の実施形態と同様である。
【0130】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS170のYes)、フラッシュ発光部60をプリ発光させた後点滅させて(ステップS172)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS174)、タイマーを起動して時間のカウントを開始する(ステップS176)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS178)。
【0131】
次に、複眼撮影装置10は、ステップS178において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS180)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS170と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS184)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS186)。
【0132】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS182)。
【0133】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS186のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS188)。
【0134】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS186のNo)、フラッシュ発光部60再発光させて(ステップS190)、撮影の失敗をユーザに報知する(ステップS192)。そして、ステップS170に戻り、再び視差画像の撮影を実行する(ステップS170からS192)。
【0135】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のフラッシュ発光部60をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0136】
[第7の実施形態]
次に、本発明の第7の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0137】
図14は、本発明の第7の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。
【0138】
図14に示すように、本実施形態に係る複眼撮影装置10は、スピーカ70を備えている。スピーカ70は、不図示のマイクを介して録音された音声(いわゆるボイスメモ等)を再生するためのものである。
【0139】
本実施形態は、上記スピーカ70を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。
【0140】
図15は、本発明の第7の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0141】
まず、複眼撮影装置10の電源がオンになると(ステップS200)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS202)。
【0142】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS204)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS206)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS208)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS210)。なお、ステップS210の判断工程については上記の実施形態と同様である。
【0143】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS210のYes)、立体視可能範囲A1内に入ったことをスピーカ70から音声出力させ(ステップS212)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS214)、タイマーを起動して時間のカウントを開始する(ステップS216)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS218)。
【0144】
次に、複眼撮影装置10は、ステップS218において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS220)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS210と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS224)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS226)。
【0145】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS222)。
【0146】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS226のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS228)。
【0147】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS226のNo)、立体視可能な視差画像の撮影に失敗したことをスピーカ70から音声出力させて(ステップS230)、撮影の失敗をユーザに報知する(ステップS232)。そして、ステップS210に戻り、再び視差画像の撮影を実行する(ステップS210からS232)。
【0148】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のスピーカ70をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0149】
[第8の実施形態]
次に、本発明の第8の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0150】
本実施形態は、上記第3の実施形態において、セルフタイマーの時間をユーザが手動で調整できるようにしたものである。
【0151】
図16は、本発明の第8の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0152】
まず、複眼撮影装置10の電源がオンになると(ステップS240)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS242)。
【0153】
次に、複眼撮影装置10は、セルフタイマーモードに設定されると(ステップS244)、タイマー時間(ステップS262における立体視可能範囲A1内にユーザが入ったことを検出してから撮影を実行するまでの時間)の設定画面(GUI)を表示部18に表示し、タイマー時間の設定入力を受け付ける(ステップS246)。以下、ステップS248からS266の処理については、上記図9のステップS56からS74と同様である。
【0154】
本実施形態によれば、ユーザ等が撮影時の姿勢を決めるまでの時間の自由に設定することができるので、ユーザの意図通りの撮影を容易にすることができる。
【0155】
[第9の実施形態]
次に、本発明の第9の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0156】
図17は、本発明の第9の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0157】
まず、複眼撮影装置10の電源がオンになると(ステップS270)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS272)。
【0158】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS274)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS276)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS278)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS280)。なお、ステップS280の判断工程については上記の実施形態と同様である。
【0159】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS280のYes)、立体視可能範囲A1内にユーザ以外の被写体がいるかどうか判断する(ステップS282)。ステップS282では、複眼撮影装置10は、例えば、ステップS272のスルー画像に対して顔検出処理を行い、レリーズスイッチが押下された後に、スルー画像中から新たに検出された(レリーズスイッチ押下前に顔が検出されていた場合にはレリーズスイッチ押下前から増えた)顔をユーザと判断する。
【0160】
複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいると判断すると(ステップS282のYes)、ユーザとユーザ以外の被写体に合わせて撮影制御を行う(ステップS284)。ステップS284では、複眼撮影装置10は、例えば、検出した被写体(ユーザを含む)のすべて又は所定の割合以上が立体視可能範囲A1内にいると判断した場合に、ステップS288に進んでタイマーを起動する。また、複眼撮影装置10は、検出した被写体(ユーザを含む)の中から主要被写体を選択し、上記主要被写体に合わせてAE制御、AF制御及びAWB制御を行う。ここで、主要被写体はユーザ自身としてもよいし、又は顔領域の大きさ、複眼撮影装置10からの距離及び顔らしさ度のうちの少なくとも1つに基づいて決定されるようにしてもよい。例えば、顔領域が最も大きい、複眼撮影装置10からの距離が最も近い、又は顔らしさ度が最も高い被写体が主要被写体として選択される。
【0161】
一方、複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいないと判断すると(ステップS282のNo)、被写体はユーザのみであると判断し、ユーザに合わせて撮影制御を行う(ステップS286)。即ち、複眼撮影装置10は、ユーザに合わせてAE制御、AF制御及びAWB制御を行う。
【0162】
次に、複眼撮影装置10は、タイマーを起動して時間のカウントを開始する(ステップS288)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS290)。
【0163】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS292)。また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS294)。
【0164】
本実施形態によれば、ユーザがレリーズスイッチを押下した時点で、立体視可能範囲A1内に他の人物が既にいた場合であっても、立体視可能範囲A1内にユーザが入ってからセルフタイマー撮影を開始することができるので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。
【0165】
[第10の実施形態]
次に、本発明の第10の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0166】
本実施形態は、ユーザの画像の特徴点情報を複眼撮影装置10に予め登録しておき、特徴点情報に基づいて、ユーザの検出を行うようにしたものである。
【0167】
図18は、ユーザの特徴点情報の登録処理を示すフローチャートである。
【0168】
まず、複眼撮影装置10の電源がオンになると(ステップS300)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS302)。
【0169】
次に、レリーズスイッチが押下(全押し)に応じて、複眼撮影装置10は、人物(ユーザ)の画像を撮影する(ステップS304)。そして、複眼撮影装置10は、撮影した人物画像に対して顔検出処理を施して特徴点を抽出し(ステップS306)、特徴点の座標及び位置関係を示す特徴点情報をEPROM等の記憶手段に記憶する(ステップS308)。
【0170】
図19は、本発明の第10の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0171】
まず、複眼撮影装置10の電源がオンになると(ステップS310)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS312)。
【0172】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS314)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS316)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS318)。
【0173】
次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、検出した人物が特徴点を登録済みの人物であるかどうか判断する(ステップS320)。複眼撮影装置10は、検出した人物が特徴点を登録済みの人物であると判断した場合(ステップS320のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS322)。ステップS322では、複眼撮影装置10は、スルー画像から検出したユーザの特徴点の視差ズレ量と、図7のマップM1に基づいてユーザが立体視可能範囲A1内にいるかどうかを判断する。なお、ステップS322の判断は、例えば、上記第1の実施形態と同様にしてもよい。
【0174】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS322のYes)、上記第2の実施形態で説明したアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS324)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS326)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS328)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS330)。
【0175】
本実施形態によれば、予め登録した被写体(人物、ユーザ)が立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体(人物、ユーザ)の検出処理に要する時間を短縮することができる。
【0176】
[第11の実施形態]
次に、本発明の第11の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0177】
本実施形態は、ユーザとユーザ以外の被写体となりうる人物の両方について特徴点情報の登録処理を行い、この特徴点情報に基づいてユーザとユーザ以外の被写体(人物)が立体視可能範囲A1内にいるかどうかの判断を行うようにしたものである。
【0178】
図20は、本発明の第11の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0179】
まず、複眼撮影装置10の電源がオンになると(ステップS340)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS342)。
【0180】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS344)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS346)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS348)。
【0181】
次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、特徴点情報を登録済みの人物が立体視可能範囲A1内にいるかどうか判断する(ステップS350)。複眼撮影装置10は、特徴点情報を登録済みの人物が立体視可能範囲A1内にいると判断した場合(ステップS350のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS352)。なお、ステップS350及びS352の判断工程は上記の実施形態と同様である。
【0182】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS352のYes)、タイマーを起動して時間のカウントを開始する(ステップS354)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS356)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS358)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS360)。
【0183】
本実施形態によれば、予め登録した人物(ユーザとユーザ以外の被写体となりうる人物)がすべて立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。
【符号の説明】
【0184】
10…複眼カメラ、12…撮影部、14…CPU、16…操作部、18…表示部、20…記録部、22…撮影レンズ、24…フォーカスレンズ、26…ズームレンズ、28…絞り、30…メカシャッタ、32…光学系駆動部、34…撮像素子、36…タイミング・ジェネレータ、38…アンプ、40…アナログ信号処理部、50…発光部、60…フラッシュ発光部、70…スピーカ
【技術分野】
【0001】
本発明は複眼撮影装置及び撮影方法に係り、特に立体視可能な画像表示を行うための画像を撮影する複眼撮影装置及び撮影方法に関する。
【背景技術】
【0002】
特許文献1から3には、左右の視差画像を撮影する撮影装置において輻輳制御を自動化することが開示されている。特許文献1から3には、検出した被写体距離と前回更新した被写体距離との差分の絶対値が所定値より大きい状態が所定時間継続した場合に限って、検出した被写体距離に輻輳距離を設定することが開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2001−16618号公報
【特許文献2】特開2001−16619号公報
【特許文献3】特開2001−16620号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
立体視可能な画像表示を行うための左右の視差画像を撮影する場合、被写体が撮影装置に近すぎると視差ズレが大きくなり、立体表示画像(3D画像)がブレてしまう。一方、被写体が撮影装置から遠すぎると視差ズレが小さくなり、立体感が得られなくなるという現象が発生する。
【0005】
セルフタイマー機能を利用して視差画像を撮影する場合、被写体であるユーザは、画角や構図を決めた後に撮影装置の視野内に移動することになるため、3D画像を確認しながら撮影することができない。このため、ユーザは、視差画像が撮影可能な範囲(視差ズレが大きくなりすぎず且つ小さくなりすぎない範囲)内に自分がいるかどうか判断することが困難であるため、撮影に失敗しやすい。
【0006】
特許文献1から3に記載の発明は、輻輳角が固定された複眼撮影装置に適用することは不可能である。また、特許文献1から3に記載の発明は、セルフタイマー撮影に着目してなされたものではない。更に、特許文献1から3に記載の発明は、検出した被写体距離と前回更新した被写体距離との差分の絶対値を所定時間監視した結果に応じて輻輳制御を行うものであり、輻輳角が固定された複眼撮影装置において画角及び構図を決めてからセルフタイマー撮影を行う場合における視差画像の撮影の失敗を防止するという課題を解決するものではない。
【0007】
本発明はこのような事情に鑑みてなされたもので、輻輳角が固定された複眼撮影装置によりセルフタイマー機能を利用して立体表示用の視差画像の撮影を行う場合に、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止するための複眼撮影装置及び撮影方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明の第1の態様に係る複眼撮影装置は、所定の輻輳角をなすように固定された第1及び第2の撮影部と、ユーザからの撮影指示の入力を受け付ける撮影指示部と、セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部とを備える。
【0009】
上記第1の態様によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。
【0010】
本発明の第2の態様に係る複眼撮影装置は、上記第1の態様において、前記第1の判断部は、前記第1及び第2の撮影部によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0011】
本発明の第3の態様に係る複眼撮影装置は、上記第2の態様において、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップを更に備え、前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0012】
上記第3の態様によれば、上記した効果に加え、ユーザが立体視可能範囲内にいるかどうかの判断基準となるマップを予め備えておくことにより、ユーザが立体視可能範囲内にいるかどうかの判断のための処理時間を短縮することが可能になる。
【0013】
本発明の第4の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断したことを、前記ユーザに報知する報知部を更に備える。
【0014】
上記第4の態様によれば、ユーザの位置が立体視可能範囲内であるかどうかを報知部によりユーザに報知することができる。
【0015】
本発明の第5の態様に係る複眼撮影装置は、上記第1から第3の態様において、前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断部と、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行するようにしたものである。
【0016】
上記第5の態様によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置の前方にいるユーザに上記第2の判断部による判断結果を報知することができる。
【0017】
本発明の第6の態様に係るは、上記第4又は第5の態様において、前記報知部を補助光発光部又はフラッシュ発光部としたものである。
【0018】
本発明の第7の態様に係るは、上記第4から第6の態様において、前記報知部を音声出力部としたものである。
【0019】
上記第6及び第7の態様によれば、既存の補助光発光部、フラッシュ発光部又は音声出力部をユーザへの報知に用いたので、複眼撮影装置の製造コストを抑制することができる。
【0020】
本発明の第8の態様に係る複眼撮影装置は、上記第1から第7の態様において、前記所定時間を変更する変更部を更に備える。
【0021】
上記第8の態様によれば、ユーザ等が撮影時の姿勢を決めるまでの所定時間の自由に設定できるので、ユーザの意図通りの撮影を容易にすることができる。
【0022】
本発明の第9の態様に係る複眼撮影装置は、上記第1から第8の態様において、前記ユーザの特徴点情報を記録する特徴点情報記録部を更に備え、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。
【0023】
上記第9の態様によれば、上記した効果に加え、予め記録しておいたユーザの特徴点情報により検出対象を絞り込むことができるので、ユーザの検出処理に要する時間を短縮することができる。
【0024】
本発明の第10の態様に係る複眼撮影装置は、上記第9の態様において、前記特徴点情報記録部は、前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報を記録しており、前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行するようにしたものである。
【0025】
上記第10の態様によれば、予め登録した人物(ユーザを含む)がすべて立体視可能範囲内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、予め記録しておいた特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。
【0026】
本発明の第11の態様に係る撮影方法は、所定の輻輳角をなすように固定された第1及び第2の撮影手段を備えた複眼撮影装置によりユーザの視差画像を撮影する撮影方法であって、前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程とを備える。
【0027】
本発明の第12の態様に係る撮影方法は、上記第11の態様の前記第1の判断工程において、前記複眼撮影装置は、前記第1及び第2の撮影手段によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0028】
本発明の第13の態様に係る撮影方法は、上記第12の態様の前記第1の判断工程において、前記複眼撮影装置は、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップと前記特徴点の視差ズレ量とを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断するようにしたものである。
【0029】
本発明の第14の態様に係る撮影方法は、上記第11から第13の態様において、前記ユーザの位置が前記立体視可能範囲内であると判断されたことを、前記複眼撮影装置が前記ユーザに報知する報知工程を更に備える。
【0030】
本発明の第15の態様に係る撮影方法は、上記第11から第13の態様において、前記複眼撮影装置が前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程とを更に備える。
【0031】
本発明の第16の態様に係る撮影方法は、上記第11から第15の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記ユーザの特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断するようにしたものである。
【0032】
本発明の第17の態様に係る撮影方法は、上記第16の態様の前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行するようにしたものである。
【発明の効果】
【0033】
本発明によれば、第1及び第2の撮像部の輻輳角が固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、ユーザの位置が立体視可能範囲内であることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。
【図面の簡単な説明】
【0034】
【図1】本発明の第1の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図2】本実施形態に係る複眼撮影装置により視差画像をセルフタイマー撮影する方法を説明するための図
【図3】本発明の第1の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図4】ユーザの位置の判断方法を説明するための図
【図5】複眼撮影装置のポストビュー表示を示す図
【図6】本発明の第2の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図7】立体視可能範囲A1と視差ズレ量の対応関係を示すマップ
【図8】本発明の第3の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図9】本発明の第3の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図10】本発明の第4の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図11】本発明の第5の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図12】本発明の第6の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図13】本発明の第6の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図14】本発明の第7の実施形態に係る複眼撮影装置の主要構成を示すブロック図
【図15】本発明の第7の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図16】本発明の第8の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図17】本発明の第9の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図18】ユーザの特徴点情報の登録処理を示すフローチャート
【図19】本発明の第10の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【図20】本発明の第11の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャート
【発明を実施するための形態】
【0035】
以下、添付図面に従って本発明に係る複眼撮影装置及び撮影方法の好ましい実施の形態について説明する。
【0036】
[第1の実施形態]
まず、本実施形態に係る複眼撮影装置の構成について、図1のブロック図を参照して説明する。
【0037】
図1に示すように、複眼撮影装置10は、2つの撮影部12−1及び12−2を備えている。なお、撮影部12は2つ以上設けてもよい。
【0038】
複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の画像データを合成する。例えば、複眼撮影装置10は、撮影部12−1及び12−2によって撮影した2枚の視差画像データを合成して立体視表示用の画像の作成及び表示を行う。複眼撮影装置10は、上記視差画像データを、1つの記録用画像ファイルに格納する。また、複眼撮影装置10は、ブラケット撮影時、動画撮影時及び連写撮影した複数フレームの画像データをつなぎ合わせて1つの記録用画像ファイルに格納する。
【0039】
この複数フレームの画像を記録するフォーマットとしては、例えば“マルチピクチャフォーマット”などが知られているが、それに限られるものではない。(以下の実施例においても同様)
信号処理IC(Integrated Circuit)は、CPU(Central Processing Unit)14を含んでおり、操作部16からの入力に基づき所定の制御プログラムに従って複眼撮影装置10全体の動作を統括制御する手段である。
【0040】
信号処理ICは、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)及びワークメモリ(RAM(Random Access Memory))を含んでいる。ROMには、CPU14が実行する制御プログラム及び制御に必要な各種データ等が格納される。EPROMには、ユーザ設定情報等の複眼撮影装置10の動作に関する各種設定情報等が格納されるものであり、EEPROMとしては電源を切っても記憶内容が消去されない不揮発性メモリが使用される。ワークメモリは、CPU14の演算作業用領域及び画像データの一時記憶領域を含んでいるものであり、通常はコスト面から揮発性メモリであるダイナミックRAMが使用される。
【0041】
操作部16は、ユーザが各種の操作入力を行うための操作手段であり、電源のオン、オフの切り替えを行う電源スイッチ、複眼撮影装置10の動作モードの切り替えを行うモードダイヤル、レリーズスイッチ及びズームボタンを含んでいる。
【0042】
モードダイヤルは、複眼撮影装置10の動作モードの切り替え入力を行うための操作手段であり、モードダイヤルの設定位置に応じて、2次元の画像(静止画、動画)を撮影する2Dモードと、立体視用の画像(静止画、動画)を撮影する3Dモードと、画像の再生を行う再生モードとの間で動作モードが切り替えられる。
【0043】
レリーズスイッチは、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。静止画を撮影するモードの時には、レリーズスイッチが半押しされると(S1オン)、撮影準備処理(例えば、自動露出調整処理(AE(Automatic Exposure))、自動焦点合わせ処理(AF(Auto Focus))、自動ホワイトバランス調整処理(AWB(Automatic White Balance)))が行われる。そして、レリーズスイッチが全押しされると(S2オン)、静止画の撮影・記録処理が行われる。また、動画を撮影するモードの時には、レリーズスイッチが全押しされると動画の撮影が開始され、再度全押しされると動画の撮影が終了する。なお、静止画撮影用のレリーズスイッチ及び動画撮影用のレリーズスイッチを別々に設けてもよい。
【0044】
ズームボタンは、撮影部12−1及び12−2のズーミング操作を行うための操作手段であり、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとを備えている。
【0045】
表示部18は、例えば、カラー液晶パネル(LCD(Liquid Crystal Display))を備えた表示装置である。表示部18は、撮影された画像を表示する表示部として機能するとともに、複眼撮影装置10の各種機能に関する設定を行うときのユーザインターフェースとして機能する。また、表示部18は、撮影モード時に画角を確認するためのライブビュー画像を表示する電子ファインダとして機能する。
【0046】
表示部18は、3Dモード時に、ユーザ、観察者が立体視可能な立体視用(3D)画像を表示する機能を有する。3D画像の表示方式としては、例えば、ライト・ディレクション・コントロール・システム(Light Direction Control System)が採用される。ライト・ディレクション・コントロール・システムでは、左眼用の画像データをLCDに表示して、バックライトパネルによってユーザの左眼に届くように指向性をもたせた照明光をLCDに照射する処理と、右眼用の画像データをLCDに表示して、バックライトパネルによってユーザの右眼に届くように指向性をもたせた照明光をLCDに照射する処理とを交互に(例えば、1/60秒間隔で)繰り返す。これにより、相互に視差のある左眼用画像と右眼用画像が、ユーザの左右の眼によって交互に観察可能になるので、ユーザは立体的な画像を観察することができる。立体視用画像を表示する方法にはたくさんの方式があり、どれを使用してもよい。
【0047】
記録部20は、撮影された画像ファイル及び各種のデータを記録する。記録部20は、例えば、SDメモリカード(登録商標)又はxDピクチャカード(登録商標)のような着脱可能な記録メディアでもよいし、複眼撮影装置10の本体に内蔵されているメモリでもよい。ただし、複眼撮影装置10の本体に内蔵されているメモリを使用する場合は、カメラ本体の電源を切った場合でも画像が消去されないように不揮発性メモリを使用する必要がある。
【0048】
次に、複眼撮影装置10の撮影機能について説明する。なお、図1では、各撮影部12−1及び12−2等にそれぞれ符号1及び2を付して区別しているが、各部の機能は略同様であるため、以下の説明では、符号1及び2を適宜省略して説明する。
【0049】
各撮影部12は、フォーカスレンズ24、ズームレンズ26、絞り28及びメカシャッタ30を含む撮影レンズ(撮影レンズ)22を備えている。本実施形態では、撮影レンズ22−1及び22−2の輻輳角θは固定されている。
【0050】
フォーカスレンズ24及びズームレンズ26は、各撮影部12の光軸に沿って前後に移動する。CPU14は、光学系駆動部32に設けられたフォーカスアクチュエータの動作を制御して、フォーカスレンズ24の位置を調整してフォーカシングを行う。また、CPU14は、光学系駆動部32に設けられたズームアクチュエータの動作を制御して、ズームレンズ26の位置を調整してズーミングを行う。また、CPU14は、光学系駆動部32に設けられた絞りアクチュエータの駆動を制御することにより、絞り28の開口量(絞り値)を調整して撮像素子34への入射光量を制御する。
【0051】
メカシャッタ30は、撮像素子34からデータを読み出すときに閉じられる。これにより、データ読み出し時に撮像素子34に入射する光が遮光される。
【0052】
CPU14は、3Dモード時に、各撮影部12−1及び12−2の撮影レンズ22−1及び22−1(即ち、フォーカスレンズ24−1及び24−2、ズームレンズ26−1及び26−2、絞り28−1及び28−2)を同期させて駆動する。即ち、撮影部12−1及び12−2は、3Dモード時に、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ入射光量(絞り値)となるように絞りが調整される。更に、3Dモード時には、常に同じ被写体にピントが合うように焦点調節が行われる。
【0053】
撮像素子34は、例えば、カラーCCD(Charge Coupled Device)固体撮像素子である。撮像素子34−1と撮像素子34−2は、サイズ及び飽和特性が同じものであってもよいし、相互に異なっているものであってもよい。なお、撮像素子34としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等のCCD以外の撮像素子を用いることもできる。
【0054】
撮像素子34の受光面には、多数のフォトダイオードが2次元的に配列されている。各フォトダイオードには所定の色(例えば、赤(R)、緑(G)、青(B)の3原色)のカラーフィルタが所定の配列となるように配置されている。なお、カラーフィルタの色はR,G,Bの3原色に限定されるものではなく、例えば、補色系のカラーフィルタを用いることも可能である。撮影部12を介して撮像素子34の受光面上に被写体光が結像されると、この被写体光はフォトダイオードによって入射光量に応じた信号電荷に変換される。撮像素子34は、電子シャッタ機能を備えており、CPU14はフォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)を制御する。各フォトダイオードに蓄積された信号電荷は、CPU14の指令に従ってタイミング・ジェネレータ(TG)36から与えられる駆動パルスに基づいて、電荷量に応じた画像信号(R、G、B信号)として撮像素子34から順次読み出される。撮像素子34から読み出された画像信号は、アンプ38を経てアナログ信号処理部40に入力される。
【0055】
アナログ信号処理部40は、撮像素子34から出力されたR、G、B信号に含まれるリセットノイズ(低周波)を除去するための相関2重サンプリング(CDS(Correlated Double Sampling))回路、R、G、B信号を増幅して一定レベルの大きさにコントロールするためのAGC(Automatic Gain Control)回路、アナログ信号をデジタル信号に変換するA/D変換器を含んでいる。撮像素子34から出力されるアナログのR、G、B信号は、アナログ信号処理部40によって相関2重サンプリング処理されるとともに増幅される。アナログ信号処理部40におけるR、G、B信号の増幅ゲインは撮影感度(ISO感度)に相当する。CPU14は、被写体の明るさ等に応じて、この増幅ゲインを調整することにより撮影感度を設定する。なお、感度が等しい2つの撮像素子を用いて画像を撮影する場合(3Dモード)、このゲインは、[1]系アナログ信号処理部40−1と[2]系アナログ信号処理部40−2とで同じ値に設定される。
【0056】
ゲイン調整されたアナログのR、G、B信号は、A/D変換器によってデジタルのR、G、B信号に変換された後、バッファメモリを介して信号処理IC14に入力される。
【0057】
上記のようにして生成されたデジタルのR、G、B信号は、信号処理ICによって、所定の処理(例えば、単板撮像素子のカラーフィルタ配列に伴う色信号の空間的なズレを補間してR、G、Bの色信号を作る処理)、ホワイトバランス調整処理、階調変換(ガンマ補正)処理及び輪郭補正処理が施されて、輝度信号(Y信号)及び色差信号(Cr、Cb信号)、即ち、Y/C信号に変換される。
【0058】
静止画や動画を撮影する場合の画角を確認するための画像であるライブビュー画像(スルー画像)を表示部18に表示する場合、撮像素子34に蓄積された画像信号が所定時間間隔で間引き読み出しされる。この読み出された画像信号は、信号処理ICによって、所定の処理が施されるとともに、Y/C信号に変換される。そして、このY/C信号は、表示部18の表示に適した信号(例えば、R、G、B信号)に変換された後、1フレーム分ずつ表示部18に出力される。これにより、表示部18に画角確認用の動画(スルー画像)が表示される。2Dモード時には、1つの撮影部12のみからスルー画像用の画像信号の読み出しが行われる。一方、3Dモード時には、左右の撮影部12−1及び12−2の両方からスルー画像用の画像信号の読み出しが行われ、両方の画像を用いて3Dのスルー画像(動画)の表示が行われる。
【0059】
なお、3Dモード時には、設定によりスルー画像を2D表示とすることができる。この場合、左右の撮影部12−1及び12−2のいずれか一方から得られた画像を用いて作成されたスルー画像が表示される。3Dモード時において被写体の検出(顔検出)を行う場合、当該被写体が立体視可能範囲内にいるかどうかに応じて、上記2Dのスルー画像から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。
【0060】
次に、画像の撮影及び記録処理について説明する。2Dモード時には、所定の1つの撮影部(例えば、12−1)により記録用の画像が撮影される。なお、撮影部12−1、12−2(撮影レンズ22、撮像素子34等)の特性を互い異なるものにして、2Dモード時にどちらの撮影部を使用するかをユーザが選択できるようにしてもよい。
【0061】
2Dモード時に、撮影部12−1によって撮影された画像は、信号処理ICによって圧縮される。圧縮された画像データは、所定形式の画像ファイルとして記録部20に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)、動画についてはMPEG2又はMPEG4、H.264等の規格に準拠した圧縮画像ファイルとして記録される。ただし、圧縮方式はこれらに限るものではない。
【0062】
3Dモード時には、撮影部12−1及び12−2によって同期して画像が撮影される。上記3Dモード時には、AF処理及びAE処理は、撮影部12−1及び12−2のいずれか一方によって取得された画像信号に基づいて行われる。上記3Dモード時には、各撮影部12−1及び12−2によって撮影された2視点の画像は、それぞれ圧縮されて1つのファイルに格納されて記録部20に記録される。ファイルには、2視点の圧縮画像データとともに、被写体距離情報、撮影部12の撮影レンズの間隔及び輻輳角に関する情報が格納される。
【0063】
再生モード時には、記録部20に記録されている最終の画像ファイル(最後に記録された画像ファイル)が読み出されて、信号処理ICによって非圧縮のY/C信号に伸張される。この非圧縮のY/C信号は、R、G、B信号に変換された後表示部18に出力される。これにより、記録部20に記録されている画像ファイルが表示部18に表示される。
【0064】
3Dモードで撮影された画像の再生時には、設定により3D表示と2D表示とを選択することができる。画像中から被写体の検出(顔検出)を行う場合、撮影時に当該被写体が立体視可能範囲内にいたかどうかに応じて、上記2D表示から検出された被写体に付される図形(例えば、顔検出枠)の色を変えるようにしてもよい。
【0065】
[セルフタイマー撮影]
次に、セルフタイマー撮影時における複眼撮影装置10の処理について説明する。
【0066】
図2は、本実施形態に係る複眼撮影装置により視差画像をセルフタイマー撮影する方法を説明するための図である。
【0067】
図2に示すように、複眼撮影装置10の輻輳角θは固定されており、左右の撮影レンズ22−1及び22−2の光軸(それぞれL1,L2)は、複眼撮影装置10の前方のクロスポイントPcにおいて交わっている。左右の撮影レンズ22−1及び22−2の間隔(ステレオベース)をX(mm)、クロスポイントPcと複眼撮影装置10との間の距離をY(mm)とすると、輻輳角θは、θ=tan−1(X/2Y)により表される。
【0068】
クロスポイントPcは、被写体を立体視する(立体視可能な視差画像を撮影する)ために最適な被写体の位置である。立体視可能範囲A1は、被写体を立体視することが可能な被写体までの距離範囲である。図2において、立体視可能範囲A1は、クロスポイントPcから複眼撮影装置10に近づく側に距離W1、クロスポイントPcを起点として複眼撮影装置10から遠ざかる側に距離W2の範囲である。
【0069】
立体視可能範囲A1は、ステレオベースX、撮像素子34−1及び34−2の有効領域の幅、撮影レンズ22−1及び22−2の焦点距離及び許容視差量に基づいて定められる。
【0070】
立体視可能範囲A1の複眼撮影装置10に最も近い点を近点Pn、複眼撮影装置10から最も遠い点を遠点Pfとする。φ=90°−θ、近点Pnにおける視差ズレ量をδ1(°)、遠点Pfにおける視差ズレ量をδ2(°)とすると、近点Pnと左レンズ22−2との距離Yn(=Y−W1)、遠点Pfと左レンズ22−2との距離Yf(=Y+W2)は、それぞれ下記の式(1)及び(2)により表される。
【0071】
Yn=X/2×tan(φ−δ1) …(1)
Yf=X/2×tan(φ+δ2) …(2)
立体視可能範囲A1は、一例でδ1≦30°,δ2≦7°〜8°の範囲(範囲A)である。最近の調査では、立体視可能範囲A1は、好ましくはδ1≦3.34°,δ2≦3.05°の範囲(範囲B)であり、より好ましくはδ1≦1.84°,δ2≦2.04°の範囲(範囲C)と言われている。
【0072】
図2では、計算を簡単にするために、左右の撮影レンズ22−1及び22−2の両方に角度をつけてクロスポイントPcを作っているが、左右どちらかの撮影レンズを固定してもよいことはもちろんである。
【0073】
なお、複眼撮影装置10が、各範囲A,B,Cにユーザが出入りしたことを検知したときに、ユーザにその旨を報知するようにしてもよい。
【0074】
図3は、本発明の第1の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0075】
まず、複眼撮影装置10の電源がオンになると(ステップS10)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS12)。
【0076】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS14)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS16)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS18)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS20)。なお、3Dモードで起動された場合に、デフォルトでセルフタイマーモードに設定されるようにしてもよい。
【0077】
図4は、ユーザの位置の判断方法を説明するための図である。
【0078】
複眼撮影装置10は、左右の視差画像(左画像IMGL、右画像IMGR)からユーザを検出する。ここで、ユーザの検出は、例えば、顔検出処理により行われる。顔検出処理の方式としては、例えば、肌色に予め指定された色と近い色をもつ画素を原画像から取り出し、取り出した領域を顔領域として検出するものがある。この顔検出処理の方式では、例えば、肌色を他の色と区別するための色空間上で、予めサンプリングした肌色の情報から色空間上の肌色の範囲を定める。複眼撮影装置10は、例えば、画像中から検出した肌色領域ごとに、肌色の度合等に基づいて顔らしさの評価値(顔らしさ度)を算出する。そして、複眼撮影装置10は、上記顔らしさ度が所定値以上の肌色領域を顔領域と判断する。また、耳の検出処理の方式としては、例えば、上記顔検出処理によって検出された肌色の領域の中から左右に2つ並ぶ黒色を含む領域(目の領域)を検出し、こうして検出した目の領域の位置を基準として肌色領域の端部付近を耳の領域として検出するものがある。
【0079】
次に、複眼撮影装置10は、左画像IMGL及び右画像IMGR中のユーザ(顔)の特徴点(それぞれPL、PR)を検出し、左画像IMGLと右画像IMGRとを重ねたときの特徴点PLとPRとのズレ量を測定する。そして、複眼撮影装置10は、このズレ量の絶対値(特徴点が複数の場合には、対応する特徴点間のズレ量の絶対値の合計値、平均値又は最大値)が所定値以下の場合、又は左画像IMGL、右画像IMGRの中心線(それぞれLL、LR)と特徴点PL、PRとの間の距離の絶対値の合計値、平均値又は最大値が所定値以下の場合にユーザの位置が立体視可能範囲A1内にあると判断する。
【0080】
複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS20のYes)、タイマーを起動して時間のカウントを開始する(ステップS22)。そして、予め設定された時間(例えば、数秒)が経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS24)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS26)。また、図5に示すように、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS28)。
【0081】
本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。
【0082】
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
【0083】
本実施形態は、立体視可能範囲A1と視差ズレ量との関係を予めマップとして記録しておき、このマップに基づいて、ユーザが立体視可能範囲A1内にいるかどうかを判断するようにしたものである。
【0084】
図6は、本発明の第2の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0085】
まず、複眼撮影装置10の電源がオンになると(ステップS30)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく立体視のライブビュー画像(スルー画像)を表示部18に表示する(ステップS32)。
【0086】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS34)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS36)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS38)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS40)。
【0087】
図7は、立体視可能範囲A1と視差ズレ量の対応関係を示すマップである。
【0088】
図7に示すように、マップM1には、視差ズレ量(角度)と立体視可能範囲であるかどうかを示す値が関連付けられて格納される。マップM1は、信号処理ICのROM又はEPROMに格納される。参照アドレスは、上記ROM又はEPROMにおけるデータの格納位置を示している。
【0089】
複眼撮影装置10は、上記実施形態と同様、左画像IMGL及び右画像IMGRに対してそれぞれ顔検出処理を施し、検出したユーザ(顔)の特徴点(それぞれPL、PR)を検出する。そして、複眼撮影装置10は、左画像IMGLと右画像IMGRとを重ねたときの特徴点PLとPRとのズレ量を測定する。複眼撮影装置10は、このズレ量の絶対値とマップM1に基づいて、ユーザの位置が立体視可能範囲A1内にあるかどうかを判断する。
【0090】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS40のYes)、下記のアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS42)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS44)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS46)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS48)。
[アルゴリズム]
IF ((ズレ量)≧min or (ズレ量)≦MAX)
{タイマー起動する}
else
本実施形態によれば、輻輳角θが固定された複眼撮影装置によりセルフタイマー撮影を行う場合に、立体視可能範囲A1内にユーザがいることを検出した後に、タイマーのカウントを開始するようにしたので、視差画像が撮影可能な範囲外にユーザが位置して撮影が失敗するのを防止することが可能になる。また、ユーザが立体視可能範囲A1内にいるかどうかの判断基準となるマップM1を予め記憶しておくことにより、ユーザが立体視可能範囲A1内にいるかどうかの判断のための処理時間を短縮することが可能になる。
【0091】
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0092】
図8は、本発明の第3の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。
【0093】
図8に示すように、本実施形態に係る複眼撮影装置10は、発光部50を備えている。発光部50は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。発光部50は、オートフォーカス時に被写体に光を照射して、AF検出を精度よく行うためのものである。
【0094】
本実施形態は、上記発光部50を用いて、立体視可能範囲A1内にいるかどうかをユーザに報知するようにしたものである。
【0095】
図9は、本発明の第3の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0096】
まず、複眼撮影装置10の電源がオンになると(ステップS50)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS52)。
【0097】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS54)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS56)、複眼撮影装置10は、後述のステップS64が終了するまで発光部50を発光させるとともに(ステップS58)、ユーザ(被写体)の位置の検出を開始する(ステップS60)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS62)。なお、ステップS62の判断工程については、上記第1及び第2の実施形態と同様である。
【0098】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS62のYes)、発光部50を点滅させて(ステップS64)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS66)、タイマーを起動して時間のカウントを開始する(ステップS68)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS70)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS72)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS74)。
【0099】
本実施形態によれば、セルフタイマーで視差画像を撮影するときに、発光部50により、ユーザの位置が立体視可能範囲A1内であるかどうかをユーザに報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0100】
なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。
【0101】
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0102】
本実施形態は、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて、立体視可能な3D表示を行うことが可能かどうかを判断し、複眼撮影装置10の前方にいるユーザに上記判断結果を報知し、必要に応じて再撮影するようにしたものである。
【0103】
図10は、本発明の第4の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0104】
まず、複眼撮影装置10の電源がオンになると(ステップS80)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS82)。
【0105】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS84)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS86)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS88)、ユーザ(被写体)の位置の検出を開始する(ステップS90)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS92)。なお、ステップS92の判断工程については上記の実施形態と同様である。
【0106】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS92のYes)、発光部50を点滅させて(ステップS94)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS96)、タイマーを起動して時間のカウントを開始する(ステップS98)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS100)。
【0107】
次に、複眼撮影装置10は、ステップS100において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS102)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS92と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS106)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS108)。
【0108】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の立体視画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS104)。
【0109】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS108のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS110)。
【0110】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS108のNo)、点滅していた発光部50を発光させて(ステップS112)、撮影の失敗をユーザに報知する(ステップS114)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS92からS114)。
【0111】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0112】
なお、本実施形態では、レリーズスイッチが押下された時点で発光部50を発光させ、ユーザが立体視可能範囲A1内に入った時点で発光部50を点滅させ、撮影の失敗時に発光部50を再点灯させるようにしたが、発光の仕方は上記に限定されるものではない。発光色、発光量及び点滅の時間間隔、及びこれらの組み合わせで、レリーズスイッチの押下、立体視可能範囲A1内にユーザが入ったことを示すようにしてもよい。
【0113】
[第5の実施形態]
次に、本発明の第5の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0114】
図11は、本発明の第5の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0115】
まず、複眼撮影装置10の電源がオンになると(ステップS120)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS122)。
【0116】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS124)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS126)、複眼撮影装置10は、発光部50を発光させるとともに(ステップS128)、ユーザ(被写体)の位置の検出を開始する(ステップS130)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS132)。なお、ステップS132の判断工程については上記の実施形態と同様である。
【0117】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS132のYes)、発光部50の発光色を変化(遷移)させて(ステップS134)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS136)、タイマーを起動して時間のカウントを開始する(ステップS138)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS140)。
【0118】
次に、複眼撮影装置10は、ステップS140において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS142)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS132と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS146)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS148)。
【0119】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS144)。
【0120】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS148のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS150)。
【0121】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS148のNo)、発光部50の発光色をステップS128の発光色に戻し(ステップS152)、撮影の失敗をユーザに報知する(ステップS154)。そして、ステップS92に戻り、再び視差画像の撮影を実行する(ステップS132からS154)。
【0122】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のAF補助光の発光部50をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0123】
[第6の実施形態]
次に、本発明の第6の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0124】
図12は、本発明の第6の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。
【0125】
図12に示すように、本実施形態に係る複眼撮影装置10は、フラッシュ発光部60を備えている。フラッシュ発光部60は、例えば、発光ダイオード(LED)を含む発光部であり、複眼撮影装置10の前面(撮影レンズ22が設けられている面)に設けられている。フラッシュ発光部60は、AEの結果又はユーザの設定に応じて撮影時に被写体に光を照射するためのものである。
【0126】
本実施形態は、上記フラッシュ発光部60を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。
【0127】
図13は、本発明の第6の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0128】
まず、複眼撮影装置10の電源がオンになると(ステップS160)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS162)。
【0129】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS164)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS166)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS168)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS170)。なお、ステップS170の判断工程については上記の実施形態と同様である。
【0130】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS170のYes)、フラッシュ発光部60をプリ発光させた後点滅させて(ステップS172)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS174)、タイマーを起動して時間のカウントを開始する(ステップS176)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS178)。
【0131】
次に、複眼撮影装置10は、ステップS178において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS180)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS170と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS184)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS186)。
【0132】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS182)。
【0133】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS186のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS188)。
【0134】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS186のNo)、フラッシュ発光部60再発光させて(ステップS190)、撮影の失敗をユーザに報知する(ステップS192)。そして、ステップS170に戻り、再び視差画像の撮影を実行する(ステップS170からS192)。
【0135】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のフラッシュ発光部60をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0136】
[第7の実施形態]
次に、本発明の第7の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0137】
図14は、本発明の第7の実施形態に係る複眼撮影装置の主要構成を示すブロック図である。
【0138】
図14に示すように、本実施形態に係る複眼撮影装置10は、スピーカ70を備えている。スピーカ70は、不図示のマイクを介して録音された音声(いわゆるボイスメモ等)を再生するためのものである。
【0139】
本実施形態は、上記スピーカ70を用いて、立体視可能範囲A1内にいるかどうかと、セルフタイマー撮影した視差画像IMGL及びIMGRに基づいて立体視可能な3D表示を行うことが可能かどうかの判断結果をユーザに報知するようにしたものである。
【0140】
図15は、本発明の第7の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0141】
まず、複眼撮影装置10の電源がオンになると(ステップS200)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS202)。
【0142】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS204)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS206)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS208)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS210)。なお、ステップS210の判断工程については上記の実施形態と同様である。
【0143】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS210のYes)、立体視可能範囲A1内に入ったことをスピーカ70から音声出力させ(ステップS212)、ユーザの位置が立体視可能範囲A1内であることをユーザに報知するとともに(ステップS214)、タイマーを起動して時間のカウントを開始する(ステップS216)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS218)。
【0144】
次に、複眼撮影装置10は、ステップS218において撮影された視差画像IMGL及びIMGRから撮影実行時におけるユーザの動きを測定する(ステップS220)。複眼撮影装置10は、視差画像IMGL及びIMGRから被写体の特徴点を抽出し、上記ステップS210と同様にして、上記特徴点の位置に基づいて視差ズレ量を検出する(ステップS224)。そして、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能であるかどうか、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていないかどうかの判断を行う(ステップS226)。
【0145】
また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS222)。
【0146】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていなかったと判断すると(ステップS226のYes)、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS228)。
【0147】
一方、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく立体視可能な3D表示が不可能である、即ち、視差画像IMGL及びIMGRの撮影時にユーザが動いて立体視可能範囲A1から出ていたと判断すると(ステップS226のNo)、立体視可能な視差画像の撮影に失敗したことをスピーカ70から音声出力させて(ステップS230)、撮影の失敗をユーザに報知する(ステップS232)。そして、ステップS210に戻り、再び視差画像の撮影を実行する(ステップS210からS232)。
【0148】
本実施形態によれば、セルフタイマーで視差画像を撮影した視差画像に基づいて立体視可能な3D表示が可能であるかどうかを判断して、複眼撮影装置10の前方にいるユーザに上記判断結果を報知することができる。また、既存のスピーカ70をユーザへの報知に用いたので、複眼撮影装置10の製造コストを抑制することができる。
【0149】
[第8の実施形態]
次に、本発明の第8の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0150】
本実施形態は、上記第3の実施形態において、セルフタイマーの時間をユーザが手動で調整できるようにしたものである。
【0151】
図16は、本発明の第8の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0152】
まず、複眼撮影装置10の電源がオンになると(ステップS240)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS242)。
【0153】
次に、複眼撮影装置10は、セルフタイマーモードに設定されると(ステップS244)、タイマー時間(ステップS262における立体視可能範囲A1内にユーザが入ったことを検出してから撮影を実行するまでの時間)の設定画面(GUI)を表示部18に表示し、タイマー時間の設定入力を受け付ける(ステップS246)。以下、ステップS248からS266の処理については、上記図9のステップS56からS74と同様である。
【0154】
本実施形態によれば、ユーザ等が撮影時の姿勢を決めるまでの時間の自由に設定することができるので、ユーザの意図通りの撮影を容易にすることができる。
【0155】
[第9の実施形態]
次に、本発明の第9の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0156】
図17は、本発明の第9の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0157】
まず、複眼撮影装置10の電源がオンになると(ステップS270)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS272)。
【0158】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS274)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS276)、複眼撮影装置10は、ユーザ(被写体)の位置の検出を開始する(ステップS278)。そして、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS280)。なお、ステップS280の判断工程については上記の実施形態と同様である。
【0159】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS280のYes)、立体視可能範囲A1内にユーザ以外の被写体がいるかどうか判断する(ステップS282)。ステップS282では、複眼撮影装置10は、例えば、ステップS272のスルー画像に対して顔検出処理を行い、レリーズスイッチが押下された後に、スルー画像中から新たに検出された(レリーズスイッチ押下前に顔が検出されていた場合にはレリーズスイッチ押下前から増えた)顔をユーザと判断する。
【0160】
複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいると判断すると(ステップS282のYes)、ユーザとユーザ以外の被写体に合わせて撮影制御を行う(ステップS284)。ステップS284では、複眼撮影装置10は、例えば、検出した被写体(ユーザを含む)のすべて又は所定の割合以上が立体視可能範囲A1内にいると判断した場合に、ステップS288に進んでタイマーを起動する。また、複眼撮影装置10は、検出した被写体(ユーザを含む)の中から主要被写体を選択し、上記主要被写体に合わせてAE制御、AF制御及びAWB制御を行う。ここで、主要被写体はユーザ自身としてもよいし、又は顔領域の大きさ、複眼撮影装置10からの距離及び顔らしさ度のうちの少なくとも1つに基づいて決定されるようにしてもよい。例えば、顔領域が最も大きい、複眼撮影装置10からの距離が最も近い、又は顔らしさ度が最も高い被写体が主要被写体として選択される。
【0161】
一方、複眼撮影装置10は、立体視可能範囲A1内にユーザ以外の被写体がいないと判断すると(ステップS282のNo)、被写体はユーザのみであると判断し、ユーザに合わせて撮影制御を行う(ステップS286)。即ち、複眼撮影装置10は、ユーザに合わせてAE制御、AF制御及びAWB制御を行う。
【0162】
次に、複眼撮影装置10は、タイマーを起動して時間のカウントを開始する(ステップS288)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS290)。
【0163】
次に、複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS292)。また、複眼撮影装置10は、視差画像IMGL及びIMGRに基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS294)。
【0164】
本実施形態によれば、ユーザがレリーズスイッチを押下した時点で、立体視可能範囲A1内に他の人物が既にいた場合であっても、立体視可能範囲A1内にユーザが入ってからセルフタイマー撮影を開始することができるので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。
【0165】
[第10の実施形態]
次に、本発明の第10の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0166】
本実施形態は、ユーザの画像の特徴点情報を複眼撮影装置10に予め登録しておき、特徴点情報に基づいて、ユーザの検出を行うようにしたものである。
【0167】
図18は、ユーザの特徴点情報の登録処理を示すフローチャートである。
【0168】
まず、複眼撮影装置10の電源がオンになると(ステップS300)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS302)。
【0169】
次に、レリーズスイッチが押下(全押し)に応じて、複眼撮影装置10は、人物(ユーザ)の画像を撮影する(ステップS304)。そして、複眼撮影装置10は、撮影した人物画像に対して顔検出処理を施して特徴点を抽出し(ステップS306)、特徴点の座標及び位置関係を示す特徴点情報をEPROM等の記憶手段に記憶する(ステップS308)。
【0170】
図19は、本発明の第10の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0171】
まず、複眼撮影装置10の電源がオンになると(ステップS310)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS312)。
【0172】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS314)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS316)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS318)。
【0173】
次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、検出した人物が特徴点を登録済みの人物であるかどうか判断する(ステップS320)。複眼撮影装置10は、検出した人物が特徴点を登録済みの人物であると判断した場合(ステップS320のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS322)。ステップS322では、複眼撮影装置10は、スルー画像から検出したユーザの特徴点の視差ズレ量と、図7のマップM1に基づいてユーザが立体視可能範囲A1内にいるかどうかを判断する。なお、ステップS322の判断は、例えば、上記第1の実施形態と同様にしてもよい。
【0174】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS322のYes)、上記第2の実施形態で説明したアルゴリズムに従って、タイマーを起動して時間のカウントを開始する(ステップS324)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS326)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS328)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS330)。
【0175】
本実施形態によれば、予め登録した被写体(人物、ユーザ)が立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザがいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体(人物、ユーザ)の検出処理に要する時間を短縮することができる。
【0176】
[第11の実施形態]
次に、本発明の第11の実施形態について説明する。なお、以下の説明において、上記の実施形態と同様の構成については説明を省略する。
【0177】
本実施形態は、ユーザとユーザ以外の被写体となりうる人物の両方について特徴点情報の登録処理を行い、この特徴点情報に基づいてユーザとユーザ以外の被写体(人物)が立体視可能範囲A1内にいるかどうかの判断を行うようにしたものである。
【0178】
図20は、本発明の第11の実施形態に係る視差画像のセルフタイマー撮影方法を示すフローチャートである。
【0179】
まず、複眼撮影装置10の電源がオンになると(ステップS340)、複眼撮影装置10が3Dモードで起動する。そして、複眼撮影装置10は、各撮影部12−1、12−2によって視差画像を撮影し、この視差画像に基づく3Dのライブビュー画像(スルー画像)を表示部18に表示する(ステップS342)。
【0180】
次に、複眼撮影装置10がセルフタイマーモードに設定され(ステップS344)、レリーズスイッチが押下(全押し)されたことを検出すると(ステップS346)、複眼撮影装置10は、撮影したスルー画像の中に含まれる人物の位置の検出を開始する(ステップS348)。
【0181】
次に、複眼撮影装置10は、スルー画像から検出した人物の特徴点を抽出し、上記人物の特徴点と予め登録された特徴点情報とを比較して、特徴点情報を登録済みの人物が立体視可能範囲A1内にいるかどうか判断する(ステップS350)。複眼撮影装置10は、特徴点情報を登録済みの人物が立体視可能範囲A1内にいると判断した場合(ステップS350のYes)、ユーザが立体視可能範囲A1内にいるかどうかを判断する(ステップS352)。なお、ステップS350及びS352の判断工程は上記の実施形態と同様である。
【0182】
次に、複眼撮影装置10は、ユーザが立体視可能範囲A1内にいると判断すると(ステップS352のYes)、タイマーを起動して時間のカウントを開始する(ステップS354)。そして、予め設定された時間(例えば、数秒)経過すると、撮影部12−1及び12−2により左右の視差画像を撮影する(ステップS356)。複眼撮影装置10は、視差画像IMGL及びIMGRを所定のフォーマットのファイルに格納し、当該ファイルを記録部20に記録する(ステップS358)。また、複眼撮影装置10は、視差画像に基づく撮影確認用の3D画像を表示部18に所定時間表示(ポストビュー表示)する(ステップS360)。
【0183】
本実施形態によれば、予め登録した人物(ユーザとユーザ以外の被写体となりうる人物)がすべて立体視可能範囲A1内に入った場合にセルフタイマー撮影を開始するようにしたので、立体視可能範囲A1内にユーザ及び登録済みの人物がいない状態で撮影が行われるのを防止できる。また、特徴点情報により検出対象を絞り込むことができるので、被写体の検出処理に要する時間を短縮することができる。
【符号の説明】
【0184】
10…複眼カメラ、12…撮影部、14…CPU、16…操作部、18…表示部、20…記録部、22…撮影レンズ、24…フォーカスレンズ、26…ズームレンズ、28…絞り、30…メカシャッタ、32…光学系駆動部、34…撮像素子、36…タイミング・ジェネレータ、38…アンプ、40…アナログ信号処理部、50…発光部、60…フラッシュ発光部、70…スピーカ
【特許請求の範囲】
【請求項1】
所定の輻輳角をなすように固定された第1及び第2の撮影部と、
ユーザからの撮影指示の入力を受け付ける撮影指示部と、
セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、
前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、
前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部と、
を備える複眼撮影装置。
【請求項2】
前記第1の判断部は、前記第1及び第2の撮影部によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項1記載の複眼撮影装置。
【請求項3】
前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップを更に備え、
前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項2記載の複眼撮影装置。
【請求項4】
前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断したことを、前記ユーザに報知する報知部を更に備える請求項1から3のいずれか1項記載の複眼撮影装置。
【請求項5】
前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断部と、
前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、
前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行する、請求項1から3のいずれか1項記載の複眼撮影装置。
【請求項6】
前記報知部は補助光発光部又はフラッシュ発光部である、請求項4又は5記載の複眼撮影装置。
【請求項7】
前記報知部は音声出力部である、請求項4から6のいずれか1項記載の複眼撮影装置。
【請求項8】
前記所定時間を変更する変更部を更に備える請求項1から7のいずれか1項記載の複眼撮影装置。
【請求項9】
前記ユーザの特徴点情報を記録する特徴点情報記録部を更に備え、
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する、請求項1から8のいずれか1項記載の複眼撮影装置。
【請求項10】
前記特徴点情報記録部は、前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報を記録しており、
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、
前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する、請求項9記載の複眼撮影装置。
【請求項11】
所定の輻輳角をなすように固定された第1及び第2の撮影手段を備えた複眼撮影装置によりユーザの視差画像を撮影する撮影方法であって、
前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、
前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程と、
を備える撮影方法。
【請求項12】
前記第1の判断工程において、前記複眼撮影装置は、前記第1及び第2の撮影手段によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項11記載の撮影方法。
【請求項13】
前記第1の判断工程において、前記複眼撮影装置は、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップと前記特徴点の視差ズレ量とを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項12記載の撮影方法。
【請求項14】
前記ユーザの位置が前記立体視可能範囲内であると判断されたことを、前記複眼撮影装置が前記ユーザに報知する報知工程を更に備える請求項11から13のいずれか1項記載の撮影方法。
【請求項15】
前記複眼撮影装置が前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断工程と、
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程と、
を更に備える請求項11から13のいずれか1項記載の撮影方法。
【請求項16】
前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記ユーザの特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する、請求項11から15のいずれか1項記載の撮影方法。
【請求項17】
前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、
前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する、請求項16記載の撮影方法。
【請求項1】
所定の輻輳角をなすように固定された第1及び第2の撮影部と、
ユーザからの撮影指示の入力を受け付ける撮影指示部と、
セルフタイマー撮影の設定を受け付けるタイマー撮影設定部と、
前記タイマー撮影設定部が前記セルフタイマー撮影の設定を受け付けた後に、前記撮影指示部が前記撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断部と、
前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する撮影制御部と、
を備える複眼撮影装置。
【請求項2】
前記第1の判断部は、前記第1及び第2の撮影部によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項1記載の複眼撮影装置。
【請求項3】
前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップを更に備え、
前記第1の判断部は、前記特徴点の視差ズレ量と前記マップとを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項2記載の複眼撮影装置。
【請求項4】
前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断したことを、前記ユーザに報知する報知部を更に備える請求項1から3のいずれか1項記載の複眼撮影装置。
【請求項5】
前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断部と、
前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断したことを前記ユーザに報知する報知部とを更に備え、
前記撮影制御部は、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断部が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を再度実行する、請求項1から3のいずれか1項記載の複眼撮影装置。
【請求項6】
前記報知部は補助光発光部又はフラッシュ発光部である、請求項4又は5記載の複眼撮影装置。
【請求項7】
前記報知部は音声出力部である、請求項4から6のいずれか1項記載の複眼撮影装置。
【請求項8】
前記所定時間を変更する変更部を更に備える請求項1から7のいずれか1項記載の複眼撮影装置。
【請求項9】
前記ユーザの特徴点情報を記録する特徴点情報記録部を更に備え、
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する、請求項1から8のいずれか1項記載の複眼撮影装置。
【請求項10】
前記特徴点情報記録部は、前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報を記録しており、
前記第1の判断部は、前記特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、
前記撮影制御部は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると前記第1の判断部が判断してから所定時間経過後に、前記第1及び第2の撮影部により前記ユーザの視差画像の撮影を実行する、請求項9記載の複眼撮影装置。
【請求項11】
所定の輻輳角をなすように固定された第1及び第2の撮影手段を備えた複眼撮影装置によりユーザの視差画像を撮影する撮影方法であって、
前記複眼撮影装置がセルフタイマー撮影の設定を受け付けた後に、撮影指示の入力を受け付けたときに、前記ユーザの位置を検出し、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する第1の判断工程と、
前記ユーザの位置が前記立体視可能範囲内であると判断されてから所定時間経過後に、前記複眼撮影装置が前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する第1の撮影制御工程と、
を備える撮影方法。
【請求項12】
前記第1の判断工程において、前記複眼撮影装置は、前記第1及び第2の撮影手段によって撮影された画像から前記ユーザの特徴点を検出し、前記特徴点の視差ズレ量に基づいて、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項11記載の撮影方法。
【請求項13】
前記第1の判断工程において、前記複眼撮影装置は、前記ユーザの位置が前記立体視可能範囲内となるような前記特徴点の視差ズレ量が記録されたマップと前記特徴点の視差ズレ量とを比較することにより、前記ユーザの位置が前記立体視可能範囲内であるかどうかを判断する、請求項12記載の撮影方法。
【請求項14】
前記ユーザの位置が前記立体視可能範囲内であると判断されたことを、前記複眼撮影装置が前記ユーザに報知する報知工程を更に備える請求項11から13のいずれか1項記載の撮影方法。
【請求項15】
前記複眼撮影装置が前記ユーザの視差画像から前記ユーザの特徴点を抽出し、前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内であったかどうかを判断する第2の判断工程と、
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと判断したことを前記ユーザに報知する報知工程と、
前記複眼撮影装置が前記視差画像の撮影時に前記ユーザの位置が前記立体視可能範囲内でなかったと前記第2の判断工程が判断した後、前記ユーザの位置が前記立体視可能範囲内であると前記第1の判断工程が判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を再度実行する第2の撮影制御工程と、
を更に備える請求項11から13のいずれか1項記載の撮影方法。
【請求項16】
前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記ユーザの特徴点情報に基づいて、前記ユーザの位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断する、請求項11から15のいずれか1項記載の撮影方法。
【請求項17】
前記第1の判断工程において、前記複眼撮影装置は、予め記録していた前記複眼撮影装置のユーザ及び前記ユーザ以外の人物の特徴点情報に基づいて、前記ユーザ及び前記ユーザ以外の人物の位置が立体視可能な視差画像を撮影可能な立体視可能範囲内であるかどうかを判断し、
前記撮影制御工程において、前記複眼撮影装置は、前記ユーザ及び前記ユーザ以外の人物の位置が前記立体視可能範囲内であると判断してから所定時間経過後に、前記第1及び第2の撮影手段により前記ユーザの視差画像の撮影を実行する、請求項16記載の撮影方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【公開番号】特開2011−33990(P2011−33990A)
【公開日】平成23年2月17日(2011.2.17)
【国際特許分類】
【出願番号】特願2009−182591(P2009−182591)
【出願日】平成21年8月5日(2009.8.5)
【出願人】(306037311)富士フイルム株式会社 (25,513)
【Fターム(参考)】
【公開日】平成23年2月17日(2011.2.17)
【国際特許分類】
【出願日】平成21年8月5日(2009.8.5)
【出願人】(306037311)富士フイルム株式会社 (25,513)
【Fターム(参考)】
[ Back to top ]