説明

データ処理装置および方法、並びにデータ処理プログラムおよびデータ処理プログラムが記録された記録媒体

【課題】映像データから所定のシーンを容易に選択し、ダビングを行うことができるようにする。
【解決手段】例えば撮像装置において、撮像信号に基づく動画データの記録時に、撮像画像に含まれる対象物の画像を検出し(図5A)、検出結果に基づき当該動画データに対して再生区間を指定するための情報が登録されるテーブルを生成する(図5B)。検出の対象となる対象物は、例えば人間の顔である。記録された動画データを他の記録媒体にダビングする際には、このテーブルを用いて、対象物が検出された区間のみを選択的にダビングする(図5C)。これにより、動画データから特定のシーンを抽出してダビングする作業を、極めて容易に行うことができる。

【発明の詳細な説明】
【技術分野】
【0001】
この発明は、映像データから所定部分を容易に抽出可能とする記録装置、記録方法および記録プログラム、ならびに、データ処理装置、データ処理方法およびデータ処理プログラムに関する。
【背景技術】
【0002】
近年では、携帯型のビデオカメラ装置などでも、ハードディスクを内蔵し、撮像された動画データを記録する記録媒体として用いた製品が多く開発されている。一例として、数10GB(Giga Byte)乃至数100GB、若しくはそれ以上の記録容量を有するハードディスクを内蔵し、被写体を撮影して得られた映像データを所定に圧縮符号化してハードディスクに記録する。記録された映像データは、ハードディスクから再生し復号化してビデオカメラ装置に設けられた表示装置に映出させたり、外部に出力してより画面の大きな表示装置に映出させたりできる。
【0003】
また、ビデオカメラ装置に内蔵されるハードディスクといった内蔵記録媒体は、記録容量が限られている。そのため、記録された映像データを保存するためには、例えば記録可能なタイプのDVD(Digital Versatile Disc)などの、装置に対して着脱可能な記録媒体にダビングする必要がある。また、記録された映像データを、例えば知人などに渡したいような場合にも、内蔵記録媒体に記録された映像データを記録可能なタイプのDVDなどにダビングして渡すのが一般的である。
【0004】
他の例として、記録された映像データを再生して鑑賞する場合、映像データから興味のあるシーン、例えば興味のある人物が登場するシーンを抽出して映像データを編集し、編集された映像データを例えば記録可能なタイプのDVD(以下、「記録可能なタイプのDVD」を単に「DVD」と呼ぶ)に記録すれば、鑑賞したい映像のみを効率よく再生できる。また、この場合、ハードディスクに記録された映像データを、不要なシーンも含めてDVDにダビングする場合に比べて、ダビング時間が短くなり、好ましい。
【0005】
特許文献1には、このような、記録媒体に記録された映像データから興味のあるシーンを抽出して編集し、編集された映像データを集めて他の記録媒体にダビングするようにした技術が記載されている。
【特許文献1】特開2004−221884号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
従来では、このような、映像データから興味のあるシーンを抽出して編集し、編集された映像データをダビングする作業は、ユーザが実際に映像を見ながら手作業で行うしかなかった。例えば、映像データを再生して興味のあるシーンを見つけ出し、そのシーンの開始位置(IN点)および終了点(OUT点)とを指定するという作業を、ユーザが繰り返し行う。このような作業は、大変に手間や時間がかかると共に、作業に不慣れなユーザにとっては、編集作業自体に苦痛を感じてしまうおそれがあるという問題点があった。
【0007】
したがって、この発明の目的は、映像データから所定のシーンを容易に選択し、ダビングを行うことができるようにした記録装置、記録方法および記録プログラム、ならびに、データ処理装置、データ処理方法およびデータ処理プログラムを提供することにある。
【課題を解決するための手段】
【0008】
上述した課題を解決するために、第1の発明は、動画データから対象物の画像を検出する検出部と、第1の記録媒体に対するデータの記録再生を行う記録再生部と、検出部による検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成部と、記録再生部を制御する制御部とを有し、制御部は、検出部で対象物の画像の検出が行われる動画データを第1の記録媒体に記録するように記録再生部を制御することを特徴とする記録装置である。
【0009】
また、第2の発明は、動画データから対象物の画像を検出する検出のステップと、検出のステップによる検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップと、検出のステップで対象物の画像の検出が行われる動画データを第1の記録媒体に記録するステップとを有することを特徴とする記録方法である。
【0010】
また、第3の発明は、動画データから対象物の画像を検出する検出のステップと、検出のステップによる検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップと、検出のステップで対象物の画像の検出が行われる動画データを第1の記録媒体に記録するステップとを有する記録方法をコンピュータに実行させることを特徴とする記録プログラムである。
【0011】
また、第4の発明は、動画データから対象物の画像を検出する検出部と、検出部による検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成部とを有することを特徴とするデータ処理装置である。
【0012】
また、第5の発明は、動画データから対象物の画像を検出する検出のステップと、検出のステップによる検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップとを有することを特徴とするデータ処理方法である。
【0013】
また、第6の発明は、動画データから対象物の画像を検出する検出のステップと、検出のステップによる検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップとを有するデータ処理方法をコンピュータに実行させることを特徴とするデータ処理プログラムである。
【0014】
上述したように、第1、第2および第3の発明は、動画データから対象物の画像を検出した検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録すると共に、対象物の画像の検出が行われる動画データを第1の記録媒体に記録するようにしているため、テーブルに基づき、第1の記録媒体に記録された動画データから対象物の画像が検出された部分を選択的に抽出することができる。
【0015】
また、第4、第5および第6の発明は、動画データから対象物の画像を検出した検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するようにしているため、テーブルに基づき、動画データから対象物の画像が検出された部分を選択的に抽出することができる。
【発明の効果】
【0016】
第1、第2および第3の発明は、上述したように、動画データから対象物の画像を検出した検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録すると共に、対象物の画像の検出が行われる動画データを第1の記録媒体に記録するようにしているため、テーブルに基づき、第1の記録媒体に記録された動画データから対象物の画像が検出された部分を選択的に抽出することができる効果がある。
【0017】
また、第4、第5および第6の発明は、動画データから対象物の画像を検出した検出結果に基づき動画データ上の位置を示す位置情報をテーブルに登録するようにしているため、テーブルに基づき、動画データから対象物の画像が検出された部分を選択的に抽出することができる効果がある。
【発明を実施するための最良の形態】
【0018】
以下、この発明の実施の第1の形態について説明する。この発明では、例えば撮像装置において、撮像信号に基づく動画データの記録時に、撮像画像に含まれる対象物の画像を検出し、検出結果に基づき当該動画データに対して再生区間を指定するための情報が登録されるテーブルを生成する。検出の対象となる対象物は、例えば人間の顔である。記録された動画データを他の記録媒体にダビングする際には、このテーブルを用いて、対象物が検出された区間のみを選択的にダビングする。これにより、動画データから特定のシーンを抽出してダビングする作業を、極めて容易に行うことができる。
【0019】
図1〜図5を用いてこの発明について概略的に説明する。図1〜図4は、記録時の処理の例を示す。図1Aに一例が示されるように、記録開始指示に従い動画データの記録が開始され、記録停止指示に従い記録が停止される。ここで、シーンは、動画データに対して所定のマークを設定することで定義されるものとする。すなわち、動画データに対して設定された第1および第2のマークとで1のシーンが形成される。例えば、記録開始時および記録終了時に、マークを自動的に設定することで、記録開始位置および終了位置を区間とするシーンが自動的に形成される。図1Aの例では、記録開始と記録停止とでシーン#1が形成されている。
【0020】
動画データの記録は、例えば、ハードディスクといった装置に内蔵される記録媒体(以下、内蔵記録媒体)に対して行われる。なお、マーク位置を示すマーク情報は、動画データの管理情報として所定に保持される。管理情報は、内蔵記録媒体に対して、対応する動画データと関連付けられて所定のタイミングで記録される。
【0021】
シーン#1の動画データに対して、例えばフレーム毎に画像解析を行い、対象物の画像が含まれているフレームを検出する。以下では、対象物を人間の顔とし、画像解析により人間の顔の画像(以下、顔画像と呼ぶ)が含まれているフレームを検出するものとする。図1Aの例では、シーン#1において、時刻aから時刻bの区間で顔画像が検出されている。なお、時刻aおよび時刻bは、それぞれ、記録開始点など基準となる時刻に対するフレームの再生時刻を示す。
【0022】
顔画像の検出結果は、顔検出プレイリストに登録される。顔検出プレイリストは、図1Bに一例が示されるように、例えば、顔画像が検出された区間毎に、顔画像が検出されたシーンを識別するための情報(この例ではシーン番号)と、顔画像が検出された区間の開始点および終了点をそれぞれ示す時刻情報とが登録されるテーブルである。図1Aの例では、シーン#1における時刻aから時刻bの区間で顔画像が検出されているので、図1Bに例示されるように、リスト番号#1として、シーン番号#1と、時刻aおよび時刻bとが登録される。
【0023】
なお、シーンの開始点および終了点の情報は、動画データの管理情報として別途生成され、記録されるものとする。
【0024】
シーン#1の記録が停止された後、再び記録が開始されてシーン#2が形成され、シーン#2の動画データに対する画像解析の結果、図2Aに一例が示されるように、時刻cから時刻dの区間で顔画像が検出されたものとする。この場合、顔検出プレイリストは、図2Bに一例が示されるように、上述したシーン#1に対する顔画像の検出結果に基づくリスト番号#1の情報に対して、シーン番号#2と、新たに顔画像が検出された区間の開始点および終了点をそれぞれ示す時刻cおよび時刻dとが、リスト番号#2の情報として追加して登録される。
【0025】
図3は、シーンの動画データにおいて顔画像が検出されない場合の例を示す。すなわち、シーン#2の記録が停止された後、再び記録が開始されてシーン#3が形成される。シーン#3の動画データに対する画像解析の結果、図3Aに例示されるように、シーン#3には顔画像が検出されなかった。この場合には、当然のことながら顔検出プレイリストに対して情報が追加されない(図3B参照)。
【0026】
図4は、1のシーンに対して複数の顔画像検出区間が存在する場合の例である。すなわち、シーン#3の記録が停止された後、再び記録が開始されてシーン#4が形成され、シーン#4の動画データに対する画像解析の結果、図4Aに一例が示されるように、時刻eから時刻fの区間と、時刻gから時刻hの区間とでそれぞれ顔画像が検出されているものとする。この場合、顔検出プレイリストに対して、図4Bに例示されるように、新たに顔画像が検出された、時刻eから時刻fの区間に対応する情報と、時刻gから時刻hの区間に対応する情報とがそれぞれ追加されて登録される。すなわち、図4Bの例では、リスト番号#3の情報として、シーン番号#4、時刻eおよび時刻fが追加登録され、リスト番号#4の情報として、シーン番号#4、時刻gおよび時刻hがさらに追加登録されている。
【0027】
次に、上述のようにして内蔵記録媒体に記録された動画データから、顔画像が検出された区間を抽出して他の記録媒体に選択的にダビングする処理について、図5を用いて説明する。図5Aおよび図5Bは、上述した図4Aおよび図4Bにそれぞれ対応し、内蔵記録媒体に記録された動画データと、当該動画データにおける顔画像の検出結果を示す顔検出プレイリストの例を示す。図5Bの顔検出プレイリストによれば、内蔵記録媒体に記録された動画データにおいて、シーン#1の時刻aから時刻bの区間、シーン#2の時刻cから時刻dの区間、ならびに、シーン#4の時刻eから時刻fおよび時刻gから時刻hの区間で、それぞれ顔画像が検出されていることが分かる。
【0028】
なお、上述したように、各シーンの動画データ上の位置すなわち開始点および終了点を示す情報は、別途生成され、記録されているものとする。
【0029】
図5Cに一例が示されるように、顔検出プレイリストに基づき、内蔵記録媒体に記録されている動画データから顔画像が検出された区間を抽出し、抽出された区間を繋ぎ合わせて1の動画データを作成する。この顔画像が検出された区間を繋ぎ合わせた動画データが、例えば記録可能なタイプのDVDといった、他の記録媒体(以下、ダビング先記録媒体と呼ぶ)に記録され、ダビングが行われる。
【0030】
例えば、顔検出プレイリストのリスト番号#1の情報に基づき、シーン#1の時刻aから時刻bまでの区間が内蔵記録媒体上の動画データから読み出され、新たなシーン#1’としてダビング先記録媒体に記録される。同様に、顔検出プレイリストのリスト番号#2の情報に基づき、シーン#2の時刻cから時刻dまでの区間が内蔵記録媒体上の動画データから読み出され、新たなシーン#2’として、シーン#1’に対して連続的に再生可能なように、ダビング先記録媒体に記録される。さらに、顔検出プレイリストのリスト番号#3の情報に基づき、シーン#4の時刻eから時刻fまでの区間が内蔵記録媒体上の動画データから読み出され、新たなシーン#3’として、シーン#2’に対して連続的に再生可能なように、ダビング先記録媒体に記録される。さらにまた、顔検出プレイリストのリスト番号#4の情報に基づき、シーン#4の時刻gから時刻hまでの区間が内蔵記録媒体上の動画データから読み出され、新たなシーン#4’として、シーン#3’に対して連続的に再生可能なように、ダビング先記録媒体に記録される。
【0031】
このように、この発明の実施の第1の形態では、顔検出プレイリストに基づき、内蔵記録媒体に記録される動画データから顔画像が検出された区間だけを選択的に抽出して接続した動画データがダビング先記録媒体に記録される。そのため、内蔵記録媒体に記録される動画データを一々見直してシーンを抽出することなく、所定のシーンのみからなる動画データが記録された記録媒体を容易に作成することができる。
【0032】
図6は、この発明の実施の第1の形態による一例のダビング処理を示すフローチャートである。先ず、ステップS10で、内蔵記録媒体から顔検出プレイリストが再生され、メモリなどに読み込まれる。次に、読み込まれた顔検出プレイリストに基づき、未処理のデータがあるか否かが判断される(ステップS11)。未処理のデータがあると判断されれば、処理はステップS12に移行される。
【0033】
ステップS12では、顔検出プレイリストから1件分のデータが読み込まれる。例えば、図5Bを参照し、顔検出プレイリストに登録されるリスト番号#1のデータが読み込まれる。そして、次のステップS13で、内蔵記録媒体に記録される動画データから、読み込まれた顔検出プレイリストの1件分のデータに指定される範囲が抜き出される。抜き出された動画データは、ダビング先の記録媒体に対して記録される。例えば、図5の例では、図5Bに例示される顔検出プレイリストのリスト番号#1のデータが参照され、図5Cに例示されるように、動画データから、当該リスト番号#1のデータに指定されるシーン#1の時刻aから時刻bまでの範囲が抜き出され、ダビング先の記録媒体に記録される。
【0034】
ステップS14では、上述のステップS13でダビング先の記録媒体に記録した動画データに対応する管理情報が生成される。例えば、ステップS13で内蔵記録媒体に記録される動画データから顔検出プレイリストに基づき抜き出されダビング先の記録媒体に記録された動画データに対し、先頭と終端にそれぞれ所定にマークが設定され、シーンが形成される。管理情報は、例えばメモリ上に生成され、所定のタイミングでダビング先の記録媒体に記録される。
【0035】
管理情報の生成が終了されると、処理はステップS11に戻され、顔検出プレイリストの次のデータについて、同様の処理がなされる。顔検出プレイリストの全てのデータについて処理が終了したら、生成した管理情報をダビング先記録媒体に記録して(ステップS15)、顔検出プレイリストに基づくダビング処理が完了される。
【0036】
なお、上述では、ダビング処理を顔検出プレイリストに登録される全てのデータについて行うように説明したが、これはこの例に限定されない。すなわち、顔検出プレイリストに登録されるデータから所望のデータを選択し、選択されたデータについて、ダビング処理を行うようにもできる。
【0037】
図7は、この発明の実施の第1の形態を適用可能な撮像装置1の一例の構成を示す。撮像装置1は、記録再生部10、主制御部11およびUI(User Interface)部12を有し、さらに、データの記録および再生を行うための内蔵記録媒体であるハードディスク32と、データの記録および再生を行うと共に、ハードディスク32に記録されるデータをダビングするダビング先の記録媒体31が装填可能なドライブ装置30とを有する。
【0038】
この撮像装置1は、撮像素子でフレームタイミング毎に撮像された撮像信号に基づく動画データと、マイクロフォンなどで収音された音声信号に基づく音声データとを所定に圧縮符号化および多重化してストリームデータとし、撮像装置1に内蔵される記録媒体に記録する。また、記録媒体に記録されたストリームデータを、脱着可能な他の記録媒体に対してダビングする機能も有する。
【0039】
この撮像装置1に適用可能な動画データおよび音声データの記録フォーマットは、様々に考えられる。例えば、ビデオデータとオーディオデータとが所定に多重化されたAV(Audio/Video)ストリームを記録可能な記録媒体に記録する記録フォーマットであるAVCHDを、撮像装置1の記録フォーマットとして適用することができる。AVCHDは、ITU−T(International Telecommunication Union-Telecommunication Standarization Sector)勧告H.264あるいはISO(International Organization for Standarization)/IEC(International Electrotechnical Commission)国際標準14496−10(MPEG−4パート10)Advanced Video Coding(以下、H.264|AVCと略称する)に規定される符号化方式に準ずる方式で符号化が行われ、符号化された動画データと音声データとを、MPEG2システムに従い多重化してストリームデータとする。
【0040】
これに限らず、動画データの符号化をMPEG2(Moving Pictures Experts Group 2)方式に従い行い、動画データと音声データとの多重化をMPEG2システムに従い行うようにしてもよい。クイックタイム(QuickTime:登録商標)など、パーソナルコンピュータなどにおいて主に用いられる符号化および多重化方式を用いることもできる。
【0041】
なお、撮像装置1に内蔵される記録媒体に記録する際の記録フォーマットは、上述したAVCHDのように標準化されたフォーマットに限らず、独自のフォーマットを適用することができる。一方、脱着可能な記録媒体に記録する際の記録フォーマットは、標準化されたフォーマットを採用することで、他の機器との互換性を確保することができ、好ましい。
【0042】
主制御部11は、例えば図示されないCPU(Central Processing Unit)上で動作するプログラムであって、CPUに接続されるROM(Read Only Memory)に予め記憶されたプログラムやデータに基づき、同じくCPUに接続されるRAM(Random Access Memory)をワークメモリとして用いて、この撮像装置1の各部を制御する。なお、主制御部11と記録再生部10の各部とを接続する経路は、繁雑さを避けるために、図7では省略している。
【0043】
UI部12は、この撮像装置1の動作をユーザが操作するための操作子が所定に設けられ、操作子に対する操作に応じた制御信号を出力する。主制御部11は、ユーザ操作に応じてUI部12から供給された制御信号に基づきなされるプログラムの処理により、記録再生部10の各部の動作を制御する。また、UI部12は、例えばLCD(Liquid Crystal Display)からなる表示部を有し(図示しない)、撮像装置1の動作状態や、ユーザ操作のために必要な表示などを行うことができるようになっている。
【0044】
例えば、UI部12に対してなされた操作に応じて、撮像装置1によるハードディスク32に対してデータを記録する動作の開始および停止の動作や、ハードディスク32からデータを再生する再生動作、さらには、ハードディスク32に記録されたデータのドライブ装置30に装填されたダビング先記録媒体31に対するダビング処理などが、主制御部11により制御される。
【0045】
記録再生部10は、撮像部20、収音部25、信号処理部13、顔検出部23、管理情報処理部29および記録再生制御部28を有する。撮像部20は、レンズ系、絞り機構、フォーカス機構、ズーム機構などからなる光学部と、光学部を介して照射された光を光電変換により電気信号に変換するための撮像素子と、撮像素子から出力される撮像信号に対してノイズ除去処理、ゲイン制御処理などを施す撮像信号処理部とを有する。撮像素子としては、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)イメージャなどを用いることができる。
【0046】
撮像部20から出力された撮像信号は、図示されないA/D変換部でディジタル信号に変換され、信号処理部13に入力され、映像信号処理部21に供給される。映像信号処理部21は、供給されたディジタル信号を例えば輝度データ(Y)および色差データCr/Cbからなる動画データに変換すると共に、ホワイトバランス処理、ガンマ補正処理など所定の画質補正処理を施し、さらに必要に応じて輪郭強調処理や解像度変換処理などを施す。
【0047】
映像信号処理部21から出力された動画データは、映像符号化部22に供給されると共に、顔検出部23に供給される。映像符号化部22は、供給された動画データを所定の方式で圧縮符号化する。映像符号化部22に適用できる圧縮符号化方式としては、MPEG2方式や、H.264|AVCに規定される方式などが考えられる。以下では、映像符号化部22では、MPEG2方式により、供給された動画データの圧縮符号化を行うものとする。
【0048】
一例として、映像符号化部22は、供給された動画データのフレームを例えば8×8画素といった所定サイズの符号化ブロックに分割し、この符号化ブロック毎にDCTを行う。そして、DCTにより得られたDCT係数を所定の量子化スケールで量子化する。また、映像符号化部22は、供給された動画データについて、動き補償を用いた予測符号化によるフレーム間符号化も行う。このとき、映像符号化部22は、フレーム内符号化に基づくピクチャであるI(Intra-coded)ピクチャと、予測符号化に基づくピクチャであるP(Predictive-coded)ピクチャB(Bi-directionally predictive coded)ピクチャとを用いてフレーム間符号化を行う。そして、単独でデコード可能なIピクチャを最低1枚含むそれ自身で完結したグループ(GOP:Group Of Picture)を、独立してアクセス可能な最小単位とするように、符号化を行う。符号化を、GOP構造で以て行うことで、サーチやジャンプなどの再生制御を容易とすることができる。
【0049】
フレーム内符号化およびフレーム間符号化を施されたデータは、可変長符号化によりさらに圧縮される。映像符号化部22から出力された圧縮動画データは、マルチプレクサ(MUX)24に供給される。
【0050】
顔検出部23は、映像信号処理部21から供給された動画データに対して画像解析を行い、動画データのフレームから顔画像を検出する。顔画像の検出方法としては、例えば特開2004−30629号公報、特開2005−157679号公報に開示される方法を適用することができる。
【0051】
例えば、フレームに対して所定の検出枠を設定し、検出枠内の所定の2点について輝度データを比較し、比較結果を予め学習により求められたパターン辞書と比較することで、当該検出枠内に顔画像が含まれているか否かを検出する。検出枠内にこの所定の2点の組み合わせを複数、設定し、それぞれの組み合わせについて輝度データを比較する。この比較結果をパターン辞書と比較し、顔らしさ(確度)を求める。この処理を、フレーム内で検出枠を走査しながら行うと共に、絶対的な検出枠サイズを固定的としフレームのサイズを変えながら行う。このようにして求められた確度のうち、例えば閾値以上の確度が得られた検出枠を、顔画像が含まれる検出枠とする。顔画像の検出結果は、管理情報処理部29に供給される。
【0052】
顔検出部23による顔画像の検出処理は、例えば数フレーム乃至数10フレーム(数秒)を周期として行われる。勿論、顔検出部23による画像解析処理および顔画像の検出処理を十分高速に行うことができれば、毎フレーム毎に顔画像の検出処理を行ってもよい。
【0053】
なお、撮像装置1は、映像信号処理部21から出力された動画データを、上述したUI部12に設けられた表示部(図示しない)に映出させることができる。これにより、撮像部20で撮像された撮像画像を確認することができる。また、主制御部11で所定に生成された表示制御信号に基づく画像をこの表示部に表示させることができるようになっている。これにより、撮像装置1の各種状態を示す情報などを表示部に表示させることができる。さらに、映像信号処理部21から出力された動画データによる映像と、主制御部11で生成された行事制御信号に基づく画像とは、表示部において重ねて表示させることができる。
【0054】
収音部25は、マイクロフォンを有し、マイクロフォンから出力される音声信号に対して、ノイズ除去処理といった所定の信号処理を施し、A/D変換してディジタル音声データとして出力する。この音声データは、信号処理部13に入力され音声信号処理部26に供給される。音声信号処理部26は、供給された音声データに対して、増幅処理、音質補正処理など所定の信号処理を施する。
【0055】
音声信号処理部26から出力された音声データは、音声符号化部27に供給され、所定に圧縮符号化される。音声符号化部27に適用可能な圧縮符号化方式は、MP3(Moving Pictures Experts Group 1 Audio Layer 3)方式、AAC(Advanced Audio Coding)方式など様々に考えられる。音声符号化部27において、ドルビーディジタル(登録商標)方式を用いて音声データの圧縮符号化を行ってもよい。音声符号化部27から出力された圧縮音声データは、マルチプレクサ24に供給される。
【0056】
マルチプレクサ24は、映像符号化部22から供給された圧縮動画データと、音声符号化部27から供給された圧縮音声データとを時分割により多重化して1本のストリームデータとする。例えば、マルチプレクサ24は、バッファメモリを有し、供給された圧縮動画データおよび圧縮音声データを一旦バッファメモリに格納する。バッファメモリに格納された圧縮動画データおよび圧縮音声データは、それぞれ処理サイズ毎に分割されヘッダが付加されてパケット化される。ヘッダには、パケットに格納されるデータの再生時刻を示すPTS(Presentation Time Stamp)や、復号時刻を示すDTS(Decoding Time Stamp)といったMPEG2方式で圧縮符号化された圧縮動画データを復号するために必要な情報が格納される。このパケットをさらに分割し、固定長のパケットに格納してもよい。
【0057】
マルチプレクサ24で圧縮動画データと圧縮音声データとが多重化されたストリームデータは、記録再生制御部28に供給される。記録再生制御部28は、例えばバッファメモリを有し、マルチプレクサ24から供給されたパケットを一時的にバッファメモリに格納する。このバッファメモリに対するパケットの読み書きのタイミングを所定に制御することで、後述する各記録媒体に対するアクセス速度と、動画データおよび音声データの圧縮符号化などの信号処理速度との間の整合性を取る。
【0058】
また、記録再生制御部28は、複数の記録媒体に対するデータの記録および再生を制御する。この図7の例では、記録再生制御部28に対してドライブ装置30が接続されると共に、この撮像装置1に内蔵されるハードディスク32が接続される。ドライブ装置30は、例えば記録可能なタイプのDVD(Digital Versatile Disc)に対するデータの読み書きを行うことができるものとする。
【0059】
これに限らず、ドライブ装置30が、DVDに対してより大容量を実現した、例えばBlu−ray Disc(登録商標)といった記録媒体に対して読み書きを行うようにしてもよい。また、ドライブ装置30は、記録可能なタイプのDVDと、Blu−ray Discの両方に対応していてもよい。さらに、ドライブ装置30は、フラッシュメモリなど、脱着可能な不揮発性の半導体メモリに対するデータの読み書きを行うようなものでもよい。
【0060】
記録再生制御部28は、例えば主制御部11といった上位からの命令に基づき、指定された記録媒体について、指定されたアドレスに対するデータの書き込みや、指定されたアドレスからのデータの読み出しを行う。
【0061】
管理情報処理部29は、上述した主制御部11と共に、CPU上で動作するプログラムにより機能が実現される。勿論、管理情報処理部29と主制御部11とをそれぞれ異なるハードウェアで構成することも可能である。
【0062】
管理情報処理部29は、マルチプレクサ24、映像符号化部22および音声符号化部27、ならびに、記録再生制御部28とデータなどのやりとりを行い、記録再生制御部28により記録媒体に記録されるストリームデータに関する管理情報を生成する。それと共に、管理情報処理部29は、記録媒体31やハードディスク32から読み出された管理情報基づき、記録再生制御部28が記録媒体31やハードディスク32に対するストリームデータの読み書きを制御するための情報を生成する。
【0063】
管理情報処理部29で生成される管理情報には、例えば、ストリームデータに含まれるシーンを管理する情報や、ストリームデータ自体をタイトルとして管理する情報などが含まれる。シーンを管理する情報は、例えば記録開始時刻および停止時刻といった、シーンの先頭と終端とを示す情報がPTSで示される。記録開始時刻および停止時刻を、ストリームデータ先頭のフレームを基点とするフレーム番号で示してもよい。また、ストリームデータに含まれる各パケットの再生時刻と、当該各パケットのストリームデータ上のバイト位置とを関連付けるマップ情報を、管理情報にさらに含むこともできる。
【0064】
また、管理情報処理部29は、顔検出部23による顔画像の検出結果に基づき、上述した顔検出プレイリストを生成する。顔検出区間を示す、顔検出の開始点および終了点の情報は、例えば、当該開始点および終了点が含まれるシーンの先頭フレームを基準とした相対フレーム数で表すことができる。勿論、当該開始点および終了点のPTSを、顔検出プレイリストにおける開始点および終了点を示す情報として用いてもよい。
【0065】
このように構成された撮像装置1による撮像および記録時の動作について、概略的に説明する。撮像部20から出力された撮像信号が図示されないA/D変換部でディジタル信号に変換され、映像信号処理部21に供給される。ディジタル撮像信号は、映像信号処理部21で所定に信号処理され動画データとして出力され、顔検出部23および映像符号化部22に供給される。
【0066】
例えばUI部12に対して記録開始を指示する操作がなされると、この操作に応じた制御信号に基づき、主制御部11により記録再生部10の全体が制御され、記録動作が開始される。映像符号化部22は、供給された動画データを所定に圧縮符号化し、GOP構造を有する動画データのストリームとして出力する。このストリームは、マルチプレクサ24に供給される。
【0067】
一方、顔検出部23は、供給された動画データについて、数フレーム乃至数10フレーム毎、或いは、毎フレーム毎に顔画像の検出を行い、検出結果を順次、管理情報処理部29に渡す。管理情報処理部29は、信号処理部13と所定にやりとりを行い、顔画像が検出されたフレームを特定し、顔画像が検出された範囲を求める。管理情報処理部29は、この顔画像が検出された範囲を示す情報を顔検出プレイリストに登録する。顔検出プレイリストは、例えば図示されないメモリに記憶される。管理情報処理部29は、この顔検出プレイリストと対応する動画データとを関連付けて管理する。
【0068】
収音部25から出力された音声データは、音声信号処理部26で所定に信号処理され、音声符号化部27で符号化されてマルチプレクサ24に供給される。マルチプレクサ24は、映像符号化部22から供給された動画データのストリームと、音声符号化部27から供給された音声データとを所定にパケット化し、時分割多重により多重化して1本のストリームデータとして出力する。このストリームデータは、記録再生制御部28に供給される。
【0069】
記録再生制御部28は、マルチプレクサ24から供給されたストリームデータを、図示されないバッファメモリに溜め込み、ハードディスク32の記録単位分の量のデータがバッファメモリに書き込まれたら、バッファメモリからデータを読み出し、ハードディスク32に記録する。
【0070】
一方、管理情報処理部29で生成された顔検出プレイリストは、所定のタイミングで記録再生制御部28に渡され、ハードディスク32に記録される。顔検出プレイリストは、例えば記録停止が指示されたタイミングで、ハードディスク32に記録される。例えば、UI部12に対してなされた記録停止を指示する操作に応じた制御信号に基づく主制御部11の命令により、顔検出プレイリストがメモリから読み出され、記録再生制御部28によりハードディスク32に記録される。これに限らず、撮像装置1の電源OFFのタイミングで顔検出プレイリストをハードディスク32に記録するようにもできる。
【0071】
顔検出プレイリストは、対応する動画データが含まれるストリームデータと所定に関連付けられて、ハードディスク32に記録される。顔検出プレイリストとストリームデータとの関連付けは、互いに対応するファイル名を付すことによって行うことが考えられる。また、ハードディスク32に記録される顔検出プレイリストとストリームデータとの対応関係を示す管理ファイルをさらに生成することも考えられる。
【0072】
次に、図6のフローチャートを用いて説明した顔検出プレイリストに基づくダビング処理を、この撮像装置1の構成に対応させて、概略的に説明する。ここでは、ダビング先の記録媒体31を記録可能なタイプのDVD(以下、単にDVDと略称する)とし、ハードディスク32に記録されたストリームデータから顔画像が検出された区間を抽出して、ダビング先の記録媒体31にダビングするものとする。
【0073】
ダビング先の記録媒体31がドライブ装置30に装填され、主制御部11により記録媒体31が認識される。なお、ハードディスク32に記録される管理情報は、例えば撮像装置1の起動時にハードディスク32から読み出され、管理情報処理部29の図示されないメモリに予め格納されるものとする。
【0074】
例えばユーザにより、ハードディスク32に記録されたストリームデータから顔検出区間を抜き出してダビング先記録媒体31にダビングすることを指示する操作がUI部12に対してなされる。UI部12は、この操作に応じた制御信号を生成し、主制御部11に供給する。主制御部11は、この制御信号に応じて、顔検出区間のダビング処理を開始する。
【0075】
主制御部11は、記録再生制御部28に対して、ハードディスク32に記録される顔検出プレイリストを読み出すように命令を出す。記録再生制御部28は、この命令に応じてハードディスク32から顔検出プレイリストを読み込み、管理情報処理部29に渡す。管理情報処理部29は、図示されないメモリにこの顔検出プレイリストを格納する(図6のステップS10)。
【0076】
管理情報処理部29は、メモリ上の顔検出プレイリストを1行ずつ読み込み、1件のプレイリストデータ毎に処理を行う(図6のステップS12)。例えば、管理情報処理部29は、1件のプレイリストデータについて、シーン番号と、顔検出区間の開始点および終了点の情報とを読み込み、ハードディスク32に記録されるストリームデータ上の、これら開始点および終了点に対応する位置を求める。
【0077】
図8を用いて、顔検出区間とストリームデータ上の位置との対応付けの例について説明する。既に説明したように、この例においては、映像符号化部22では、MPEG2方式により、Iピクチャ、PピクチャおよびBピクチャを用いたGOP構造で動画データの符号化を行っている。したがって、ストリームデータにおいて、動画データに対する最小のアクセス単位は、GOP単位となる。一方、顔検出部23による顔検出処理は、圧縮符号化される前の動画データに対して行われるため、顔検出の開始点および終了点は、それぞれフレーム単位で表されることになる。
【0078】
そこで、図8に一例が示されるように、顔画像が検出されたピクチャを含むGOP単位でダビング位置を設定する。より具体的には、ダビング位置の先頭は、顔検出区間の開始点となるピクチャを含むGOPの先頭側の境界とされ、ダビング位置の後端は、当該顔検出区間の終了点となるピクチャを含むGOPの後端側の境界とされる。管理情報処理部29は、読み込まれた管理情報と、顔検出プレイリストとに基づき、顔検出区間の開始点および終了点のピクチャが含まれるGOPを求めることができる。
【0079】
ここで、Iピクチャは単独で復号が可能であることから、顔検出部23による顔検出処理をIピクチャ周期で行うことが考えられる。この場合、顔検出区間は、図8に例示されるように、あるGOPのIピクチャから、他のGOPのIピクチャまでとなる。ダビング位置は、顔検出区間の開始点となるIピクチャ含むGOPの先頭側の境界から、当該顔検出区間の終了点となるIピクチャを含むGOPの後端側の境界となる。
【0080】
これに限らず、顔検出部23による顔検出処理を、GOPの周期とは関連のない周期で行うことも可能である。
【0081】
なお、映像符号化部22でH.264|AVC方式により動画データの符号化を行う場合でも、フレーム間符号化によるフレーム間の参照関係は、MPEG2と対応させることが可能である。そのため、上述の説明を、H.264|AVC方式を用いて動画データの符号化を行った例として読み替えることもできる。
【0082】
管理情報処理部29は、上述のようにして、管理情報と顔検出プレイリストとに基づき、ハードディスク32に記録されるストリームデータ上のダビング範囲を決定し、このダビング範囲を示す情報をダビング命令と共に記録再生制御部28に渡す。記録再生制御部28は、このダビング命令に従い、ストリームデータからダビング範囲情報に示される範囲のデータを読み出し、例えばバッファメモリに書き込む。そして、バッファメモリにダビング先記録媒体31の記録単位分のデータが溜め込まれたら、バッファメモリからデータを読み出し、ドライブ装置30に供給する。ドライブ装置30は、供給されるデータを順次、ダビング先記録媒体31に所定に記録していく(図6のステップS13)。
【0083】
管理情報処理部29は、ダビング先記録媒体31にダビングされたストリームデータに対応する管理情報を生成する(図6のステップS14)。例えば、ダビングされた範囲の先頭ピクチャのPTSと、終端ピクチャのPTSとが対で登録され、シーンの登録がなされる。登録は、PTSに限らず例えばフレーム番号を用いて行ってもよい。生成された管理情報は、例えばメモリに一旦格納され、所定のタイミングでダビング先記録媒体31に対して書き込まれる(図6のステップS15)。例えば、ダビング先記録媒体31をドライブ装置30から排出する際や、ダビング先記録媒体31をドライブ装置30に装填したまま撮像装置1の電源をOFF状態とする際などに、管理情報がダビング先記録媒体31に対して書き込まれる。
【0084】
管理情報は、例えば記録フォーマットにAVCHDを採用した場合には、クリップインフォメーションファイル、ムービープレイリストファイルおよびインデックステーブルファイルからなる。
【0085】
ダビング先記録媒体31に対する管理情報が生成されたら、処理がステップS11に戻され、顔検出プレイリストに登録される次のプレイリストデータについて、ダビング処理が行われる。すなわち、当該プレイリストデータが管理情報処理部29に読み込まれ(図6のステップS12)、読み込まれたプレイリストデータに基づきハードディスク32上のストリームデータに対してダビング範囲が設定され、当該ダビング範囲のデータがハードディスク32から読み出され、バッファメモリを介してダビング先記録媒体31に記録される(図6のステップS13)。
【0086】
そして、ダビング先記録媒体31にダビングされたストリームデータに対応する管理情報が追加生成される(図6のステップS14)。このとき、ダビング先記録媒体31に対して直前にダビングされたストリームデータに対して連続的に再生が可能なように、管理情報が生成される。例えば、直前にダビングされたダビング範囲の終端のPTSを管理情報から参照し、当該PTSで示されるフレームの次のフレームタイミングを示すPTSを、新規にダビングされたダビング範囲の先頭のPTSとすることが考えられる。これに限らず、直前にダビングされたダビング範囲のストリームと、新規にダビングされたダビング範囲のストリームとを、フレームタイミングで連続的に再生するように指示する情報を、管理情報として記述することも考えられる。
【0087】
このようにして、顔検出プレイリストに登録される全てのプレイリストデータについてダビング処理が行われると(図6のステップS11)、一連のダビング処理が終了される。
【0088】
次に、この発明の実施の第1の形態の第1の変形例について説明する。上述では、動画データから1個の顔画像のみが検出された例について説明したが、実際には、撮像装置1により撮像された撮像画面に複数の人物が入り、動画データから複数の顔画像が検出される事例も多いと考えられる。この実施の第1の形態の第1の変形例および後述する第2の変形例は、このような、動画データから複数の顔画像が検出された場合のダビング処理に関するものである。
【0089】
なお、上述の撮像装置1の構成は、この実施の第1の形態の第1の変形例にそのまま適用できるので、これらについての説明は、省略する。
【0090】
一例として、図9Aに例示されるように、3人の人物A、人物Bおよび人物Cを撮像装置1で撮像する場合について考える。このとき、人物Aが時刻p1から時刻p2まで撮像装置1の撮像画面に入り、その後、時刻p3から時刻p4まで再び撮像画面に入ったものとする。同様に、人物Bが時刻q1から時刻q2まで撮像画面に入り、人物Cが時刻r1から時刻r2まで撮像画面に入ったものとする。したがって、撮像装置1で撮像され得られた動画データには、図9Bに例示されるように、時刻p1から時刻q1の間、時刻r2から時刻q2までの間、ならびに、時刻p3から時刻p4までの間は、それぞれ1個の顔画像が検出され、時刻q1から時刻r1までの間、ならびに、時刻p2から時刻r2までの間は2個の顔画像が検出され、時刻r1から時刻r2までの間は3個の顔画像が検出されることになる。
【0091】
なお、顔検出部23は、例えば1フレーム中に顔画像が含まれるとされた検出枠が複数あった場合に、これら複数の検出枠の重なり具合や距離、検出枠の大きさなどに基づき、互いに異なる顔による顔画像が含まれる検出枠であるか否かを判断することができる。顔画像が含まれるとされた複数の検出枠が、互いに異なる顔による顔画像を含むと判断された場合、その時点で1フレーム中に含まれる互いに異なる顔による顔画像の個数がカウントされる。
【0092】
この場合、顔検出プレイリストには、1フレーム中に含まれる互いに異なる顔による顔画像の個数が変化した時刻と、顔画像の個数の変化前または変化後における検出された顔画像の個数とを関連付けて登録することが考えられる。これに限らず、顔画像の検出を行った時刻と、1フレーム中に含まれる顔画像の個数とを関連付けて登録するようにしてもよい。
【0093】
図10は、顔画像の個数の変化に応じて登録するようにした一例の顔検出プレイリストを示す。この図10の顔検出プレイリストは、検出された顔画像の個数が変化した変化点を示す時刻と、当該変化点直後の顔画像の個数とが対応付けられて登録される例である。例えば、上述の図9Aを参照し、時刻p1、時刻q1、時刻r1、時刻p2、時刻r2、時刻q2、時刻p3および時刻p4がそれぞれ変化点として登録され、各変化点直後の顔画像の個数が1個、2個、3個、2個、1個、0個、1個および1個と、各変化点に対応付けられてそれぞれ登録されている。
【0094】
1フレーム中に検出された顔画像の個数の変化に応じて顔検出プレイリストが生成される場合、ダビング先記録媒体31にダビングするダビング範囲を、顔画像の個数に対する閾値に基づき決めることが考えられる。一例として、閾値を2個として、1フレーム中に異なる顔による顔画像が2個以上、検出された区間を顔検出区間とした場合について考える。図10に例示される顔検出プレイリストに基づき、1フレーム中に顔画像が2個以上、検出される区間を求める。変化点d1で顔画像が1個から2個に変化し、変化点e2で2個だった顔画像が1個に変化している。したがって、図9Cに例示されるように、時刻q1から時刻r2の区間で1フレーム中に顔画像が2個以上検出されたと判断でき、この区間をダビング処理の対象とする。
【0095】
なお、ダビング対象の区間が特定されて以降の、ダビング処理そのものは、上述の実施の第1の形態による処理と何ら変わるところがないため、ここでの説明を省略する。
【0096】
次に、この発明の実施の第1の形態の第2の変形例について説明する。この実施の第1の形態の第2の変形例では、顔画像の検出の際に、検出された顔画像について個体を識別するようにしている。そして、ダビング処理の際に、特定の個体と識別された顔画像に基づきダビング対象を決めるようにする。
【0097】
なお、上述の撮像装置1の構成は、この実施の第1の形態の第2の変形例にそのまま適用できるので、これらについての説明は、省略する。
【0098】
検出された顔画像の個体を識別する方法としては、例えば、識別したい顔画像について、顔画像を特定可能な特徴情報を予め登録しておき、1フレーム中から検出された顔画像のそれぞれから抽出された特徴情報と、登録されている特徴情報とを比較し、比較結果に基づき識別したい顔画像を特定することが考えられる。
【0099】
例えば上述した実施の第1の形態の例をとって、識別したい顔の顔画像に対して検出枠を設定し、検出枠内で複数の所定の2点の組み合わせについて輝度データの比較を行い、この比較結果を当該顔画像の特徴情報として予め辞書登録する。顔検出部23において、1フレーム中の顔画像を検出する際に、顔画像が含まれると判断された検出枠に対し、辞書登録された顔画像の特徴情報を適用させて、類似度を求める。類似度は、例えば顔画像が含まれると判断された検出枠における所定の2点の組み合わせにおける輝度データの比較結果と、登録された顔画像の特徴情報との差分に基づき求めることが考えられる。例えば、差分が小さいほど、類似度が高いと定義する。類似度が閾値以上であれば、当該検出枠に含まれる顔画像が識別したい顔画像であると判断する。
【0100】
図11を用いて、この実施の第1の形態の第2の変形例によるダビング範囲の設定方法について、より具体的に説明する。なお、図11Aは、上述した図9Aと対応するものである。例えば、図11Aを参照し、撮像装置1により撮像される人物A、人物Bおよび人物Cのうち、人物Aが画面に入っている部分をシーンとして選択的にダビングしたいものとする。
【0101】
この場合、人物Aについて、顔画像の特徴情報を顔検出部23に対して登録する必要がある。顔画像の登録は、人物Aの顔を撮像装置1で前もって撮影しておき、撮影された人物Aの顔画像に基づき予め特徴情報を抽出し登録する方法が考えられる。これに限らず、撮像中の動画データに基づき、識別したい顔画像を登録する方法も考えられる。例えば、UI部12に対して表示部上における位置を指定する手段を設け、撮像中の映像をこの表示部に表示させながら、識別したい顔画像をこの位置指定手段により指定する。
【0102】
顔検出部23は、映像処理部21から供給される動画データを解析し、フレーム中に含まれる顔画像を検出すると共に、例えば検出された顔画像と登録された人物Aの顔画像とを比較し、類似度が閾値以上であるか否かを判断する。類似度が閾値以上であると判断されれば、その顔画像が検出された時刻を顔検出区間の開始点として、顔検出プレイリストに登録する。また、顔検出部23は、その顔画像が検出されなくなった時刻を顔検出区間の終了点として顔検出プレイリストに登録する。
【0103】
図11Aの例では、人物Aが時刻p1で撮像画面に入って時刻p2で撮像画面から外れ、時刻p3で再び撮像画面に入って時刻p4で撮像画面から外れている。この場合、図11Bに例示されるように、人物Aの顔画像が時刻p1から時刻p2までの区間と、時刻p3から時刻p4までの区間とで検出されることになり、これら時刻p1から時刻p2までの区間と、時刻p3から時刻p4までの区間とがダビング処理の対象とされる。
【0104】
図12は、顔画像の個体を識別する場合の一例の顔検出プレイリストを示す。この図12の例では、図11Aを参照し、人物A、人物Bおよび人物Cの顔画像が登録され、それぞれ識別情報「001」、「002」および「003」が対応付けられている。このように、複数の顔画像を登録し、それぞれ認識させることも可能である。図12の例では、識別情報に対して開始点および終了点の組が対応付けられて、顔検出プレイリストに登録される。例えば、この顔検出プレイリストに対して識別情報「001」を指定することで、人物Aが撮像画面に入っている区間を、ダビング対象の区間として選択的に特定することができる。
【0105】
なお、ダビング対象の区間が特定されて以降の、ダビング処理そのものは、上述の実施の第1の形態による処理と何ら変わるところがないため、ここでの説明を省略する。
【0106】
次に、この発明の実施の第2の形態について説明する。この実施の第2の形態においては、上述した実施の第1の形態によるダビング処理に対し、顔検出プレイリストにおいて開始点および終了点で指定された範囲の再生時間が所定時間より短い場合、その範囲のダビングを行わずに処理をスキップするようにしている。こうすることで、ダビング後の動画データを再生した際にシーンが頻繁に切り替わることを抑制することができる。
【0107】
図13は、この発明の実施の第2の形態による一例のダビング処理を示すフローチャートである。なお、この図13において、上述した図6と共通する処理(ステップ)には同一の符号を付し、詳細な説明を省略する。ステップS10で内蔵記録媒体から顔検出プレイリストが再生されてメモリに読み込まれ、処理はステップS101に移行される。
【0108】
ステップS101では、顔検出プレイリストに基づき行われるダビングの際のダビング範囲に下限長が決定される。すなわち、顔検出プレイリストにおける開始点から終了点までの間の再生時間が、設定された下限長が示す時間よりも長い場合に、当該開始点から終了点までの範囲をダビング対象とする。ダビング下限長は、固定的な値としてもよいし、可変としてもよい。
【0109】
ダビング下限長を可変とする場合、例えばUI部12にダビング下限長の値を入力する入力手段を設け、ユーザは、この入力手段を用いて時間の設定を行う。このように設定された時間がダビング下限値に決定される。入力手段は、例えば設定値を、秒数など時間を直接的に数値で入力するようにできる。これに限らず、例えばスライドバーなど時間を感覚的に指定可能な入力手段を設け、これにより下限長の設定を行うようにしてもよい。さらに例えば、UI部12に手指などでタップ可能な操作子を設け、この操作子をタップしてタップの間隔に応じて時間を設定するようにしてもよい。また、予め複数の固定値をROMなどに記憶しておき、UI部12からユーザが選択するようにしてもよい。
【0110】
なお、ダビング下限長を可変とする場合、設定された時間を直感的に確認できるような表示を、図示されない表示部に表示させるようにすると、より好ましい。一例として、表示部に対して、設定された時間だけ所定のアニメーションを表示させることが考えられる。
【0111】
ステップS101で、ダビング下限長が設定されると、ステップS11で未処理のデータがあるか否かが判断され、未処理のデータがあると判断されれば、ステップS12で、顔検出プレイリストから1件分のデータが読み出される。そして、次のステップS121で、読み込まれた顔検出プレイリストの1件分のデータに指定される範囲の再生時間が、上述のステップS101で決定されたダビング下限長より長い時間であるか否かが判断される。若し、顔検出プレイリストの対象データに指定される範囲の再生時間がダビング下限長よりも短いと判断されれば、処理はステップS11に移行され、顔検出プレイリストにおける次のデータに対する処理が行われる。
【0112】
一方、ステップS121で顔検出プレイリストの対象データに指定される範囲の再生時間がダビング下限長よりも長いと判断されれば、処理はステップS13に移行され、内蔵記録媒体に記録される動画データから、顔検出プレイリストに指定される範囲が抜き出されてダビング先の記録媒体に対して記録される。
【0113】
一例として、上述した図5Bに例示される顔検出プレイリストのリスト番号#1のデータにおいて、開始点aと終了点bとの時間差がダビング下限長として決定された時間よりも長ければ、これら開始点aから開始点bまでの間がダビング範囲に設定される。一方、開始点aと終了点bとの時間差がダビング下限長として決定された時間よりも短ければ、リスト番号#1の処理をスキップし、顔検出プレイリストにおける次のデータ、すなわちリスト番号#2のデータについて処理がなされる。
【0114】
そして、ステップS14で、上述のステップS13でダビング先の記録媒体に記録した動画データに対応する管理情報が生成される。
【0115】
なお、ここでは、この実施の第2の形態が実施の第1の形態に対応するものであるように説明したが、これはこの例に限定されない。すなわち、この実施の第2の形態は、上述した実施の第1の形態の第1および第2の変形例にも、それぞれ適用させることができる。
【0116】
上述では、この発明が例えば携帯型のビデオカメラといった撮像装置に対して適用されるように説明したが、これはこの例に限られない。例えば、据置型のビデオレコーダにこの発明を適用することも可能である。また、パーソナルコンピュータといった汎用的な情報機器ににおいて、図7における主制御部11、信号処理部13、顔検出部23、管理情報処理部29および記録再生制御部28などを、ソフトウェアにより構成することも考えられる。
【図面の簡単な説明】
【0117】
【図1】この発明による記録時の一例の処理を示す略線図である。
【図2】この発明による記録時の一例の処理を示す略線図である。
【図3】この発明による記録時の一例の処理を示す略線図である。
【図4】この発明による記録時の一例の処理を示す略線図である。
【図5】この発明によるダビング処理を説明するための略線図である。
【図6】この発明の実施の第1の形態による一例のダビング処理を示すフローチャートである。
【図7】この発明の実施の第1の形態を適用可能な撮像装置の一例の構成を示すブロック図である。
【図8】顔検出区間とストリームデータ上の位置との対応付けの例について説明するための略線図である。
【図9】この発明の実施の第1の形態の第1の変形例について説明するための略線図である。
【図10】顔画像の個数の変化に応じて登録するようにした一例の顔検出プレイリストを示す略線図である。
【図11】この実施の第1の形態の第2の変形例によるダビング範囲の設定方法について説明するための略線図である。
【図12】顔画像の個体を識別する場合の一例の顔検出プレイリストを示す略線図である。
【図13】この発明の実施の第2の形態による一例のダビング処理を示すフローチャートである。
【符号の説明】
【0118】
1 撮像装置
11 主制御部
12 UI部
13 信号処理部
20 撮像部
21 映像信号処理部
22 映像符号化部
23 顔検出部
24 マルチプレクサ
25 収音部
26 音声信号処理部
27 音声符号化部
28 記録再生制御部
29 管理情報生成部
31 ダビング先記録媒体
32 ハードディスク

【特許請求の範囲】
【請求項1】
動画データから対象物の画像を検出する検出部と、
第1の記録媒体に対するデータの記録再生を行う記録再生部と、
上記検出部による検出結果に基づき上記動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成部と、
上記記録再生部を制御する制御部と
を有し、
上記制御部は、上記検出部で上記対象物の画像の検出が行われる上記動画データを上記第1の記録媒体に記録するように上記記録再生部を制御する
ことを特徴とする記録装置。
【請求項2】
請求項1に記載の記録装置において、
第2の記録媒体に対するデータの記録を行う記録部をさらに有し、上記制御部は、該記録部をさらに制御するようにされ、
上記制御部は、上記テーブルに登録される上記位置情報に基づき上記第1の記録媒体に記録される上記動画データの部分を抽出し、抽出された該部分を上記第2の記録媒体にダビングするように上記記録再生部および上記記録部を制御する
ことを特徴とする記録装置。
【請求項3】
請求項2に記載の記録装置において、
上記制御部は、上記位置情報に基づき上記動画データから抽出される上記部分の再生時間が閾値より短ければ、上記ダビングを行わないように上記記録再生部を制御する
ことを特徴とする記録装置。
【請求項4】
請求項3に記載の記録装置において、
ユーザ操作を受け付ける操作部をさらに有し、
上記閾値は、上記操作部に対するユーザ操作により設定される
ことを特徴とする記録装置。
【請求項5】
請求項2に記載の記録装置において、
上記制御部は、上記ダビングの際に、ダビングを行う上記動画データの部分に対する再生制御情報が格納される再生リストを生成し、生成された該再生リストを上記第2の記録媒体に記録するように上記記録再生部を制御する
ことを特徴とする記録装置。
【請求項6】
請求項1に記載の記録装置において、
上記検出部は、上記対象物の個体を識別可能であり、
上記テーブル作成部は、上記検出部による検出結果に基づき、検出された上記対象物の個体を識別する識別情報を上記位置情報に関連付けて上記テーブルに登録する
ことを特徴とする記録装置。
【請求項7】
請求項6に記載の記録装置において、
第2の記録媒体に対するデータの記録を行う記録部をさらに有し、上記制御部は、該記録部をさらに制御するようにされ、
上記制御部は、指定された上記対象物の個体に対応する上記位置情報を上記テーブルに登録される上記識別情報に基づき選択し、選択された該位置情報に基づき上記第1の記録媒体に記録される上記動画データの部分を抽出し、抽出された該部分を上記第2の記録媒体にダビングするように上記記録再生部および上記記録部を制御する
ことを特徴とする記録装置。
【請求項8】
請求項1に記載の記録装置において、
上記対象物は人間の顔であり、上記対象物の画像は人間の顔画像である
ことを特徴とする記録装置。
【請求項9】
請求項1に記載の記録装置において、
上記テーブル作成部は、上記検出部による検出結果に基づき、上記動画データのフレームに検出される上記対象物の画像の個数が変化した位置を上記位置情報として上記テーブルに登録する
ことを特徴とする記録装置。
【請求項10】
動画データから対象物の画像を検出する検出のステップと、
上記検出のステップによる検出結果に基づき上記動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップと、
上記検出のステップで上記対象物の画像の検出が行われる上記動画データを第1の記録媒体に記録するステップと
を有する
ことを特徴とする記録方法。
【請求項11】
動画データから対象物の画像を検出する検出のステップと、
上記検出のステップによる検出結果に基づき上記動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップと、
上記検出のステップで上記対象物の画像の検出が行われる上記動画データを第1の記録媒体に記録するステップと
を有する記録方法をコンピュータに実行させる
ことを特徴とする記録プログラム。
【請求項12】
動画データから対象物の画像を検出する検出部と、
上記検出部による検出結果に基づき上記動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成部と
を有する
ことを特徴とするデータ処理装置。
【請求項13】
請求項12に記載のデータ処理装置において、
上記検出部は、上記対象物の個体を識別可能であり、
上記テーブル作成部は、上記検出部による検出結果に基づき、検出された上記対象物の個体を識別する識別情報を上記位置情報に関連付けて上記テーブルに登録する
ことを特徴とするデータ処理装置。
【請求項14】
請求項12に記載のデータ処理装置において、
上記対象物は人間の顔であり、上記対象物の画像は人間の顔画像である
ことを特徴とするデータ処理装置。
【請求項15】
請求項12に記載のデータ処理装置において、
上記テーブル作成部は、上記検出部による検出結果に基づき、上記動画データのフレームに検出される上記対象物の画像の個数が変化した位置を上記位置情報として上記テーブルに登録する
ことを特徴とする記録データ処理装置。
【請求項16】
動画データから対象物の画像を検出する検出のステップと、
上記検出のステップによる検出結果に基づき上記動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップと
を有する
ことを特徴とするデータ処理方法。
【請求項17】
動画データから対象物の画像を検出する検出のステップと、
上記検出のステップによる検出結果に基づき上記動画データ上の位置を示す位置情報をテーブルに登録するテーブル作成のステップと
を有するデータ処理方法をコンピュータに実行させる
ことを特徴とするデータ処理プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate


【公開番号】特開2009−59445(P2009−59445A)
【公開日】平成21年3月19日(2009.3.19)
【国際特許分類】
【出願番号】特願2007−227454(P2007−227454)
【出願日】平成19年9月3日(2007.9.3)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】