説明

画像処理装置、インデックス生成装置、撮像装置、インデックス生成方法およびプログラム

【課題】動画データの転送後においてもその動画データの各シーンに関する情報を維持させる。
【解決手段】操作受付部111により受け付けられた操作入力に基づいて、撮像部112は被写体を撮像して動画データを生成する。記録制御部113は撮像された動画データおよびその動画データに関する顔情報をストリーム記録部191に記録するよう制御する。撮像された動画データを構成する各画像から顔検出部114によって検出された顔画像について、顔情報生成部115は顔情報データを生成する。顔情報データは、いったん顔情報保持部116に保持され、チャプター終了の際に、ストリーム記録部191において、最終のVOBUまたは最終から所定数遡ったVOBUに顔情報パックとして格納される。顔情報パックは、動画データとともにストリームデータを構成し、動画データの転送後においても維持される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置に関し、特に動画データに含まれる複数の画像について属性情報を検出し、または、属性情報に基づいてインデックス表示画面を生成する画像処理装置、インデックス生成装置、撮像装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
【背景技術】
【0002】
近年、動画を記録するためのデジタルビデオカメラが普及している。デジタルビデオカメラでは、撮像された動画データは符号化されて、DVD(Digital Versatile Disk)、ハードディスク、フラッシュメモリ等の記録媒体に記録される。記録媒体に記録された動画データは、デジタルビデオカメラまたは他の再生機器において再生表示される。
【0003】
動画データを再生表示する際、先頭から全てを再生するのではなく、途中の特定のシーンから再生することをユーザが望む場合がある。その場合、撮像された動画データ全体から特定のシーンを検索するためには、検索に要する時間が必要であるとともに検索作業が煩雑であることが多い。
【0004】
そこで、動画データを再生する場合において、この動画データの各部におけるサムネイル画像を生成して、この生成されたサムネイル画像を用いて特定の記録位置から動画を再生させる技術が提案されている。例えば、記録媒体に記録されている動画データの複数のシーンから各シーンを示す画面のサムネイル画像を複数形成し、ユーザによって選択されたサムネイル画像に対応するシーンの先頭から動画の再生を開始する再生装置が提案されている(例えば、特許文献1参照。)。
【特許文献1】特開平11−289517号公報(図7)
【発明の開示】
【発明が解決しようとする課題】
【0005】
上述の従来技術によれば、各シーンを示す画面のサムネイル画像に基づいて動画データの特定のシーンから再生表示することが可能になる。この各シーンに関する情報は、予め何らかの管理情報ファイルとして保存しておくことが望ましいが、独自のファイルとして保存した場合には動画データが装置間で転送された際にその情報を喪失してしまうおそれがある。
【0006】
本発明はこのような状況に鑑みてなされたものであり、動画データの転送後においてもその動画データの各シーンに関する情報を維持させることを目的とする。
【課題を解決するための手段】
【0007】
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、動画データに含まれる複数の画像について属性情報を検出する属性情報検出手段と、上記属性情報と上記複数の画像のうち当該属性情報に対応する画像の上記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手段と、上記動画データおよび上記インデックスデータを含むストリームデータを生成するストリームデータ生成手段とを具備する画像処理装置およびその方法ならびにプログラムである。これにより、属性情報と動画データ中の属性情報に対応する位置とを関連付けたインデックスデータをストリームデータに格納させるという作用をもたらす。
【0008】
また、この第1の側面において、上記属性情報は、当該属性情報に対応する画像の特徴量であってもよい。この場合において、上記属性情報検出手段は、上記特徴量として上記複数の画像に含まれる顔画像の数を検出してもよい。また、この場合において、上記ストリームデータ生成手段は、ビデオオブジェクトユニットを単位として上記ストリームデータを生成し、上記インデックスデータを最終のビデオオブジェクトユニットに格納するようにしてもよい。
【0009】
また、本発明の第2の側面は、被写体を撮像して動画データを生成する撮像手段と、上記動画データに含まれる複数の画像について属性情報を検出する属性情報検出手段と、上記属性情報と上記複数の画像のうち当該属性情報に対応する画像の上記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手段と、上記動画データおよび上記インデックスデータを含むストリームデータを生成するストリームデータ生成手段とを具備する撮像装置およびその方法ならびにプログラムである。これにより、属性情報と撮像された動画データ中の属性情報に対応する位置とを関連付けたインデックスデータをストリームデータに格納させるという作用をもたらす。
【0010】
また、本発明の第3の側面は、動画データに含まれる複数の画像の位置と当該画像に関する属性情報とを関連付けたインデックスデータを上記動画データとともに格納するストリームデータからインデックス表示画面を生成するインデックス生成装置であって、上記属性情報を解析してインデックス表示の対象となる画像を特定する属性情報解析手段と、上記特定された画像の上記動画データにおける位置を生成する位置生成手段と、上記生成された位置に基づいて上記動画データの代表画像を生成する代表画像生成手段と、上記代表画像に基づいて上記インデックス表示画面を生成するインデックス表示画面生成手段とを具備することを特徴とするインデックス生成装置およびその方法ならびにプログラムである。これにより、ストリームデータに含まれるインデックスデータによって特定される画像に基づいてインデックス表示画面を生成させるという作用をもたらす。
【0011】
また、この第3の側面において、上記属性情報は、当該属性情報に対応する画像の特徴量であってよい。この場合において、上記特徴量は、上記複数の画像に含まれる顔画像の数を示し、上記属性情報解析手段は、上記複数の画像に含まれる顔画像の数が変化する画像を上記インデックス表示の対象となる画像として特定するようにしてもよい。これにより、顔画像の数が変化する位置を区切りとしてインデックス表示画面を生成させるという作用をもたらす。
【0012】
また、本発明の第4の側面は、被写体を撮像して動画データを生成する撮像手段と、上記動画データに含まれる複数の画像について属性情報を検出する属性情報検出手段と、上記属性情報と上記複数の画像のうち当該属性情報に対応する画像の上記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手段と、上記動画データおよび上記インデックスデータを含むストリームデータを生成するストリームデータ生成手段と、上記ストリームデータに含まれる属性情報を解析してインデックス表示の対象となる画像を特定する属性情報解析手段と、上記特定された画像の上記動画データにおける位置を生成する位置生成手段と、上記生成された位置に基づいて上記動画データの代表画像を生成する代表画像生成手段と、上記代表画像に基づいて上記インデックス表示画面を生成するインデックス表示画面生成手段とを具備する撮像装置およびその方法ならびにプログラムである。これにより、撮像された動画データとともに属性情報と撮像された動画データ中の属性情報に対応する位置とを関連付けたインデックスデータをストリームデータに格納しておいて、インデックスデータから特定される画像に基づいてインデックス表示画面を生成させるという作用をもたらす。
【発明の効果】
【0013】
本発明によれば、動画データの転送後においてもその動画データの各シーンに関する情報を維持することができるという優れた効果を奏し得る。
【発明を実施するための最良の形態】
【0014】
次に本発明の実施の形態について図面を参照して詳細に説明する。ここでは、動画データの記録される記録媒体としてDVD−Video規格によるディスクを想定するが、他の記録媒体においても同様に適用可能である。
【0015】
図1は、DVD−Video規格によるディスクのデータ構造を示す図である。ディスクは円盤状の形状を有しており、内周側にリードイン領域711が設けられ、外周側にリードアウト領域715が設けられる。そして、内周側から外周側に向かって順番に、ファイルシステム領域712と、管理情報領域713と、データ記録領域714とが設けられる。ファイルシステム領域712は、ファイルシステムの管理領域であり、ISO9660およびUDF(Universal Disk Format)の規格に準拠するように設けられている。管理情報領域713は、ディスク上に記録されているビデオコンテンツ全体の管理情報を保持する領域である。データ記録領域714は、各ビデオタイトルセットの内容およびその制御情報を保持する領域である。なお、これら領域は、2048バイトの論理セクタに区分される。
【0016】
管理情報領域713には、VMG(Video ManaGer)730が保持される。このVMG730は、VMGI(VMG Information)731と、VMGM_VOBS(Video OBject Set for VMG Menu)732と、VMGI_BUP(VMGI for Back UP)734とを備えている。VMGI731は、後述するように、ディスク上に記録されているビデオコンテンツのタイトル毎の管理情報やトップメニューの制御情報などを保持する。VMGM_VOBS732は、トップメニューのデータを保持する。また、VMGI_BUP734は、VMGI731のバックアップ用コピーである。
【0017】
データ記録領域714には、VTS(Video Titles Set)740が少なくとも1つ保持される。各VTS740は、それぞれVTSI(VTS Information)741と、VTSM_VOBS(Video OBject Set for VTS Menu)742と、VTSTT_VOBS(Video Object Set for Titles in a VTS)743と、VTSI_BUP(VTSI for Back UP)744とを備えている。VTSI741は、後述するように、そのビデオタイトルセットに含まれるタイトルのチャプター毎の管理情報や制御情報およびチャプターメニューの制御情報などを保持する。VTSM_VOBS742は、チャプターメニューのデータを保持する。VTSTT_VOBS743は、そのビデオタイトルセットに含まれるタイトルのデータを保持する。また、VTSI_BUP744は、VTSI741のバックアップ用コピーである。
【0018】
図2は、ビデオタイトルセット(VTS)におけるタイトルとチャプターとの関係を示す図である。上述のように、ビデオコンテンツの実データはVTSTT_VOBS743に記録される。各VTS740には、最大99タイトルまで格納できる。但し、ディスク全体としても最大99タイトルまでしか格納できないため、この最大タイトル数は他のVTSの使用状況に影響を受けることになる。
【0019】
VTS740における各タイトルは、少なくとも1つのチャプターに区分される。各タイトルの最大チャプター数は99である。カムコーダにおいては、記録開始から記録終了までの1回の記録単位がチャプターとして記録され、例えば、ディスクがイジェクトされた場合、タイトル内で99チャプターに達した場合、タイトル内で99セルに達した場合、動画記録から静止画記録に移行した場合などの事象が生じるまで同一タイトル内にチャプターが生成されていく。従って、カムコーダにおいて繰り返し記録を行っている際にタイトル内のチャプター数が99に達すると、そのタイトルが閉じられ、次のチャプターは新たなタイトル内に生成される。
【0020】
各タイトルにおけるチャプターの開始位置を保持するのはVTSI741である。後述するように、VTSI741は、タイトル毎の管理情報(TTU)として各チャプターの開始位置を示すポインタ(PTT_SRP)を保持している。
【0021】
図3は、ビデオオブジェクトセット(VOBS)の構成要素を示す図である。図1のVMGM_VOBS732、VTSM_VOBS742、および、VTSTT_VOBS743は、それぞれのデータをビデオオブジェクトセット(VOBS)として保持するものであり、共通の形式を有する。このVOBS760は、1個以上のビデオオブジェクト(VOB)761の集合である。このVOB761にはVOB_ID番号が付され、識別のために用いられる。このVOB761は、1個以上のセル(Cell)762により構成される。このセル762は、リアルタイム再生単位であり、VOB761と同様にセルID番号が付される。
【0022】
セル762は、1個以上のビデオオブジェクトユニット(VOBU)763を含む。このVOBU763は、ナビゲーションパック(NV_PCK)764を先頭とするパック列である。パックとは、2048バイトの固定データであり、先頭のNV_PCK764の他、映像データを保持する映像パック(V_PCK)765および音声データを保持する音声パック(A_PCK)766を備える。
【0023】
NV_PCK764は、パックヘッダ771に続いて、再生制御情報(PCI:Presentation Control Information)772およびデータ検索情報(DSI:Data Search Information)773を保持する。PCI772は、再生表示に関する制御情報であり、ノンシームレス再生のためのアングル情報や、サブピクチャのハイライト表示のための情報などを保持する。DSI773は、ディスクにアクセスするための制御情報であり、シームレス再生のためのアングル情報や、再生時間(0.5秒×n)を単位としたVOBUの検索情報などを保持する。
【0024】
図4は、ビデオオブジェクトユニット(VOBU)と符号化画像との関係を示す図である。VOBS760内の画像データは、MPEG−2(Moving Picture Coding Experts Group -2)符号化方式のプログラムストリーム(PS:Program Stream)により符号化されている。このMPEG−2符号化方式では、GOP(Group Of Pictures)と呼ばれる15枚の画像により0.5秒程度の動画像を表している。図4(a)では、1枚のIピクチャと、4枚のPピクチャと、10枚のBピクチャとにより計15枚の画像511によりGOP510を構成する様子が示されている。ここで、Iピクチャは、フレーム内符号化画像であり、他のPピクチャやBピクチャとは独立して符号化される完結画像である。一方、Pピクチャは、時間的に先行するIピクチャまたはPピクチャとの差分を利用して符号化される。また、Bピクチャは、時間的に前後両方向のIピクチャまたはPピクチャとの差分を利用して符号化される。従って、GOPにおいて独立して復号化できるのはIピクチャだけである。
【0025】
GOP内の15枚の画像は、ディスク上では図4(b)のように一部の順序が入れ替えされて記録される。これは、上述の符号化方式の特徴に基づくものであり、復号の際に時間的に後続の画像を待つことを回避するためである。例えば、Bピクチャ(B5)を復号化するためにはIピクチャ(I3)とPピクチャ(P6)を参照する必要があるが、図4(b)のような入れ替えを行うことにより、Bピクチャ(B5)を復号化する時点で必要な画像データ(I3およびP6)が揃っていることになる。なお、このような画像521の順序関係を維持するために、PTS(Presentation Time Stamp)522およびDTS(Decoding Time Stamp)523というタイムスタンプが付与される。PTS522は再生出力の時刻管理情報であり、そのタイムスタンプが付与された単位画像をいつ再生出力するかを示す。一方、DTS523は復号の時刻管理情報であり、そのタイムスタンプが付与された単位画像をいつ復号するかを示す。
【0026】
符号化された各画像は、図4(c)のように、それぞれ1つ以上のパックに収められる。例えば、Iピクチャ(I3)はV_PCK_I3(532)として保持され、Bピクチャ(B1)はV_PCK_B1(533)として保持される。そして、NV_PCK531などと共にVOBUを構成する。
【0027】
図5は、プログラムチェイン(PGC)におけるプログラムチェイン情報(PGCI)とビデオオブジェクトセット(VOBS)との関係を示す図である。プログラムチェイン(PGC)600は、再生単位であるセル762の再生順序を示すプログラムチェイン情報(PGCI)610と、そのセル762を保持するビデオオブジェクトセット(VOBS)620とから構成される。
【0028】
上述のとおり、VOBS620を構成するVOBやセルにはそれぞれID番号が付されているが、これは必ずしも再生順序を表すわけではない。この再生順序を示すのがPGCI610におけるセル番号である。例えば、図5の例では、PGCI610におけるセル番号(CN)の順序に従って、VOBS620におけるセルが、VOB#1・Cell#1、VOB#1・Cell#2、VOB#2・Cell#1、VOB#3・Cell#1、VOB#3・Cell#2、VOB#4・Cell#1、VOB#4・Cell#2、VOB#4・Cell#3、VOB#5・Cell#1の順で再生される。
【0029】
PGC600において、一つ以上の連続するセル番号を有するセルをまとめたものを一つのプログラム(PG)として定義することができる。このプログラムにはプログラム番号が付される。そして、一つ以上の連続するプログラム番号を有するプログラムをまとめたものをチャプター(PTT)として定義することができる。例えば、図5の例では、PG#1から#3がPTT#1として定義され、PG#4および#5がPTT#2として定義されている。従って、VOB#1・Cell#1、VOB#1・Cell#2、VOB#2・Cell#1、VOB#3・Cell#1、VOB#3・Cell#2が1つ目のチャプターとなり、VOB#4・Cell#1、VOB#4・Cell#2、VOB#4・Cell#3、VOB#5・Cell#1が2つ目のチャプターとなる。
【0030】
図6は、ビデオタイトルセット情報(VTSI)のデータ構造を示す図である。このVTSI741は、ビデオタイトルセット情報管理テーブル(VTSI_MAT:VTSI MAnagement Table)、ビデオタイトルセットPTT検索ポインタテーブル(VTS_PTT_SRPT:VTS PTT Search Pointer Table)、ビデオタイトルセットPGCIテーブル(VTS_PGCIT:VTS PGCI Table)、ビデオタイトルセットメニューPGCIユニットテーブル(VTSM_PGCI_UT:VTS Menu PGCI Unit Table)、ビデオタイトルセット時刻マップテーブル(VTS_TMAPT:VTS Time MAP Table)、ビデオタイトルセットメニュー・セルアドレステーブル(VTSM_C_ADT:VTS Menu Cell ADdress Table)、ビデオタイトルセットメニュー・VOBUアドレスマップ(VTSM_VOBU_ADMAP:VTS Menu VOBU ADdress MAP)、ビデオタイトルセット・セルアドレステーブル(VTS_C_ADT:VTS Cell ADdress Table)、および、ビデオタイトルセット・VOBUアドレスマップ(VTS_VOBU_ADMAP:VTS VOBU ADdress MAP)というデータ構造を備えることができる。
【0031】
ここで、VTS_PTT_SRPTは、各タイトルにおけるチャプターのポインタへのアクセス情報である。図2により説明したとおり、PTT_SRPは各チャプターの開始位置を示すポインタであり、具体的には、各チャプターの属するPGCのPGC番号およびそのPGCにおけるPG番号によりチャプターを特定する。このPTT_SRPをタイトル毎に保持するのがTTUであり、さらにTTUへのポインタ(TTU_SRP)を保持するのがVTS_PTT_SRPTである。従って、このVTS_PTT_SRPTに含まれる情報を利用することにより所望のチャプターのPTT_SRPを読み出すことができ、図2のようにVTSTT_VOBSにおけるチャプターの開始位置を知ることができる。
【0032】
また、VTSIにおけるVTS_PGCITは、ビデオタイトルセットのプログラムチェインを再生制御するためのPGCIへのアクセス情報である。このビデオタイトルセットのPGCIは必要に応じて1つ以上設けることができる。このVTS_PGCIへのポインタ(VTS_PGCI_SRP)がVTS_PGCITに保持される。
【0033】
ここで、PGCIは、PGC全般情報(PGC_GI:PGC General Information)、PGCコマンドテーブル(PGC_CMDT:PGC CoMmanD Table)、PGCプログラムマップ(PGC_PGMAP:PGC ProGram Map)、セルプレイバック情報テーブル(C_PBIT:Cell PlayBack Information Table)、および、セル位置情報テーブル(C_POSIT:Cell POSition Information Table)というデータ構造を備えることができる。PGC_CMDTは、セルの再生前後または再生中に実行すべきコマンドを保持する。PGC_PGMAPは、各プログラムの開始セル番号を保持する。C_PBITは、各セルのカテゴリや各セル内の先頭VOBUの開始アドレスなどを保持する。C_POSITは、各セルのVOB_ID番号およびセルID番号を保持する。従って、PGC番号とPG番号が既知であればPGC_PGMAPからプログラムにおける開始セルのセル番号を取得でき、さらにC_POSITによりセル番号からVOB_ID番号およびセルID番号を取得することができる。これにより、図5のようにVOBSにおける具体的な位置情報を知ることができる。すなわち、PTT_SRPのPGC番号およびPG番号からVTSTT_VOBSにおけるVOB_ID番号およびセルID番号を取得することができるわけである。
【0034】
図7は、本発明の実施の形態における顔情報パック769の内部構成例を示す図である。本発明の実施の形態では、一例として、動画データの各画像に含まれる顔画像の数を検出して、顔画像の数が変化する点をシーンの切れ目として動画データの代表画像を生成することを想定する。
【0035】
顔情報パック769は、上述の映像パック765や音声パック766と同様に、ビデオオブジェクトユニット(VOBU)763内に格納される。但し、全てのVOBUに格納される必要はなく、特定のVOBUにのみ格納されるようにしておくことが望ましい。撮像時に顔に関する情報を解析して、撮像終了時にまとめて顔に関する情報を格納することを想定すると、最終のVOBUまたは最終から所定数遡ったVOBUに格納しておくようにするのが便利である。
【0036】
この顔情報パック769は、パックヘッダおよびそれに続く顔情報パケットを備える。顔情報パケットは、パケットヘッダとそれに続くサブストリーム識別子と顔情報データを備える。顔情報パケットのパケットヘッダには、ストリームの種別を示すストリーム識別子が含まれる。ここでは、ストリーム識別子として、他のストリームと同期が必要なプライベートストリーム(private_stream_1)を意味する「10111101」(2進数)が保持される。また、パケットヘッダに続くサブストリーム識別子として、プロバイダ定義ストリーム(provider defined stream)を意味する「11111111」(2進数)が保持される。
【0037】
図8は、本発明の実施の形態における顔情報データの構成例を示す図である。
【0038】
顔情報データは、顔情報識別子(CAO_ID)と、顔情報プロパティ(CAO_FACE_INFO)と、顔情報の本体とから構成される。顔情報の本体は、顔検出情報(FACE_DETECT_INFO)と顔ブロック情報(FACE_BLOCK)とを保持する。
【0039】
顔情報識別子は、顔情報データであることを示す顔情報データ識別子(CAO_DAT_ID)と、顔情報のバージョンを示す顔情報バージョン(CAO_DAT_VER)とを保持する。顔情報バージョンが異なると、顔情報の形式が異なる場合がある。
【0040】
顔情報プロパティは、顔情報サイズ(CAO_FINFO_SIZE)と、顔情報データバージョン(FACE_DAT_VER)と、顔ブロック情報フラグ(FBLK_STRUCT_FLG)と、タイムスケール(FBLK_TIMESCALE)と、顔ブロック情報データ数(FBLK_Ns)と、顔検出情報サイズ(FDETECT_INF_SIZE)と、顔ブロック情報データサイズ(FBLK_SIZE)とを保持する。
【0041】
顔情報サイズは、顔情報の全体のサイズを示すフィールドである。顔情報データバージョンは、顔情報データのバージョンを示すフィールドである。顔ブロック情報フラグは、顔情報の本体に何が記載されているかを示す有効フラグ群である。この各フラグについては顔情報の説明において後述する。
【0042】
タイムスケールは、顔ブロック情報における時間の単位を示すフィールドである。顔ブロック情報データ数は、顔ブロック情報のデータ数を示すフィールドである。顔検出情報サイズは、顔検出情報のサイズを示すフィールドである。顔ブロック情報データサイズは、顔ブロック情報の1ブロック分のサイズを示すフィールドである。
【0043】
顔検出情報は、顔検出セル番号(CELL_ID)と、顔検出位置(OFFSET)とを保持する。顔検出セル番号は、顔が検出されたセルの番号を示すフィールドである。顔検出位置は、顔が検出された位置を示すフィールドである。具体的には、顔検出位置は、顔が検出されたビデオオブジェクトユニット(VOBU)内のナビゲーションパックの位置を、ビデオオブジェクトセット(VOBS)の先頭からパック単位で示したものである。
【0044】
顔ブロック情報は、顔検出時間オフセット(FACE_DETECT_TIME_OFFSET)と、顔基本情報(FACE_BASIC_INFO)と、顔スコア情報(FACE_SCORE)と、顔表情情報(FACE_EXPRESSION_INFO_1)とを保持する。顔検出時間オフセットは、顔が検出された時間のチャプター先頭からのオフセット時間を示すフィールドである。顔基本情報は、検出された顔のx座標(X)、y座標(Y)、幅(WIDTH)および高さ(HEIGHT)をそれぞれ示すフィールドである。顔スコア情報は、検出された顔の顔らしさのスコアを示すフィールドである。顔表情情報は、検出された顔の表情を示すフィールドであり、例えば、笑顔に属するか否か等を示す。これら顔ブロック情報の顔検出時間オフセット、顔基本情報、顔スコア情報および顔表情情報に有効なデータが保持されているか否かは、上述の顔ブロック情報フラグにおける有効フラグ群に示される。
【0045】
図9は、本発明の実施の形態における顔情報データにより代表画像が特定される様子を示す図である。
【0046】
ここでは、ビデオオブジェクトユニット(VOBU)を構成するVOBU763のうち、最終のVOBU#pに顔情報パック769が格納されていることを想定している。顔情報パック769における顔検出情報の顔検出位置(OFFSET)に基づいてVOBU#iが特定され、VOBU#iの映像パック765に含まれるIピクチャから顔サムネイル画像が生成される。
【0047】
なお、上述の顔検出時間オフセットを併用することにより、チャプター先頭からの経過時間を画面上に表示することもできる。
【0048】
図10は、本発明の実施の形態における映像記録装置としての撮像装置100の構成を示す図である。この撮像装置100は、カメラ部10と、記録再生処理部20と、制御部30とを備えている。
【0049】
カメラ部10は、光学ブロック11と、カメラ制御部12と、信号変換器13と、撮像信号処理部14と、音声入力部15と、音声信号処理部16とを備える。光学ブロック11は、内部に、被写体を撮像するためのレンズ群、絞り調整機構、フォーカス調整機構、ズーム機構、シャッター機構、フラッシュ機構、および、手ぶれ補正機構などを備える。カメラ制御部12は、制御部30から制御信号を受けて、光学ブロック11に供給する制御信号を生成する。そして、生成した制御信号を光学ブロック11に供給して、ズーム制御、シャッター制御、および、露出制御などの制御を行う。
【0050】
信号変換器13は、例えばCCD(Charge Coupled Device)などの撮像素子により構成され、その結像面に、光学ブロック11を通じた像が結像される。この信号変換器13は、シャッター操作に応じて制御部30から供給される画像取り込みタイミング信号を受けて、結像面に結像されている被写体像を撮像信号に変換し、撮像信号処理部14に供給する。
【0051】
撮像信号処理部14は、制御部30からの制御信号に基づいて、撮像信号についてのガンマ補正やAGC(Auto Gain Control)などの処理を行うとともに、撮像信号をデジタル信号としての画像信号に変換する処理も行う。音声入力部15は、撮影時の被写体周辺の音声を収集する。この音声入力部15からの音声信号は音声信号処理部16に供給される。音声信号処理部16は、制御部30からの制御信号に基づいて、音声信号についての補正やAGCなどの処理を行うとともに、音声信号をデジタル信号に変換する処理も行う。
【0052】
記録再生処理部20は、符号化/復号回路21と、ディスクインターフェース23と、出力処理部24と、バッファメモリ25とを備える。
【0053】
符号化/復号回路21は、カメラ部10からの画像信号および音声信号や追加記録情報をMPEG方式等に符号化し多重化して圧縮データに変換する符号化機能を有する。一方、符号化/復号回路21は、圧縮データから画像信号および音声信号や追加記録情報を分離して復号する復号機能を有する。また、符号化/復号回路21は、制御部30からの制御信号に基づいて、撮像信号処理部14からの画像信号に対して、自動ホワイトバランス制御、露出補正制御、デジタルズーム倍率に応じた拡大制御などをさらに行う。
【0054】
ディスクインターフェース23は、符号化/復号回路21から圧縮データを受けてディスク49に書き込む。また、ディスクインターフェース23は、ディスク49から圧縮データを読み出して符号化/復号回路21に供給する。出力処理部24は、制御部30からの制御により、符号化/復号回路21からの圧縮データを制御部30や出力端子27乃至29に供給する。バッファメモリ25は、例えばSDRAMなどにより構成され、符号化/復号回路21における符号化または復号のための作業領域として利用される。
【0055】
制御部30は、処理装置31と、ROM(Read Only Memory)33と、RAM(Random Access Memory)34と、操作入力部41を接続するための操作入力インターフェース35と、表示部42を接続するための表示制御部36と、メモリカード43を装填するためのメモリカードインターフェース37と、手ぶれ補正のために角速度を検出する角速度検出器38と、撮影時刻を記録するための時計回路39と、GPS受信部44とがシステムバス32を介して接続されることにより構成される。
【0056】
処理装置31は制御部30全体の処理を司るものであり、作業領域としてRAM34を使用する。ROM33には、カメラ部10を制御するためのプログラムや、画像信号や音声信号の記録制御および再生制御などを実行するためのプログラムが書き込まれている。
【0057】
操作入力インターフェース35に接続される操作入力部41には、撮影モードと再生モードなどの他のモードとを切り換えるモード切り換えキー、ズーム調整キー、露出調整のためのキー、シャッターキー、動画撮影用キー、表示部42における表示調整キーなどの複数のキーが設けられている。操作入力インターフェース35は、操作入力部41からの操作信号を処理装置31に伝える。処理装置31は、操作入力部41においていずれのキーが操作されたかを判別し、その判別結果に応じた制御処理を行う。
【0058】
表示制御部36に接続される表示部42は、例えばLCD(Liquid Crystal Display)などにより構成され、処理装置31の制御の下に、カメラ部10からの画像信号や、ディスク49から読み出された画像信号を表示する。
【0059】
メモリカードインターフェース37は、符号化/復号回路21からの圧縮データをメモリカード43に書き込む。また、メモリカードインターフェース37は、メモリカード43から圧縮データを読み出して符号化/復号回路21に供給する。
【0060】
時計回路39は、年、月、日、時間、分、秒などを表わす時間情報を生成する。角速度検出器38は、撮像装置100に対して外部から加わる角速度を検出するジャイロスコープである。この角速度検出器38からの角速度情報[ω=(θ/秒)]は、所定間隔毎に処理装置31に報告される。GPS受信部44は、GPS(Global Positioning System)衛星からの電波を受信して、撮像装置100の現在位置を取得するものである。
【0061】
図11は、本発明の実施の形態における撮像装置100の顔情報生成のための機能構成例を示す図である。
【0062】
操作受付部111は、ユーザによる操作入力を受け付けるものであり、操作入力部41により実現される。この操作受付部111により受け付けられた操作入力に基づいて、撮像部112に指示が与えられる。
【0063】
撮像部112は、被写体を撮像して動画データを生成するものであり、例えばカメラ部10により実現される。この撮像部112により撮像された動画データは記録制御部113および顔検出部114に供給される。
【0064】
記録制御部113は、撮像された動画データおよびその動画データに関する顔情報をストリーム記録部191に記録するよう制御するものであり、例えば記録再生処理部20により実現される。
【0065】
顔検出部114は、撮像された動画データを構成する各画像について、その各画像に含まれる顔画像を検出して、その顔画像に関する情報を取得するものである。この顔検出部114により得られた情報は、顔情報生成部115に供給される。
【0066】
顔情報生成部115は、顔検出部114によって検出された顔画像について、顔情報データを生成するものである。顔情報データのフォーマットは、例えば図8に示したとおりである。この顔情報生成部115により生成された顔情報データは、顔情報保持部116に保持される。
【0067】
顔情報保持部116は、顔情報生成部115により生成された顔情報データを保持するものである。この顔情報保持部116には、顔検出部114において顔画像が検出されるのに従って、顔情報データが蓄積されていくことになる。
【0068】
ストリーム記録部191は、撮像された動画データおよび顔情報データをストリームデータとして記録する記録媒体である。このストリーム記録部191は、例えばDVD−Video規格によるディスクであり、図3のようにVOBU内に映像パック765や音声パック766を記録するのと同様に、最終のVOBUまたは最終から所定数遡ったVOBUに顔情報データを顔情報パック769として格納する。
【0069】
図12は、本発明の実施の形態における撮像装置100の顔インデックス表示のための機能構成例を示す図である。
【0070】
操作受付部111およびストリーム記録部191は、図11により説明したものと同様である。この例では、操作受付部111により受け付けられた操作入力に基づいて、ストリーム記録部191に記録された顔情報データがインデックスデータとして読み出される。
【0071】
顔情報解析部122は、顔情報データを解析してインデックス表示の対象となる画像を特定するものである。具体的には、この顔情報解析部122は、顔情報パック769の顔検出情報における顔検出位置(図8のOFFSET)により、インデックス表示の対象となる画像を特定する。すなわち、ビデオオブジェクトセット(VOBS)の先頭からのパック単位の位置により、インデックス表示の対象となる画像が特定される。
【0072】
アドレス生成部123は、顔情報解析部122から供給された顔検出位置に基づいてインデックス表示の対象となる画像にアクセスするためのストリーム記録部191におけるアドレスを生成するものである。上述の顔検出位置は2048バイトのパック単位であるため、パック単位の位置に2048を乗じたものがバイトアドレスとなる。
【0073】
顔サムネイル生成部124は、アドレス生成部123によって生成されたアドレスによりストリーム記録部191から画像を取得して、その画像から顔サムネイル画像を生成するものである。具体的には、この顔サムネイル生成部124は、アドレス生成部123によって生成されたアドレスが示すVOBUに含まれるIピクチャを取得し、そのIピクチャを縮小することにより顔サムネイル画像を生成する。
【0074】
顔インデックス生成部125は、顔サムネイル生成部124により生成された顔サムネイル画像を利用して顔インデックス表示画面を生成するものである。この顔インデックス表示画面については図14を参照して後述する。
【0075】
表示部126は、顔インデックス生成部125により生成された顔インデックス表示画面を表示するものである。
【0076】
図13は、本発明の実施の形態によるチャプター表示画面の一例を示す図である。このチャプター表示画面では、ディスクに記録されている各チャプターの代表画像がサムネイル811として表示されている。また、このサムネイル811の下部にはそのチャプターのタイトル番号およびチャプター番号812が表示されている。
【0077】
この図13の例では1枚の画面に6つのチャプターが表示されており、それ以外のチャプターを表示させたい場合には、画面ページを変更する必要がある。画面ページを変更するために使用されるのが前ページボタン818または次ページボタン819である。また、選択されたチャプターの顔インデックス表示画面を表示するためには、ユーザは顔インデックス表示ボタン817を押下する。
【0078】
ユーザは、操作キーのメニュー・キーによってチャプター表示画面を呼び出し、四方向キーでハイライト表示を移動する。四方向キー真中の決定キーによって、選択したチャプターの再生開始やページの切替えを行うことができる。
【0079】
なお、このチャプター表示画面のそれぞれのページを、画像データとしてVMGM_VOBS732に記録してもよい。サムネイル811の画像自体もメニューページの一部として貼り込まれている。一方、ユーザがリモコンなどにおける操作キーにより画面上のサムネイルを選択する際の選択枠815は、サブピクチャとして定義され、NV_PCK764のPCI772(図3)におけるハイライト情報(HLI:HighLight Information)によりハイライト表示の制御が行われる。このようにメニューページとしてメディアに記録しておくことで、市販されているDVD再生装置でメディアを再生したときでも、顔インデックス表示画面を表示することができる。
【0080】
図14は、本発明の実施の形態による顔インデックス表示画面の一例を示す図である。チャプター表示画面において顔インデックス表示ボタン817が押下されると、選択されたチャプター821の顔インデックス表示画面が表示される。
【0081】
この顔インデックス表示画面には、チャプター821において検出された顔の数が変化する点をシーンの区切りとして、各シーンの代表画像824が表示される。この顔インデックス表示画面においても、チャプター表示画面と同様に、リモコンなどにおける操作キーにより画面上の代表画像824を選択する際の選択枠825が表示される。
【0082】
この図14の例では1枚の画面に6つの代表画像が表示されており、それ以外の代表画像を表示させたい場合には、画面ページを変更する必要がある。画面ページを変更するために使用されるのが前ページボタン828または次ページボタン829である。また、この例では1枚の画面に3つのチャプターが表示されており、それ以外のチャプターを表示させたい場合には、表示チャプターを変更する必要がある。表示チャプターを変更するために使用されるのが前チャプターボタン822または次チャプターボタン823である。
【0083】
この顔インデックス表示画面においても、ユーザは四方向キーでハイライト表示を移動する。四方向キー真中の決定キーによって、選択された代表画像に対応する位置からの再生開始やページの切替えを行うことができる。
【0084】
図15は、本発明の実施の形態における撮像装置100の動画データ変換のための機能構成例を示す図である。図11の例では撮像の際に顔検出を行って顔情報をストリームデータに格納する実施態様を示したが、ここでは動画データとは独立した動画情報が存在する場合に動画情報に基づいてストリームデータに変換する実施態様について説明する。例えば、顔情報が動画データ以外のメタファイルとして保存されている場合において、動画データおよび顔情報を1つのストリームデータとして記録することを想定する。
【0085】
操作受付部111およびストリーム記録部191は、図11により説明したものと同様である。この例では、操作受付部111により受け付けられたデータ変換指示入力に基づいて、データ変換が行われてストリームデータがストリーム記録部191に記録される。
【0086】
動画データ保持部181は動画データを保持するものであり、動画情報保持部182はその動画データに関する動画情報を保持するものである。すなわち、ここでは、動画データに関する動画情報が動画データ保持部181とは別のファイルとして保持されていることを想定している。
【0087】
データ変換部132は、操作受付部111からの指示に基づいて動画データ保持部181に保持される動画データをストリームデータの形式に変換するものであり、例えば処理装置31により実現される。変換されたストリームデータは、記録制御部133に供給される。
【0088】
記録制御部133は、データ変換部132によって変換されたストリームデータをストリーム記録部191に記録するよう制御するものであり、例えば記録再生処理部20により実現される。
【0089】
動画情報解析部134は、データ変換部132において変換対象となっている動画データに関する動画情報を動画情報保持部182から読み出して、その動画情報を解析してその顔画像に関する情報を取得するものであり、例えば処理装置31により実現される。
【0090】
顔情報生成部135は、動画情報解析部134によって取得された顔画像について、顔情報データを生成するものである。顔情報データのフォーマットは、例えば図8に示したとおりである。この顔情報生成部135により生成された顔情報データは、顔情報保持部136に保持される。
【0091】
顔情報保持部136は、顔情報生成部135により生成された顔情報データを保持するものである。この顔情報保持部136には、動画情報解析部134において顔画像が取得されるのに従って、顔情報データが蓄積されていくことになる。この顔情報データは、記録制御部133によってストリームデータの一部として格納される。すなわち、図3のVOBU内の映像パック765や音声パック766と同様に、最終のVOBUまたは最終から所定数遡ったVOBUに顔情報データが顔情報パック769としてストリーム記録部191に格納される。
【0092】
図16は、本発明の実施の形態における撮像装置100の動画データ編集のための機能構成例を示す図である。ここでは、ストリーム記録部191に記録されているストリームデータが分割編集された際に、顔情報データが更新される実施態様について説明する。
【0093】
操作受付部111およびストリーム記録部191は、図11により説明したものと同様である。この例では、操作受付部111により受け付けられたデータ編集指示入力に基づいて、ストリーム記録部191に記録されているストリームデータの編集が行われる。
【0094】
ストリーム編集部142は、ストリーム記録部191に記録されているストリームデータを、操作受付部111により受け付けられたデータ編集指示入力に基づいて分割編集するものである。
【0095】
顔情報更新部143は、ストリーム編集部142によって分割編集されたストリームデータについて顔情報データを更新するものである。すなわち、分割点以降のストリームデータについては、元の顔情報データから分割点以前の顔情報データを削除する。一方、分割点以前のストリームデータについては、元の顔情報データから分割点以前の顔情報データを抽出して、新たな顔情報データとして追加する。これら分割点以前の顔情報データおよび分割点以降のストリームデータは、それぞれ別個のストリームデータとして、ストリーム編集部142を介してストリーム記録部191に記録される。
【0096】
次に本発明の実施の形態における撮像装置100の動作について図面を参照して説明する。
【0097】
図17は、本発明の実施の形態における撮像時の顔情報生成方法の処理手順例を示す図である。
【0098】
まず、操作受付部111により撮像の指示がなされると、撮像部112において撮像された動画データを構成する各画像について、顔検出部114がその各画像に含まれる顔画像を検出して、その顔画像に関する情報を取得する(ステップS911)。そして、顔情報生成部115は、ステップS911において検出された顔画像について、顔情報データを生成する(ステップS912)。これらの処理が、チャプターの終了に至るまで繰り返される(ステップS913)。
【0099】
そして、1チャプター分の撮像の終了時に、撮像された動画データに関する顔情報が記録制御部113によってストリーム記録部191に記録される(ステップS914)。具体的には、最終のVOBUまたは最終から所定数遡ったVOBUに顔情報パック769が格納される。
【0100】
図18は、本発明の実施の形態における顔インデックス表示方法の処理手順例を示す図である。
【0101】
まず、ストリーム記録部191に記録された顔情報データが顔情報解析部122によって解析され、インデックス表示の対象となる画像が特定される(ステップS921)。その特定されたインデックス表示の対象となる画像にアクセスするためのストリーム記録部191におけるアドレスがアドレス生成部123によって生成される(ステップS922)。この生成されたアドレスの示すVOBUに含まれるIピクチャが顔サムネイル生成部124によって取得され(ステップS923)、そのIピクチャを縮小することにより顔サムネイル画像が生成される(ステップS924)。
【0102】
このようにして生成された顔サムネイル画像を利用して、顔インデックス生成部125によって顔インデックス表示画面が生成され(ステップS925)、表示部126に顔インデックス表示画面が表示される(ステップS926)。
【0103】
図19は、本発明の実施の形態における動画データ変換時の顔情報生成方法の処理手順例を示す図である。
【0104】
まず、データ変換部132において変換対象となっている動画データに関する動画情報が動画情報保持部182から読み出され、動画情報解析部134がその動画情報を解析してその顔画像に関する情報を取得する(ステップS931)。顔情報生成部135は、ステップS931において取得された顔画像について、顔情報データを生成する(ステップS932)。そして、動画データの変換終了時に、変換された動画データに関する顔情報が記録制御部113によってストリーム記録部191に記録される(ステップS934)。具体的には、最終のVOBUまたは最終から所定数遡ったVOBUに顔情報パック769が格納される。
【0105】
図20は、本発明の実施の形態における動画データ編集時の顔情報データ更新方法の処理手順例を示す図である。
【0106】
まず、操作受付部111により受け付けられたデータ編集指示入力に基づいて、ストリーム編集部142はストリーム記録部191に記録されているストリームデータを分割編集する(ステップS941)。そして、分割点以前のストリームデータについては、元のストリームデータの顔情報データから分割点以前の顔情報データが抽出され、新たな顔情報データとして追加される(ステップS942)。一方、分割点以降のストリームデータについては、元のストリームデータの顔情報データから分割点以前の顔情報データが削除される(ステップS943)。
【0107】
このように、本発明の実施の形態によれば、顔情報生成部115によって生成された顔情報パック769を最終のVOBUまたは最終から所定数遡ったVOBUに格納しておくことによって、動画データの転送後においてもその動画データの各シーンに関する顔情報を維持することができるとともに、この顔情報に基づいて顔サムネイル生成部124および顔インデックス生成部125によって顔インデックス表示画面を生成して、表示部126に表示することができる。また、顔情報の生成は、撮像時の他、異なるフォーマット間のデータ変換時にも行うことができる。また、ストリームデータの分割編集の際には、分割された両ストリームデータの最終のVOBUまたは最終から所定数遡ったVOBUに顔情報パックを格納することができる。
【0108】
なお、本発明の実施の形態では、顔画像の数が変化する点をシーンの切れ目として動画データの代表画像を生成しているが、これ以外をシーンの切れ目とすることもできる。一般に、動画データに含まれる複数の画像に関する情報を属性情報とすると、この属性情報としては、画像自体の特徴の他、画像に対応する音声の状態や、その画像が撮像された場所や時刻などの情報が含まれる。例えば、時計回路39、角速度検出器38およびGPS受信部44により取得された情報を属性情報として、これら属性情報の変化点をシーンの切れ目とすることができる。
【0109】
また、本発明の実施の形態では、アドレス生成部123において生成されたアドレスが示すVOBUに含まれるIピクチャから、顔サムネイル生成部124が顔サムネイル画像を生成することを想定したが、顔サムネイル画像を予め生成しておいて顔情報データに格納しておいてもよい。この場合、顔サムネイル生成部124は、顔情報データから顔サムネイル画像を読み出して、顔インデックス生成部125に供給する。
【0110】
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。
【0111】
すなわち、請求項1において、属性情報検出手段は例えば顔検出部114に対応する。また、インデックスデータ生成手段は例えば顔情報生成部115に対応する。また、ストリームデータ生成手段は例えば記録制御部113に対応する。
【0112】
また、請求項5において、撮像手段は例えば撮像部112に対応する。また、属性情報検出手段は例えば顔検出部114に対応する。また、インデックスデータ生成手段は例えば顔情報生成部115に対応する。また、ストリームデータ生成手段は例えば記録制御部113に対応する。
【0113】
また、請求項6において、属性情報解析手段は例えば顔情報解析部122に対応する。また、位置生成手段は例えばアドレス生成部123に対応する。また、代表画像生成手段は例えば顔サムネイル生成部124に対応する。また、インデックス表示画面生成手段は例えば顔インデックス生成部125に対応する。
【0114】
また、請求項6において、撮像手段は例えば撮像部112に対応する。また、属性情報検出手段は例えば顔検出部114に対応する。また、インデックスデータ生成手段は例えば顔情報生成部115に対応する。また、ストリームデータ生成手段は例えば記録制御部113に対応する。属性情報解析手段は例えば顔情報解析部122に対応する。また、位置生成手段は例えばアドレス生成部123に対応する。また、代表画像生成手段は例えば顔サムネイル生成部124に対応する。また、インデックス表示画面生成手段は例えば顔インデックス生成部125に対応する。
【0115】
また、請求項10および11において、属性情報検出手順は例えばステップS911に対応する。また、インデックスデータ生成手順は例えばステップS912に対応する。また、ストリームデータ生成手順は例えばステップS914に対応する。また、属性情報解析手順は例えばステップS921に対応する。また、位置生成手順は例えばステップS922に対応する。また、代表画像生成手順は例えばステップS923およびS924に対応する。また、インデックス表示画面生成手順は例えばステップS925に対応する。
【0116】
なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。
【図面の簡単な説明】
【0117】
【図1】DVD−Video規格によるディスクのデータ構造を示す図である。
【図2】ビデオタイトルセット(VTS)におけるタイトルとチャプターとの関係を示す図である。
【図3】ビデオオブジェクトセット(VOBS)の構成要素を示す図である。
【図4】ビデオオブジェクトユニット(VOBU)と符号化画像との関係を示す図である。
【図5】プログラムチェイン(PGC)におけるプログラムチェイン情報(PGCI)とビデオオブジェクトセット(VOBS)との関係を示す図である。
【図6】ビデオタイトルセット情報(VTSI)のデータ構造を示す図である。
【図7】本発明の実施の形態における顔情報パック769の内部構成例を示す図である。
【図8】本発明の実施の形態における顔情報データの構成例を示す図である。
【図9】本発明の実施の形態における顔情報データにより代表画像が特定される様子を示す図である。
【図10】本発明の実施の形態における映像記録装置としての撮像装置100の構成を示す図である。
【図11】本発明の実施の形態における撮像装置100の顔情報生成のための機能構成例を示す図である。
【図12】本発明の実施の形態における撮像装置100の顔インデックス表示のための機能構成例を示す図である。
【図13】本発明の実施の形態によるチャプター表示画面の一例を示す図である。
【図14】本発明の実施の形態による顔インデックス表示画面の一例を示す図である。
【図15】本発明の実施の形態における撮像装置100の動画データ変換のための機能構成例を示す図である。
【図16】本発明の実施の形態における撮像装置100の動画データ編集のための機能構成例を示す図である。
【図17】本発明の実施の形態における撮像時の顔情報生成方法の処理手順例を示す図である。
【図18】本発明の実施の形態における顔インデックス表示方法の処理手順例を示す図である。
【図19】本発明の実施の形態における動画データ変換時の顔情報生成方法の処理手順例を示す図である。
【図20】本発明の実施の形態における動画データ編集時の顔情報データ更新方法の処理手順例を示す図である。
【符号の説明】
【0118】
10 カメラ部
11 光学ブロック
12 カメラ制御部
13 信号変換器
14 撮像信号処理部
15 音声入力部
16 音声信号処理部
20 記録再生処理部
21 符号化/復号回路
23 ディスクインターフェース
24 出力処理部
25 バッファメモリ
27〜29 出力端子
30 制御部
31 処理装置
32 システムバス
33 ROM
34 RAM
35 操作入力インターフェース
36 表示制御部
37 メモリカードインターフェース
38 角速度検出器
39 時計回路
41 操作入力部
42 表示部
43 メモリカード
44 GPS受信部
100 撮像装置
111 操作受付部
112 撮像部
113、133 記録制御部
114 顔検出部
115、135 顔情報生成部
116、136 顔情報保持部
122 顔情報解析部
123 アドレス生成部
124 顔サムネイル生成部
125 顔インデックス生成部
126 表示部
132 データ変換部
134 動画情報解析部
142 ストリーム編集部
143 顔情報更新部
181 動画データ保持部
182 動画情報保持部
191 ストリーム記録部

【特許請求の範囲】
【請求項1】
動画データに含まれる複数の画像について属性情報を検出する属性情報検出手段と、
前記属性情報と前記複数の画像のうち当該属性情報に対応する画像の前記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手段と、
前記動画データおよび前記インデックスデータを含むストリームデータを生成するストリームデータ生成手段と
を具備する画像処理装置。
【請求項2】
前記属性情報は、当該属性情報に対応する画像の特徴量であることを特徴とする請求項1記載の画像処理装置。
【請求項3】
前記属性情報検出手段は、前記特徴量として前記複数の画像に含まれる顔画像の数を検出することを特徴とする請求項2記載の画像処理装置。
【請求項4】
前記ストリームデータ生成手段は、ビデオオブジェクトユニットを単位として前記ストリームデータを生成し、前記インデックスデータを最終のビデオオブジェクトユニットに格納することを特徴とする請求項3記載の画像処理装置。
【請求項5】
被写体を撮像して動画データを生成する撮像手段と、
前記動画データに含まれる複数の画像について属性情報を検出する属性情報検出手段と、
前記属性情報と前記複数の画像のうち当該属性情報に対応する画像の前記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手段と、
前記動画データおよび前記インデックスデータを含むストリームデータを生成するストリームデータ生成手段と
を具備する撮像装置。
【請求項6】
動画データに含まれる複数の画像の位置と当該画像に関する属性情報とを関連付けたインデックスデータを前記動画データとともに格納するストリームデータからインデックス表示画面を生成するインデックス生成装置であって、
前記属性情報を解析してインデックス表示の対象となる画像を特定する属性情報解析手段と、
前記特定された画像の前記動画データにおける位置を生成する位置生成手段と、
前記生成された位置に基づいて前記動画データの代表画像を生成する代表画像生成手段と、
前記代表画像に基づいて前記インデックス表示画面を生成するインデックス表示画面生成手段と
を具備することを特徴とするインデックス生成装置。
【請求項7】
前記属性情報は、当該属性情報に対応する画像の特徴量であることを特徴とする請求項6記載の画像処理装置。
【請求項8】
前記特徴量は、前記複数の画像に含まれる顔画像の数を示し、
前記属性情報解析手段は、前記複数の画像に含まれる顔画像の数が変化する画像を前記インデックス表示の対象となる画像として特定することを特徴とする請求項7記載の画像処理装置。
【請求項9】
被写体を撮像して動画データを生成する撮像手段と、
前記動画データに含まれる複数の画像について属性情報を検出する属性情報検出手段と、
前記属性情報と前記複数の画像のうち当該属性情報に対応する画像の前記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手段と、
前記動画データおよび前記インデックスデータを含むストリームデータを生成するストリームデータ生成手段と、
前記ストリームデータに含まれる属性情報を解析してインデックス表示の対象となる画像を特定する属性情報解析手段と、
前記特定された画像の前記動画データにおける位置を生成する位置生成手段と、
前記生成された位置に基づいて前記動画データの代表画像を生成する代表画像生成手段と、
前記代表画像に基づいて前記インデックス表示画面を生成するインデックス表示画面生成手段と
を具備する撮像装置。
【請求項10】
動画データに含まれる複数の画像について属性情報を検出する属性情報検出手順と、
前記属性情報と前記複数の画像のうち当該属性情報に対応する画像の前記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手順と、
前記動画データおよび前記インデックスデータを含むストリームデータを生成するストリームデータ生成手順と、
前記ストリームデータに含まれる属性情報を解析してインデックス表示の対象となる画像を特定する属性情報解析手順と、
前記特定された画像の前記動画データにおける位置を生成する位置生成手順と、
前記生成された位置に基づいて前記動画データの代表画像を生成する代表画像生成手順と、
前記代表画像に基づいて前記インデックス表示画面を生成するインデックス表示画面生成手順と
を具備することを特徴とするインデックス生成方法。
【請求項11】
動画データに含まれる複数の画像について属性情報を検出する属性情報検出手順と、
前記属性情報と前記複数の画像のうち当該属性情報に対応する画像の前記動画データにおける位置とを関連付けたインデックスデータを生成するインデックスデータ生成手順と、
前記動画データおよび前記インデックスデータを含むストリームデータを生成するストリームデータ生成手順と、
前記ストリームデータに含まれる属性情報を解析してインデックス表示の対象となる画像を特定する属性情報解析手順と、
前記特定された画像の前記動画データにおける位置を生成する位置生成手順と、
前記生成された位置に基づいて前記動画データの代表画像を生成する代表画像生成手順と、
前記代表画像に基づいて前記インデックス表示画面を生成するインデックス表示画面生成手順と
をコンピュータに実行させることを特徴とするプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate


【公開番号】特開2009−164828(P2009−164828A)
【公開日】平成21年7月23日(2009.7.23)
【国際特許分類】
【出願番号】特願2007−341028(P2007−341028)
【出願日】平成19年12月28日(2007.12.28)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】