情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システム
【課題】被写体映像の撮影途中でマニュアル操作によって編集する場合に比べて格段に編集操作性を向上できるようにする。
【解決手段】被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するビデオカメラ100であって、被写体の映像を撮影して映像データを出力し、かつ、当該被写体の周囲の音を集音して音声データを出力する映像&音収録部31と、この映像&音収録部31を操作する操作者の生体感情を検出して感情データを出力する生体センサ部45と、この生体センサ部45から出力される感情データと映像&音収録部31から出力される被写体の映像データ及び被写体周囲収録時の音声データとを対応付けるように編集処理等する情報処理部15とを備えるものである。
【解決手段】被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するビデオカメラ100であって、被写体の映像を撮影して映像データを出力し、かつ、当該被写体の周囲の音を集音して音声データを出力する映像&音収録部31と、この映像&音収録部31を操作する操作者の生体感情を検出して感情データを出力する生体センサ部45と、この生体センサ部45から出力される感情データと映像&音収録部31から出力される被写体の映像データ及び被写体周囲収録時の音声データとを対応付けるように編集処理等する情報処理部15とを備えるものである。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、動画を撮るビデオカメラや、静止画を撮るデジタルカメラ、カメラ付きの携帯電話機、カメラ付きの携帯端末装置、これら装置から得られる映像及び音情報を再生する情報再生装置、あるいは、データを保存する記録編集再生装置を備えたシステム等に適用可能な情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システムに関する。
【0002】
詳しくは、被写体の映像が撮影され、及び、当該被写体の周囲の音を集音して得られた情報を処理する情報処理部を備え、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点等の映像及び音情報を自動抽出できようにすると共に、映像及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようにしたものである。
【背景技術】
【0003】
近年、記憶メディア容量の増大化、機器の小型化及び機器間の相互通信の強化が図られ、大容量の個人映像、静止画を撮影、鑑賞できるようになってきた。例えば、ユーザ(操作者)は、運動会や旅行等のイベントにおいて、思い出の映像を撮るため、被写体や景色・風景等の映像及び、被写体周囲の音をビデオカメラを用いて収録する場合が多い。
【0004】
ビデオカメラは、撮像部、集音部、記録部、操作部及び制御部を有して構成されている。撮像部は操作部による操作に基づいて被写体や景色・風景等の映像を撮影し、集音部は被写体周囲の音を収録し、記録部は制御部のメモリ制御を受けて、撮像部によって撮影された被写体等の動画映像及び、集音部によって集音された被写体周囲の音を記録するようになされる。
【0005】
また、デジタルカメラや、カメラ付き携帯電話機によれば、被写体を撮影して静止画を記録部に記録するようになされる。上述のビデオカメラ、デジタルカメラ及びカメラ付き携帯電話機の記録部には、着脱可能なメモリスティック等の記録メディアが使用される場合が多い。記憶メディア容量の増大化に伴い、膨大な個人コンテンツ(静止画、動画映像)を保存できるようになった。これらの記録メディアは記録編集再生装置に装填され、編集処理に移行されて、思い出の映像及び音情報を編集し保存するようになされる。編集は、個人が後日それらのコンテンツを鑑賞するに値する状態とするための作業である。編集後の映像及び音声情報は、後日、鑑賞の用に供される場合が多い。
【0006】
ところで、この種の記録編集再生装置に関連して、特許文献1には映像音声自動編集装置、方法及び記録媒体が開示されている。この映像音声自動編集装置によれば、被写体の映像及び音声を記録すると同時に、当該記録と同期してユーザの脳波を測定し、情報取得後、ユーザの脳波を解析して、当該ユーザの覚醒水準が高いときの映像及び音声を自動的に判別する。判別されたユーザの覚醒水準が高いときの映像及び音声を要約編集するようになされる。このように装置を構成すると、ユーザの覚醒水準の高い状態のシーンを網羅しつつ、シーン全体の流れを損なわない見やすい映像及び音声を編集できるというものである。
【0007】
また、特許文献2には情報コンテンツの編集装置及び編集方法が開示されている。この編集装置によれば、生体情報に基づく情報を用いて感情の度合いを示す感情パラメータを作成し、この感情パラメータを数値化した感情レベルに応じて要約作成用のコマンドを作成し、このコマンドを用いて情報コンテンツデータの要約を作成するようになされる。このように装置を構成すると、生体情報から解析された感情パラメータに基づいて、映像や音声等の情報コンテンツの要約を作成できるというものである。
【0008】
【特許文献1】特許 第3514236号公報(第4頁 図2)
【特許文献2】特開2005−128884号公報(第3頁 図6)
【発明の開示】
【発明が解決しようとする課題】
【0009】
ところで、従来例に係るビデオカメラ、デジタルカメラ、カメラ付き携帯電話機及び、記録再生編集装置を取り扱う情報処理システムによれば、以下のような問題がある。
【0010】
i.ビデオカメラ、デジタルカメラ及びカメラ付き携帯電話機等によれば、記憶メディア容量の増大、機器の小型化及び機器間の相互通信の強化が図られ、大容量の個人映像の撮影、静止画の撮影、これらの映像及び静止画を鑑賞できるようになった。しかし、被写体映像及びその周辺の音情報を撮影及び収録し易くなった反面、被写体や景色・風景等の静止画、動画映像及び音声情報を成すコンテンツデータがあまりにも膨大な量となり、現状ではその編集作業に多くの時間が費やさなければならない事態に陥っている。
【0011】
編集作業には人間が主体的となることが多く、膨大な編集時間を要したり、折角、取得したコンテンツデータを未編集のままにして、コンテンツ自体の価値が損失に繋がってしまうという問題がある。
【0012】
ii.特許文献1に見られるような記録編集再生装置によれば、被写体の映像及び音声を記録すると同時に、当該記録と同期してユーザの脳波を測定し、情報取得後、ユーザの脳波を解析して、当該ユーザの覚醒水準が高いときの映像及び音声を自動的に判別している。このため、判別されたユーザの覚醒水準が高いときの映像及び音声を要約編集することができても、運動会や旅行等のイベントにおいて、手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができていないのが現状である。
【0013】
iii.特許文献2に見られるような編集装置によれば、生体情報に基づく情報を用いて作成した感情の度合いを示す感情パラメータを数値化した感情レベルに応じて要約作成用のコマンドを作成し、このコマンドを用いて情報コンテンツデータの要約を作成している。このため、関心を示した場面や、驚いた場面の映像及び音声を要約編集することができても、運動会や旅行等のイベントにおいて、被写体の映像及び音収録時に、手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができていないのが現状である。
【0014】
そこで、この発明はこのような従来の課題を解決したものであって、被写体映像の撮影途中でマニュアル操作によって編集する場合に比べて格段に編集操作性を向上できるようにした情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システムを提供することを目的とする。
【課題を解決するための手段】
【0015】
上述した課題は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置であって、被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、この映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、この情報出力部から出力される生体感情報と映像及び音収録部から出力される被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理する情報処理部とを備えることを特徴とする第1の情報処理装置によって解決される。
【0016】
本発明に係る第1の情報処理装置によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、映像及び音収録部は、被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する。情報出力部は、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する。これを前提にして、情報出力部から出力される生体感情報と映像及び音収録部から出力される被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理する。
【0017】
従って、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。
【0018】
本発明に係る第2の情報処理装置は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報であって、操作者の生体感情を検出して作成された生体感情報と、撮影集音された当該被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて編集起点情報及び編集終点情報が付加された情報を処理する装置であって、編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力する入力部と、この入力部によって入力された被写体の映像情報及び当該被写体周囲収録時の音声情報を外部からの指示に基づいて自動編集するか否かを判別する判別部と、この判別部によって編集すると判別された被写体の映像情報及び当該被写体周囲収録時の音声情報から編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせる映像及音声処理部とを備えることを特徴とするものである。
【0019】
本発明に係る第2の情報処理装置によれば、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。
【0020】
本発明に係る情報処理方法は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する方法であって、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを有することを特徴とするものである。
【0021】
本発明に係る情報処理方法によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0022】
本発明に係るコンピュータが読み取り可能なプログラムは、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムであって、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したことを特徴とするものである。
【0023】
本発明に係るプログラムによれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0024】
本発明に係るコンピュータが読み取り可能な記録媒体は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムを記述した記録媒体であって、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したプログラムを有することを特徴とするものである。
【0025】
本発明に係る記録媒体によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0026】
本発明に係る情報処理システムは、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する情報処理装置と、この情報処理装置から得られる被写体の映像情報及び当該被写体の周囲の音情報を再生する情報再生装置とを備え、情報処理装置は、被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、情報出力部から出力される生体感情報と映像及び音収録部から出力される被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理する情報処理部とを有することを特徴とするものである。
【0027】
本発明に係る情報処理システムによれば、本発明に係る情報処理装置が応用されるので、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【発明の効果】
【0028】
本発明に係る第1の情報処理装置及び情報処理方法によれば、被写体の映像が撮影され、及び、当該被写体の周囲の音を集音して得られた情報を処理する情報処理部を備え、情報処理部は、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理するものである。
【0029】
この構成によって、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。従って、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0030】
本発明に係る第2の情報処理装置及び情報処理方法によれば、外部からの指示に基づいて自動編集すると判別された被写体の映像情報及び当該被写体周囲収録時の音声情報から編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせるようになされる。
【0031】
この構成によって、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。従って、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0032】
本発明に係るコンピュータが読み取り可能なプログラム及び記録媒体によれば、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を再現性良く実行できるようになる。
【0033】
本発明に係る情報処理システムによれば、本発明に係る情報処理装置が応用されるので、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0034】
これにより、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報をファイルにまとめた操作者固有の映像及び音情報ファイル作成システム、操作者固有の映像及び音情報ファイル視聴システム、操作者固有の映像及び音情報ファイルダウンロードシステム及び、CDやMD等の所定の記録媒体に記録した操作者固有の映像及び音情報ファイル配布システムを構築できるようになった。
【発明を実施するための最良の形態】
【0035】
続いて、この発明に係る情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システムの一実施例について、図面を参照しながら説明をする。
【実施例1】
【0036】
図1は本発明に係る第1の実施例としてのビデオカメラ100の構成例を示す斜視図である。図1に示すビデオカメラ100は情報処理装置の一例を構成し、被写体の映像を撮影して動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置である。
【0037】
ビデオカメラ100は、外装を構成する本体ケース10を有しており、本体ケース10の前面側の上部には撮像部34が組み込まれている。撮像部34は撮像レンズや、図示しないレンズ駆動機構、撮像素子等を有して構成される。撮像素子は、撮像レンズの後端に設けられ、撮像レンズやレンズ駆動機構等の撮影光学系によって導かれた被写体像を撮像するように動作する。
【0038】
本体ケース10の後面、上面、側面には、電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の種々の押しボタンスイッチ12が設けられている。電源スイッチはビデオカメラ100の電源をオン又はオフするスイッチである。モードスイッチは撮影時のノーマルモード又は特殊記録モードのいずれかを選択する際に操作される。ここに特殊記録モードとは、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報(動画)及び当該被写体の周囲の音情報とを対応付けて記録する動作をいう。ノーマルモードとは特殊記録モード以外の動作をいい、操作者の生体感情に関係無く撮影集音された被写体の映像情報及び当該被写体の周囲の音情報そのまま記録する動作をいう。
【0039】
この例で、特殊記録モードを選択するモードスイッチには、情報出力部の機能の一例を構成する生体センサ部45が設けられ、当該ビデオカメラ100を操作する操作者の生体感情を検出して生体感情報を出力するようになされる。生体センサ部45には例えば図2に示すような発汗(Hidrosis)センサが使用される。発汗センサは、当該モードスイッチに触れている操作者の発汗量を検知して発汗レベルを示す生体感情報を情報処理部へ出力するようになされる。もちろん、生体センサ部45はモードスイッチを兼用する位置に設けることなく、モードスイッチに対して生体センサ部45を別個独立に設けて、撮影集音動作中に操作者に触れさせるようにしてもよい。また、生体センサ部45は発汗センサの他に脈拍センサや血圧センサ等を使用してもよい。生体センサ部45の上方には、センサ用のカバー38が設けられ、操作者30の指先に生ずる汗の発散を防止するようになされる。カバー38は省略してもよい。
【0040】
図示しないズームスイッチは、被写体映像をズームアップ表示又はズームダウン表示する際に操作される。撮影スタート/ストップスイッチはスタンバイ状態の撮像部34に対して被写体映像の記録開始を情報処理部へ指示する際に操作される。本体ケース10の前面であって、撮像レンズの先端下方の位置には、集音部13を成す音収録用のマイクロフォンが取り付けられる。音をステレオ再生する場合は、左右2個のマイクロフォンが取り付けられる。
【0041】
更に、本体ケース10の左側面には、表示部29が図示しないヒンジ部を介して開閉回転可能に連結され、撮像部34で撮像した被写体映像を表示するようになされる。例えば、表示部29は撮影中の映像や再生時の映像を表示する。表示部29には、例えば、3乃至4インチ程度のカラー液晶表示装置が使用される。
【0042】
本体ケース10の内部には回路基板17が設けられる。回路基板17には記録メディアやメディアスロット等の記憶装置35が実装又は装着可能となされ、ノーマルモード又は特殊記録モードによって得られた被写体の映像情報及び当該被写体の周囲の音情報を記録するようになされる。回路基板17には記憶装置35の他に情報処理部が実装される。
【0043】
本体ケース10の内部には回路基板17の他にバッテリー14が実装され、当該回路基板17、表示部29、撮像部34、記憶装置35及び生体センサ部45に直流電源を供給するようになされる。本体ケース10の外部側には映像&音声出力端子39等が設けられ、外部機器からの映像&音声用のコネクタや、通信ケーブル類が接続可能なようになされている。映像&音声出力端子39は外部機器へ映像&音声出力する際に使用され、通信ケーブル用の端子は、外部機器と通信する際に使用される。
【0044】
続いて、生体センサ部45について説明する。図2は、生体センサ部45に適用可能な発汗センサ45’の構成例を示すブロック図である。図2に示す発汗センサ45’は、吸気パイプ51、吸気側のハウジング部52、触子部53、排気側のハウジング部54、排気パイプ55、コンプレッサ56(ブロア)、絶対湿度センサ57,58及び差動増幅部59を有して構成される。
【0045】
吸気パイプ51はハウジング52を介在して触子部53の吸気側に接続され、外気(空気)を触子部53に引き込むようになされる。ハウジング52には絶対湿度センサ57が設けられ、ハウジング52内に引き込まれた外気の絶対湿度を検知して吸気側の湿度検知信号S57を差動増幅部59に出力するようになされる。
【0046】
触子部53は皮膚摺触面を有しており、皮膚摺触面には小さな開孔部が2つ設けられている。触子部53は、皮膚摺触面に触れた操作者30の汗により触子部53内の湿度が上昇するようになされる。触子部53はカプセルを構成する。排気パイプ55はハウジング54を介在して触子部53の排気側に接続され、触子部53に取り込まれた空気を外部へ排気するようになされる。排気パイプ55の終端部にはコンプレッサ56が接続され、吸気パイプ51から外気を引き込んで外部へ排気する。
【0047】
ハウジング54には絶対湿度センサ58が設けられ、ハウジング54内を通過する空気の絶対湿度を検知して排気側の湿度検知信号S58を差動増幅部59に出力するようになされる。差動増幅部59は吸気側及び排気側の湿度検知信号S57,S58の差分を増幅して発汗量検知信号S45を出力する。発汗量検知信号S45をアナログ・デジタル変換したデータは生体感情報D45となる。このアナログ・デジタル変換機能は生体センサ部45内に設けても、また、情報処理部内に設けてもよい。このような構成の生体センサ部45をモードスイッチを兼用する位置に設けると、当該モードスイッチに触れている操作者30の発汗量を検知して生体感情報(以下感情データD45という)を情報処理部へ出力できるようになる。
【0048】
図3は、ビデオカメラ100の制御系の構成例を示すブロック図である。図3に示すビデオカメラ100は、図1に示した本体ケース10内の回路基板17に各機能ブロックを実装して構成される。なお、図1及び図2に示した各部と対応する部分は、同一符号で示している。
【0049】
ビデオカメラ100は、情報処理部15、操作部18、通信部19、表示部29、映像&音収録部31、記憶装置35、映像&音声出力端子39及び生体センサ部45を有して構成される。
【0050】
情報処理部15はCPU32、メモリ部37及び映像&音声処理部44を有して構成される。CPU32はシステムプログラムに基づいて当該ビデオカメラ全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該ビデオカメラ全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げてビデオカメラ全体を制御するようになされる。
【0051】
メモリ部37のROM又はEEPROMにはシステムプログラムの他に特殊記録モードを実行するためのプログラムが記述されている。この特殊記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情に基づいて動画記録処理するためのプログラムである。その内容は、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31を操作する操作者30の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したものである。
【0052】
このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、CPU32は、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0053】
例えば、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。この例ではCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較する。発汗量判定閾値Hthは判別基準情報の一例を成している。
【0054】
この比較結果で、例えば、生体センサ部45が発汗量判定閾値Hthを越える発汗レベルHxの感情データD45を検出したとき、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加し、その後、発汗量判定閾値Hth以下の発汗レベルHxの感情データD45を検出したとき、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0055】
映像&音声処理部44は、例えば、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録する。MPEG−1規格に準拠した圧縮処理によれば、映像の中の動く部分だけを検出し保存するようにデータを圧縮する。圧縮処理はMPEG−1に限られることはなく、ハイビジョン対応のMPEG2からMPEG−4までの各規格や、現在標準化進行中のMPEG−7規格であってもよい。
【0056】
この例で、メモリ部37は発汗量判定閾値Hthを記憶する。例えば、発汗量判定閾値Hthはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値Hthと、感情データD45から得られる発汗レベルHとを比較し、Hth>Hの判定処理や、Hth≦H等の判定処理を実行する。もちろん、発汗量判定閾値は一義的な定数に限られることはなく、二次関数的に変化するものであってもよい(図5参照)。
【0057】
このようにすると、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は例えば、記録時間情報に対してタイムコードとして設定(記述)される。このタイムコードの設定によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになる。
【0058】
この例でCPU32は、編集起点情報及び編集終点情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせる編集処理を実行する。このような編集処理を実行すると、操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を抽出することができ、操作者固有の映像及び音声データファイルを作成できるようになる。
【0059】
更にCPU32に再生制御機能を持たせて、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を再生するようにしてもよい。このような再生処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を再生することができ、操作者固有の映像データD34及び音声データD13を記録したメモリアルファイルを視聴できるようになる。表示部29は、操作者固有の映像データD34を入力して操作者固有の映像を表示し、スピーカー36からは、操作者固有の音声データD13を入力して操作者固有の音声を出力できるようになる。
【0060】
更にCPU32に記録制御機能を持たせて、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を所定の記録媒体に記録するようにしてもよい。このような動画記録処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13をCD−ROMや、MD等の記録媒体に記録することができ、操作者固有の映像データD34及び音声データD13を記録したメモリアルファイルを配布できるようになる。
【0061】
操作部18はCPU32に接続され、図1に示した電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。
【0062】
映像&音収録部31は、集音部13及び撮像部34を有して構成される。集音部13は映像&音声処理部44に接続され、被写体の周囲の音を集音して得た音声データD13を出力する。集音部13にはコンデンサ型のマイクロフォンやムービングコイル型のマイクロフォンが使用される。撮像部34は映像&音声処理部44に接続され、被写体の映像を撮影して得た映像データD34を出力する。撮像部34は撮像レンズ、撮像素子、レンズ駆動機構から構成される。
【0063】
生体センサ部45は情報出力部の機能を一例を構成し、映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。例えば、生体センサ部45には図2に示した発汗センサ45’が使用され、映像&音収録部31を操作する操作者30の発汗量を時系列に検知して感情データD45をCPU32へ出力する。
【0064】
上述のCPU32には記録メディアや、メディアスロット等を構成する記憶装置35が接続され、特殊記録モード時、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0065】
上述の映像&音声処理部44には表示部29が接続され、表示信号S29に基づいて撮影中の映像や再生時の映像を表示するようになされる。映像&音声処理部44にはスピーカー36が接続され、音声信号S36に基づいて撮影中の被写体周辺の音や再生時の音声等を出力する。スピーカー36は本体ケース10の所定の位置に設けられる。映像&音声処理部44には映像&音声出力端子39が接続され、映像&音声信号を外部機器へ出力するようになされる。
【0066】
CPU32には通信部19が接続され、外部機器と通信するようになされる。例えば、CPU32は、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を通信部19を介して配信する。このような配信処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を配信することができ、操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0067】
図4及び図5は、ビデオカメラ100における撮影フォーマット例(その1,2)を示すタイムチャートである。当該撮影フォーマット例は、記録時の起点及び終点の挿入例を示している。この例では操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようにすると共に、編集起点情報及び編集終点情報を記録時間情報に対してタイムコードとして設定(記述)するようにした。
【0068】
図4A及び図5Aは記録時間情報Tを示している。記録時間情報Tとは、スタートスイッチを押下して映像データD34を取り込み、記憶装置35に記録している時間をいう。図4B及び図5Bに示す動画シーンは、被写体の動きを代表する8つのシーン(i)〜(viii)である。動画シーンのサンプリング頻度は1/30秒である。すなわち、撮像部34は1秒間に30コマ(NTSC方式)の映像を取得する。この例では運動会で被写体が”かけっこ”をする映像を、操作者30が撮影している場合である。
【0069】
図4Bに示すシーン(i)は出番を待っている被写体の映像である。シーン(ii)及び(iii)はいよいよ出番が回ってきて、被写体がスタートラインに移動する際の映像である。シーン(iv)はスタートラインに立った被写体の映像である。更に、図5Bに示すシーン(v)はスターターが号砲を打った瞬間の映像である。シーン(vi)は被写体がスタートして、駆け足を始めた際の映像である。シーン(vii)は勢い余って被写体が転んだ状態の映像である。シーン(viii)は被写体が泣きながらゴールに到着した映像である。
【0070】
図4Cに示す波形は被写体周囲収録時の音声信号である。被写体周囲の音声は集音部13が収録する。この例では運動会の”かけっこをする被写体周辺の音を収録している場合である。例えば、シーン(i)〜(iv)に対応する音情報は、運動会特有の行進曲や周囲のざわめき音が収録される。更に、図5Cに示すシーン(v)に対応する音情報は、スターターが号砲を打った瞬間の”バ〜ン”等と共にシーン(vi)に対応して応援者により声援が収録される。シーン(vii)に対応する音情報は、例えば、被写体に対して”さあ〜起き上がってがんばれ”のような声援が収録される。シーン(viii)に対応する音情報は、例えば、被写体がゴールした行動に対して安堵のどよめき声が収録される。
【0071】
図4Dは、当該ビデオカメラ100を持って被写体を撮影する操作者の発汗量の経時的変化である。この例で、シーン(i)〜(iv)に対応する発汗量は、ほとんど無い場合を示している。ところが、図5Dに示すシーン(v)では、被写体がスタートラインに立った直後から、操作者の発汗量が増加をし始め、スターターが号砲を打った瞬間に例えば、そのピークを迎えている。シーン(vi)で被写体がスタートして、駆け足を始めた当たりから、徐々に発汗量も減少してくる。しかし、シーン(vii)で勢い余って被写体が転んだ状態となると、再び、操作者の発汗量が増加をし始め、被写体が立ち上がった瞬間に、例えば、そのピークを迎えている。そして、徐々に発汗量も減少してくる。この例で、シーン(viii)で被写体が泣きながらゴールに到着した時点では、操作者の発汗量は、最初と同じ状態に戻っている。
【0072】
このような操作者の感情変化に対して発汗量が増加し、その発汗量は経過時間と共に少なくなることが知られている。このような発汗現象は精神性発汗と呼ばれる。精神性発汗は、人が感動したとき、興奮や、緊張したときに手掌や足底部等の皮膚にかくことが知られている。発汗量は温熱性発汗に比べて少なく、発汗潜伏時間も短い。汗腺はエクリン腺である。また、精神性発汗は、感動等の繰り返しにより発汗量が二次関数的に低下することも知られている(構え反応)。
【0073】
なお、発汗と感情変化の関係を説明した学術資料「計測自動制御学会東北支部第197回研究集会(2001.10.13)資料番号197−11」によれば、心理・気分状態の不安定な被験者の群では、安定した群に比べて手掌部発汗反応が大きく現れる。被験者に反復負荷を与えた場合に、安定した心理・気分状態では初回の発汗反応が大きく、慣れ効果による反応量の減少も大きいことが報告されている。また、構え反応とその慣れ効果には個人の心理・気分特性が影響しやすく、手掌部発汗の定量評価では構え反応の影響を考慮すべきとの報告もある。手掌部発汗は、情動変化や、情緒反応を伴う記憶の想起によって促進される。手掌部発汗は人の精神・心理過程の客観的指標となり得ると結論付けている。
【0074】
そこで、操作者の感情変化に対する発汗量の大小を判定する際に、経過時間に対して一定値となる発汗量判定閾値Hthを設定しても良いが、この例では、図5Dに示すように経過時間に対して二次関数的に変化する発汗量判定閾値曲線が設定される。発汗量判定閾値曲線には、例えば、A×(1/log(n))が使用される。Aは定数であり、発汗量の時間変化に相当する単位の閾値である。操作者のある時間の発汗量をHxとしたとき、(1)式、すなわち、
Hx>Hth=A×(1/log(n))・・・・(1)
を判別して操作者の感情変化に対する発汗量の大小を判定するようになされる。
【0075】
この例で、発汗量判定閾値曲線は監視時間対閾値を関係付けたものである。監視時間は可変である。例えば、監視時間は5分、10分、15分・・・と自在に設定可能である。発汗量判定閾値曲線の設定要件は、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較し、操作者の発汗量の変化率が基準変化率を越えた場合は、発汗量判定閾値曲線を設定するようになされる。
【0076】
操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値を演算することで得られる。この例で、操作者の感情変化が大きい場合は、発汗量の検知曲線の傾きが大きくなり、その感情変化が小さい場合は、発汗量の検知曲線の傾きが小さくなる。そこで、上述の差分値を求めて、操作者の発汗量の変化率が基準変化率を越えた場合に、発汗量判定閾値曲線を設定するようになされる。つまり、発汗量判定閾値曲線は、操作者の感情変化率が基準変化率を越えた時刻に設定され、その時刻から所定の監視時間だけ有効に働く特徴を有している。この監視時間が経過すると、再度、上述の処理を繰り返すようになされる。これは、再び、操作者の感情変化率が大きくなる発汗量を検知する場合が想定されるためである。
【0077】
この例では、記録時間情報Tにおいて、発汗量の立ち上がり(変化率)が大きくなった時刻t0に、発汗量判定閾値曲線が設定される。図5Dに示すシーン(v)で操作者の発汗量Hxが発汗量判定閾値Hth1を越えている。この発汗量Hxが発汗量判定閾値Hth1を越えた時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。
【0078】
更に時間が経過して、図5Dに示すシーン(vi)で操作者の発汗量Hxが発汗量判定閾値Hth2を下回っている。この発汗量Hxが発汗量判定閾値Hth1を下回った時刻teがタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第1のタイムコードの時刻tsと時刻teとの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる。
【0079】
この例では、更に、時間が経過して、図5Dに示すシーン(vii)で操作者の発汗量Hxが発汗量判定閾値Hth3を上回っている。この発汗量Hxが発汗量判定閾値Hth3を越えた時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。更に、時間が経過して、図5Dに示すシーン(vii)で操作者の発汗量Hxが発汗量判定閾値Hth4を下回っている。この発汗量Hxが発汗量判定閾値Hth4を下回った時刻teが第2のタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第2のタイムコードの時刻tsと時刻teとの間の動画シーンが特殊記録モードにおける第2の抽出(摘出)シーンSVii(編集映像+音情報)となる。
【0080】
続いて、本発明に係る第1の情報処理方法について説明する。図6及び図7は、ビデオカメラ100における情報記録例(その1,2)を示すフローチャートである。
【0081】
この例では、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合を前提とする。生体センサ部45には図2に示したような発汗センサ45’が使用される。CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0082】
これらを前提にして、図6に示すフローチャートのステップA1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は特殊記録モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は特殊記録モードのいずれかを選択するようになされる。例えば、押しボタンスイッチ12を操作して特殊記録モードを選択すると、操作部18からCPU32には特殊記録モードを示す操作データD18が出力される。
【0083】
次に、ステップA2でCPU32はスタートを待機する。このとき、ユーザは撮影スタートを構成する押しボタンスイッチ12を操作して、CPU32に動画記録処理開始を指示するようになされる。操作部18はCPU32に動画記録処理開始を指示する操作データD18を出力する。
【0084】
操作部18からCPU32へ動画記録処理開始が指示された場合は、ステップA3でノーマルモード又は特殊記録モードの設定によって制御を分岐する。上述のステップA1で特殊記録モードが設定されている場合は、ステップA4でCPU32は、被写体の映像及びその周辺の音情報を取得するように映像&音収録部31を制御して記録開始処理に移行する。このとき、映像&音収録部31は、被写体の映像を撮影して映像データD34を取得し、かつ、当該被写体の周囲の音を集音して音声データD13を取得する。映像&音声処理部44では、例えば、MPEG−1規格に準拠して、映像の中の動く部分だけを検出し圧縮処理した映像データD34を記憶装置35に記録する。
【0085】
これと並行して、ステップA5でCPU32は当該ビデオカメラ100を操作する操作者30の生体感情を検出して感情データD45を作成するように生体センサ部45を制御する。生体センサ部45は、この制御を受けて、モードスイッチに触れている操作者の発汗量を検知して発汗レベルを示す感情データD45をCPU32に出力する。
【0086】
次に、ステップA6でCPU32は発汗量判定閾値曲線を設定するか否かを判別する。この際の判断基準は、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較することにより実行される。操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値である。このような差分値を求めるようにしたのは、操作者の感情変化が大きい場合は、発汗量の検知曲線の傾きが大きくなり、その感情変化が小さい場合は、発汗量の検知曲線の傾きが小さくなるためである。
【0087】
上述のステップA6で操作者の発汗量の変化率が基準変化率を越えた場合は、ステップA7でCPU32は発汗量判定閾値曲線を設定するようになされる。このとき、メモリ部37から式(1)に示したような発汗量判定閾値曲線を読み出してRAMに展開する。これと共に、CPU32はタイマを起動して、監視時間のカウントを開始する。そして、ステップA8に移行して、CPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。メモリ部37では、図5に示したように、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値曲線を成す発汗量判定閾値Hth1,Hth2,Hth3,Hth4・・・・と、感情データD45から得られる発汗レベルHxとを比較する。
【0088】
Hx>Hthなる判別結果を得た場合はステップA9に移行して、CPU32はステップA4で同時進行の記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集起点情報を付加する。このとき、図5に示したシーン(v)の例によれば、生体センサ部45が発汗量判定閾値Hth1を越える発汗レベルHxの感情データD45を検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加する。映像&音声処理部44では、CPU32からの編集起点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻tsをマーク(記述)するようになる。
【0089】
そして、図7に示すステップA10に移行してCPU32はHx≦Hthの判別処理を実行する。Hx≦Hthを判別した場合はステップA11に移行して、ステップA4で同時進行している記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集終点情報を付加する。このとき、図5に示したシーン(v)の例によれば、生体センサ部45が発汗量判定閾値Hth2を下回る発汗レベルHxの感情データD45を検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0090】
映像&音声処理部44では、CPU32からの編集終点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻teをマーク(記述)するようになる。このタイムコードとして時刻tsと時刻teの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。映像&音声処理部44では、記録時間情報Tにタイムコードとして時刻tsと時刻teとをマーク(記述)する。このタイムコードとして時刻tsと時刻teの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。
【0091】
その後、ステップA12に移行して当該発汗量判定閾値曲線における監視時間が終了したか否かを判別する。この際の判別基準はタイマのカウントアップを以て終了する。監視時間が終了していない場合は、ステップA8に戻ってCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。
【0092】
図4及び図5に示した例によれば、第1及び第2の抽出シーンを編集できるタイムコードts,teが付加されている。このようにすると、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は例えば、記録時間情報Tに対してタイムコードとして設定(記述)される。このタイムコードの設定によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになる。上述の監視時間が終了した場合は、ステップA14に移行する。
【0093】
なお、上述のステップA3でノーマルモードが設定されている場合は、ステップA13に移行して、ノーマルモードを実行する。ノーマルモードでは、編集終点情報や編集終点情報等を付加することなく、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とが記録装置35に記録される。その後、ステップA14に移行する。
【0094】
ステップA14で、CPU32は終了判断をする。例えば、撮影のストップスイッチを構成する押しボタンスイッチ12が操作されたか否かを判別する。あるいは、電源オフ情報を検出した否かを判別する。ストップスイッチを構成する押しボタンスイッチ12が操作された場合、又は、電源オフ情報が検出された場合は、動画記録処理を終了する。ストップスイッチを構成する押しボタンスイッチ12が操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップA3に戻って上述した処理を繰り返す。これにより、生体センサ部45から得られた感情データD45と撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0095】
このように第1の実施例に係るビデオカメラ及び情報記録方法によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、映像&音収録部31は、被写体の映像を撮影して映像データD34を出力し、かつ、当該被写体の周囲の音を集音して音声データD13を出力する。生体センサ部45は、映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。これを前提にして、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0096】
従って、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を自動抽出することができ、ここで自動抽出される映像データD34’及び音声データD13’を編集した操作者固有の映像及び音声データファイルを容易かつ簡単に作成できるようになる。これにより、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0097】
続いて、ビデオカメラ100における情報編集例について説明する。図8は、ビデオカメラ100における情報編集例を示すフローチャートである。この例では、情報編集処理に関してノーマルモード又は自動編集モードが備えられ、自動編集モードが選択された場合は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して繋ぎ合わせるようになされる。自動編集モードには、短目編集モード、中程編集モード及び長目編集モードの3種類が準備される場合を例に挙げる。
【0098】
これらを編集処理条件にして、図8に示すフローチャートのステップB1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は自動編集モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は自動編集モードのいずれかを選択するようになされる。例えば、押しボタンスイッチ12を操作して自動編集モードを選択すると、操作部18からCPU32には自動編集モードを示す操作データD18が出力される。更に、自動編集モードを選択した場合には、短目編集モード、中程編集モード又は長目編集モードの中から1つのモードを選択できるようになされている。
【0099】
ここに、短目編集モードとは、編集起点情報及び編集終点情報を付加した複数の区間部分の中から最も短い編集起点情報及び編集終点情報を付加した1つの区間部分の映像データD34’及び音声データD13’を抽出する動作をいう。中程編集モードとは、短目編集モードによって抽出された区間部分の映像データD34’及び音声データD13’を除く、他の区間部分の映像データD34’及び音声データD13’を繋ぎ合わせた編集動作をいう。長目編集モードとは、短目編集モードと中程編集モードとを合わせた編集動作をいい、例えば、編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を全部繋ぎ合わせた編集動作をいう。
【0100】
次に、ステップB2でCPU32は編集スタートを待機する。このとき、ユーザは編集スタートを構成する押しボタンスイッチ12を操作して、CPU32に編集処理開始を指示するようになされる。操作部18はCPU32に編集処理開始を指示する操作データD18を出力する。
【0101】
操作部18からCPU32へ編集処理開始が指示された場合は、ステップB3でノーマル編集モード又は自動編集モードの設定によって制御を分岐する。上述のステップB1で自動編集モードが設定されている場合は、ステップB4に移行してCPU32は、更に、短目編集モード、中程編集モード又は長目編集モードの設定に基づいて制御を分岐する。
【0102】
上述のステップB1で短目編集モードが設定されている場合は、ステップB4からステップB5へ移行して、CPU32は、アルゴリズムIIIを演算して短目編集モードを実行する。ここで、記録時間情報Tからタイムコードts,teを検出し、映像データD34’及び音声データD13’から、当該タイムコードts,teが付加された区間部分の映像データD34’及び音声データD13’を抽出する演算をfとし、アルゴリズムIIIを演算して編集される抽出シーンをf(SIII)とする。
【0103】
ステップB6でCPU32は抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を記憶装置35から読み出すようになされる。記憶装置35から読み出した抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を再生することができ、操作者固有の映像データD347及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。その後、ステップB12に移行する。
【0104】
また、上述のステップB1で中程編集モードが設定されている場合は、ステップB4からステップB7へ移行して、CPU32は、アルゴリズムIIを演算して中程編集モードを実行する。このとき、アルゴリズムIIを演算して編集される抽出シーンをf(SIII+SII)とする。
【0105】
ステップB8でCPU32は抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’を記憶装置35から読み出すようになされる。記憶装置35から読み出した抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’等を再生することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。その後、ステップB12に移行する。
【0106】
更に、上述のステップB1で長目編集モードが設定されている場合は、ステップB4からステップB9へ移行して、CPU32は、アルゴリズムIを演算して長目編集モードを実行する。このとき、アルゴリズムIを演算して編集される抽出シーンをf(SIII+SII+SI)とする。その後、ステップB12に移行する。
【0107】
ステップB10でCPU32は抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を記憶装置35から読み出すようになされる。記憶装置35から読み出した抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’と、更に、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点・・・等の抽出された全ての映像データD34’及び音声データD13’を再生することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。その後、ステップB12に移行する。
【0108】
なお、上述のステップB3でノーマルモードが設定されている場合は、ステップB11に移行して、CPU32はノーマルモードを実行する。ノーマルモードでは、編集終点情報や編集終点情報等の付加に関係無く、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とが記録装置35から順次読み出される。その後、ステップB12に移行する。
【0109】
ステップB12で、CPU32は終了判断をする。例えば、編集のストップスイッチを構成する押しボタンスイッチ12が操作されたか否かを判別する。あるいは、電源オフ情報を検出した否かを判別する。ストップスイッチを構成する押しボタンスイッチ12が操作された場合、又は、電源オフ情報が検出された場合は、編集処理を終了する。ストップスイッチを構成する押しボタンスイッチ12が操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップB1に戻って上述した処理を繰り返すようになされる。
【0110】
このような編集処理を実行すると、操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を飛び飛びに繋ぎ合わせることができ、操作者固有の映像及び音声データファイルを作成できるようになる。しかも、短目編集モード、中程編集モード又は長目編集モードの設定に基づいて、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して、3段階に分けて繋ぎ合わせるような編集処理を実行できるようになった。
【0111】
上述の実施例で被写体の映像データD34及び音声データD13から抽出し取得した映像データD34’及び音声データD13’から適切な場面をユーザが望む時間(または頻度)だけ、更に摘出する編集アルゴリズムを上述したアルゴリズムI,II及びIIIに組み合わせてもよい。よりユニークな感動シーンを編集したアルバムファイルを作成できるようになる。
【実施例2】
【0112】
図9は、第2の実施例としてのヘッドマウント型のビデオカメラ200の構成例を示す斜視図である。
【0113】
この実施例では、ヘッドマウント型のビデオカメラ200に、発汗センサ45’の他に脈拍センサ27及び血圧センサ28を備え、情報処理部15が、脈拍センサ27から得られる脈拍情報と血圧センサ28から得られる血圧情報とを演算して脈波伝達時間(WTT)を求め、この脈波伝達時間に基づいて操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に脳裏に印象が残る程、生体感情が高まった時点の映像データD34及び音声データD13を抽出できるようにした。
【0114】
図9に示すヘッドマウント型のビデオカメラ200は情報処理装置の他の一例を構成し、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置である。ビデオカメラ200は、メガネ形状を構成する本体フレーム20を有している。本体フレーム20の左側には左メガネ吊る部24aが、図示しないヒンジを介して開閉自在に取り付けられ、その右側には右メガネ吊る部24bが図示しないヒンジを介して開閉自在に取り付けられている。左メガネ吊る部24aの後部はR状を有して操作者30の右耳に装着可能なようになされている。同様にして、右メガネ吊る部24bの後部もR状を有して操作者30の左耳に装着可能なようになされている。
【0115】
本体フレーム20の前面左側にはマイクロフォン13’(集音部)が組み込まれ、被写体の周囲の音を収録するようになされる。音をステレオ再生する場合は、2個のマイクロフォンが本体フレーム20の左右側に取り付けられる。この例で、本体フレーム20の前面右側にはカメラ34’(撮像部)が組み込まれている。カメラ34’は撮像レンズや、図示しないレンズ駆動機構、撮像素子等を有して構成される。撮像素子は、撮像レンズの後端に設けられ、撮像レンズやレンズ駆動機構等の撮影光学系によって導かれた被写体像を撮影するように動作する。
【0116】
本体フレーム20の上面、下面及び側面には、電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の種々の押しボタンスイッチ12が設けられている。電源スイッチはビデオカメラ200の電源をオン又はオフするスイッチである。モードスイッチは撮影時のノーマルモード又は特殊記録モードのいずれかを選択する際に操作される。ここに特殊記録モード及びノーマルモードは、第1の実施例で説明した通りである。
【0117】
この例では、情報出力部の機能の一例を構成する脈拍センサ27、血圧センサ及び発汗センサ45’が設けられ、当該ビデオカメラ200を操作する操作者の生体感情を検出して生体感情報を出力するようになされる。脈拍センサ27は、例えば、左メガネ吊る部24aの後端に設けられ、ヘッドマウント型のビデオカメラ200を装着した操作者30の脈拍数を時系列に検知して脈拍情報を発生する。
【0118】
この例で、左メガネ吊る部24aの後端と右メガネ吊る部24bの後端との間には配線バンド42が渡されている。配線バンド42のほぼ中央部位には、血圧センサ28が設けられ、当該ビデオカメラ200を装着した操作者30の血圧を時系列に検知して血圧情報を発生する。発汗センサ45’については、図2で説明しているので、その説明を省略する。発汗センサ45’は、当該発汗センサ45’に触れている操作者の発汗量を検知して発汗レベルを示す生体感情報を情報処理&通信部50へ出力する。
【0119】
本体フレーム20の左メガネ吊る部24aには情報処理&通信部50が設けられ、脈拍センサ27から得られる脈拍情報と血圧センサ28から得られる血圧情報とを演算して脈波伝達時間を求める。ここに脈波伝達時間とは、脈拍変化が有った時刻から、この脈拍変化が血圧変化に反映する時刻に至るまでの時間をいう。
【0120】
更に、本体フレーム20の前面左右には、左表示部29a及び右表示部29bが図示しないヒンジ部を介して開閉回転可能に連結され、カメラ34’で撮像した被写体映像を表示するようになされる。例えば、左右表示部29a,29bには撮影中の映像や、再生時の映像を表示する。左右表示部29a,29bには、例えば、1.0乃至2.0インチ程度のカラー液晶表示装置が使用される。
【0121】
本体フレーム20の右メガネ吊る部24bには、バッテリー&記憶装置43が設けられる。バッテリー&記憶装置43は、図示しないバッテリー及び、記憶装置を有して構成される。バッテリーは、脈拍センサ27、血圧センサ28、左右表示部29a,29b、カメラ34’、記憶装置及び発汗センサ45’及び情報処理&通信部50等に直流電源を供給するようになされる。記憶装置は、ノーマルモード又は特殊記録モードによって得られた被写体の映像情報及び当該被写体の周囲の音情報を記録するようになされる。
【0122】
本体フレーム20の前面中央部位には外部インターフェース41が設けられ、外部機器からの映像&音声用のコネクタや、通信ケーブル類が接続可能なようになされている。外部インターフェース41は外部機器へ映像&音声出力する際に使用され、通信ケーブル用の端子は、外部機器と通信する際に使用される。
【0123】
上述の他に、左メガネ吊る部24a及び右メガネ吊る部24bには振動アクチュエータ25が設けられ、入力確定時に振動アクチュエータ25を駆動して触覚を提示するようになされる。更に、左メガネ吊る部24a及び右メガネ吊る部24bには振動アクチュエータ25の他に1対のイヤホン36bが設けられ、左右のスピーカーとして機能するようになされている。例えば、左側のイヤホン36bは、左メガネ吊る部24aの後部R状部位から垂下するように、操作者30の右耳穴に対峙するように配設されている。同様にして、右側のイヤホン36bは、右メガネ吊る部24bの後部R状部位から垂下するように、操作者30の左耳穴に対峙するように配設されている。
【0124】
続いて、脈拍センサ27について説明する。図10は、脈拍センサ27の構成例を示す断面図であり、図11はその内部構成例を示すブロック図である。図10に示す光学式の脈拍センサ27は時計に組み込み可能なものであって、基板71、発光ダイオード72及びフォトトラジスタ73、光選択フィルタ74、ガラス75を有して構成され、脈動による指先等の毛細血管中の血液濃度変化を利用して脈拍数を測定するようになされる。
る。
【0125】
基板71上には発光ダイオード72及びフォトダイオード73が配置される。発光ダイオード72及びフォトダイオード73の上方には光選択フィルタ74が配置される。光選択フィルタ74には赤外光が通過可能な赤色フィルタが使用される。光選択フィルタ74の上方にはガラス75が配置される。この部材にはガラス75に替えて、透明性のアクリル樹脂を使用してもよい。ガラス75上には操作者の指30aが触れられるが、この例では操作者30の耳脇こめかみ等が触れる構造を有している。
【0126】
脈拍センサ27では発光ダイオード72から出射された光が光選択フィルタ74を通過する。光選択フィルタ74を通過した赤外光は、操作者の耳脇のこめかみ等に反射する。こめかみ等の毛細血管(静脈)を反射した反射光は、外光と共に光選択フィルタ74を通過して、フォトダイオード73で受光される。このとき、外光が指先や、こめかみ等の毛細血管を通過するとき、その通過光が血液の脈動によって変化する。例えば、血液濃度が濃くなったり、薄くなったりする。この濃度変化量を電気信号に変換して検出する。この外光の光量(外光量)に応じて検出レベルを自動設定すると、広範囲な外光量に対応して操作者の脈拍を測定できるようになる。
【0127】
図11に示す脈拍センサ27の内部回路は、MOS−Tr76、バンド・エルミネート・フィルタ(Band Eliminate Filter:以下BEF回路77という)及び脈拍センサブロック78を有して構成される。脈拍センサブロック78は発光ダイオード72及びフォトトランジスタ73を有して構成される。発光ダイオード72のアノード及びフォトトランジスタ73のコレクタは接地(GND)されている。
【0128】
発光ダイオード72のカソードは、電源線VDDに接続されている。フォトトランジスタ73のエミッタはMOS−Tr76のソース及びBEF回路77に接続され、MOS−Tr76のドレインは電源線VDDに接続されている。MOS−Tr76にはn型の電界効果トランジスタが使用される。MOS−Tr76のゲートには負帰還回路を構成するBEF回路77が接続され、この外光量に応じた血液の濃度変化量を成す脈拍検知信号S27の出力レベルを自動的にゲートに負帰還して、操作者の脈拍を安定して測定できるようになされている。以下で、脈拍検知信号S27をアナログ・デジタル変換した情報を脈拍検知データD27という。アナログ・デジタル変換機能は、脈拍センサ27の内部に設けても、CPU32の内部に設けてもよい。
【0129】
続いて、血圧センサ28について説明する。図12は、血圧センサ28の構成例を示すブロック図である。図12に示す光学式の血圧センサ28は時計に組み込み可能なものであって、指尖脈波検出ブロックを構成する。この例で、血圧センサ28は家庭用血圧計(オシロメトリック方式)のようなカフを用いて最高血圧及び最低血圧を測定するものまで必要としていないので、脈拍センサ27とほぼ同様な構造の血圧センサ28を用いることができ、脈波伝達時間を測定するために、脈拍センサ27と血圧センサ28とが各々離れた位置に配設することが好ましい。
【0130】
ビデオカメラ200に適用可能な血圧センサ28は、フォトセンサ81、センサドライバ82、サンプルホールド回路83、スイッチト・キャパシタ・フィルタ&ローパスフィルタ回路(SCF&LPF回路84という)、メインアンプ85、センサコントローラ86、4ビットADコンバータ(以下ADC回路87という)、4ビットDAコンバータ(以下DAC回路88という)及びコンパレータ89を有して構成され、血圧上昇点を測定して脈波到達時間を得るようになされる。
る。
【0131】
フォトセンサ81は、図11に示した脈拍センサブロック78にほぼ等しい構成を有しているので、その説明を省略する。
【0132】
フォトセンサ81にはセンサドライバ82及びサンプルホールド回路83が接続されている。センサドライバ82は、所定の電圧をフォトセンサ81に印加して駆動する。フォトセンサ81は操作者の血圧脈動を検知して血圧脈動信号S81を出力する。フォトセンサ81には、サンプルホールド回路83が接続され、血圧脈動信号S81をサンプリングして血圧検知電圧V83を保持し出力する。
【0133】
サンプルホールド回路83にはSCF&LPF回路84が接続され、血圧検知電圧V83に含まれた高周波ノイズを除去する。SCF&LPF回路84にはメインアンプ85が接続され、ノイズ除去後の血圧検知電圧V83を増幅して血圧上昇点を示す信号(以下血圧信号S85という)を出力する。センサドライバ82、SCF&LPF回路84及びメインアンプ85にはセンサコントローラ86が接続され、これらのセンサドライバ82、SCF&LPF回路84及びメインアンプ85の入出力を制御する。
【0134】
メインアンプ85にはADC回路87及びコンパレータ89が接続されている。コンパレータ89には、DAC回路88が接続されている。DAC回路88には切出しレベルを決定する4ビットの脈拍検知データD45が入力される。DAC回路88は脈拍検知データD45をデジタル・アナログ変換した脈拍検知信号S88をコンパレータ89に出力する。ADC回路87はメインアンプ85から出力される血圧信号S85の信号振幅を監視するようになされる。ADC回路87は血圧信号S85をアナログ・デジタル変換して血圧検知データD87を出力する。血圧検知データD87には操作者の血圧の最大値等が含まれる。
【0135】
コンパレータ89はメインアンプ85から出力される血圧信号S85と、DAC回路88から出力される脈拍検知信号S88とを比較して脈波伝達時間(WTT)を示す差分信号Yを出力する。この差分信号Yはアナログデジタル変換した後のデータをYで示す。これにより、外環境ノイズから血圧信号S85の弁別を行いながら、脈波伝達時間(WTT)を示すデータYを出力できるようになる。
【0136】
図13A及びBは、血圧検知例、脈拍検知例及び脈波伝達時間の算出例を示すグラフ図である。
図13Aに示す血圧検知例において、横軸は時間であり、縦軸は血圧である。血圧とは、心臓のポンプ作用によって全身に血液が送り出されるとき、血管の壁に与える圧力をいう。図13Aに示す血圧検知例によれば、経過時間と共に最高血圧及び最低血圧が交互に繰り返されている。最高血圧とは、心臓が血液を送り出すために収縮したときの血圧(収縮期血圧)をいう。最低血圧とは、心臓が血液を溜めるために拡張したときの血圧(拡張期血圧)をいう。
【0137】
図13Bに示す脈拍検知例において、横軸は時間であり、縦軸は脈拍の強さである。脈拍とは、心臓が血液を送り出す際に、動脈に生じる拍動をいう。この拍動の回数を数えると脈拍数が得られる。一定の時間内に心臓が拍動する回数を心拍数(heart rate)といい、通常は1分間の拍動の数(bpm:beats per minute)で表される。
【0138】
図13Bに示す脈拍検知例によれば、ピークパルス(尖頭パルス)に示す部分が拍動を示している。脈拍は心電図によって表される。図中に示すWTTは脈波伝達時間(pluse-Wave Transfer Time)であり、脈拍変化が血液の変化に反映されるまでの時間をいう。例えば、拍動のピークを検知した時刻t1から血圧の上昇起点時刻t2に至る時間をいう。一般に、人が感動したとき、興奮や緊張等したときに、脈波伝達時間(以下WTTという)が早くなることが知られている。
【0139】
そこで、第2の実施例ではWTTを用いて生体感情を抽出するようにした。まず、第1の実施例と同様にして発汗量の差分(変化率)を算出する。この差分と、ある閾値とを比較し、この閾値を越える差分が検出された場合に、当該画像シーンを抽出シーンの対象とする。そして、ある時間のWTTをデータYとし、発汗量の時間変化に相当する単位の定数を閾値Bとしたとき、(2)式、すなわち、
Y<B ・・・・・(2)
を判別する。これにより、現在、人が感動している、興奮や緊張等しているをCPU32で判別できるようになる。
【0140】
図14は、ビデオカメラ200の制御系の構成例を示すブロック図である。図14に示すビデオカメラ200は、左メガネ吊る部24a、右メガネ吊る部24bの内部及び、本体フレーム20の内部に各機能ブロックを実装して構成される。なお、図9〜図12に示した各部と対応する部分は、同一符号で示している。
【0141】
ビデオカメラ200は、操作部18、表示部29a,29b、映像&音収録部31’、記憶装置35、外部インターフェース41、生体センサ部45及び情報処理&通信部50を有して構成される。情報処理&通信部50は通信部19、CPU32、メモリ部37及び映像&音声処理部44を有している。
【0142】
CPU32は第1の実施例と同様にして、システムプログラムに基づいて当該ビデオカメラ全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該ビデオカメラ全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げてビデオカメラ全体を制御するようになされる。
【0143】
メモリ部37のROM又はEEPROMにはシステムプログラムの他に特殊記録モードを実行するためのプログラムが記述されている。この特殊記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情、この例では、発汗、脈拍及び血圧に基づいて動画記録処理するためのプログラムである。その内容は、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31’を操作する操作者30の発汗や、脈拍、血圧等の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したものである。
【0144】
このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、CPU32は、操作者30の生体感情を検出して生成された脈波伝達時間を示すデータYと、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0145】
この例で、CPU32には情報出力部の機能を一例を構成する生体センサ部45を構成する発汗センサ45’、脈拍センサ27及び血圧センサ28が接続される。CPU32は、発汗センサ45’から出力される発汗検知データD45’、脈拍センサ27から出力される脈拍検知データD27、血圧センサ28から出力される血圧検知データD87を入力し、これらの発汗検知データD45’、脈拍検知データD27及び血圧検知データD87から演算される脈波伝達時間を示すデータYと、映像&音収録部31’から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0146】
この例で、発汗センサ45’から出力される発汗検知データD45’は、第1の実施例と同様にして発汗量の差分(変化率)を算出する。この差分と、ある閾値とを比較し、この閾値を越える差分が検出された場合に、当該画像シーンにおける抽出シーンの対象を決定するために使用される。
【0147】
血圧センサ28は、映像&音収録部31’を操作する操作者30の血圧を検出して血圧検知データD87を出力する。例えば、血圧センサ28には図12に示した指尖脈波検出ブロックを実装した光学式の血圧センサが使用され、映像&音収録部31’を操作する操作者30の血圧を時系列に検知し、更に、脈拍センサ27からの脈拍検知データD27を入力して脈波伝達時間を示すデータYを演算してCPU32へ出力するようになされる。
【0148】
この例ではCPU32は、血圧センサ28から出力される脈波伝達時間を示すデータYと、当該データYの判別基準となる脈波伝達時間判定用の閾値Bとを比較する。脈波伝達時間判定用の閾値Bは判別基準情報の一例を成している。この比較結果で、例えば、血圧センサ28が脈波伝達時間判定用の閾値Bを下回る脈波伝達時間を示すデータYを検出したとき、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加する。その後、CPU32は脈波伝達時間判定用の閾値Bを越える脈波伝達時間を示すデータYを検出したとき、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0149】
映像&音声処理部44は、第1の実施例と同様にして、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録する。MPEG−1規格に準拠した圧縮処理によれば、映像の中の動く部分だけを検出し保存するようにデータを圧縮する。圧縮処理はMPEG−1に限られることはなく、ハイビジョン対応のMPEG2からMPEG−4までの各規格や、現在標準化進行中のMPEG−7規格であってもよい。
【0150】
この例で、メモリ部37は脈波伝達時間判定用の閾値Bを記憶する。例えば、閾値Bはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、脈波伝達時間を示すデータYを入力し、予め設定された脈波伝達時間判定用の閾値Bと、データYから得られる脈波伝達時間(WTT)とを比較し、Y<Bの判定処理や、Y≧B等の判定処理を実行する。もちろん、閾値Bは一義的な定数に限られることはなく、二次関数的に変化するものであってもよい。
【0151】
このようにすると、操作者30の発汗、脈拍及び血圧に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は、第1の実施例と同様にして、記録時間情報に対してタイムコードとして設定(記述)される。このタイムコードの設定によって、操作者30が被写体映像撮影中に脈拍数が増加し血圧が上昇して生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになる。
【0152】
CPU32には通信部19が接続され、外部機器と通信するようになされる。例えば、通信部19には無線通信装置が使用される。CPU32は、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を通信部19を介してベースステーション等に無線配信する。このような無線配信処理を実行すると、操作者30が被写体映像撮影中に脈拍数が増加し血圧が上昇して生体感情が高まった時点の映像データD34及び音声データD13をベースステーション等のモニタに表示したり、ベースステーションの通信部を利用して他の情報処理系へ配信することができ、第1の実施例と同様にして操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0153】
操作部18はCPU32に接続され、図示しない電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。映像&音収録部31’は、マイクロフォン13’及びカメラ34’を有して構成される。マイクロフォン13’は映像&音声処理部44に接続され、被写体の周囲の音を集音して得た音声信号Sinを出力する。映像&音声処理部44はマイクロフォン13’から出力される音声信号Sinをアナログ・デジタル変換して音声データD13を記憶装置35へ出力する。マイクロフォン13’には第1の実施例で説明したものが使用される。カメラ34’は映像&音声処理部44に接続され、被写体の映像を撮影して得た映像データD34を出力する。カメラ34’は撮像レンズ、撮像素子、レンズ駆動機構から構成される。
【0154】
上述のCPU32には記憶装置35が接続され、特殊記録モード時、操作者30の発汗、脈拍及び血圧等の生体感情を検出して生成された脈波伝達時間を示すデータYと、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0155】
上述の映像&音声処理部44には左表示部29a及び右表示部29bが接続され、映像表示信号S29に基づいて撮影中の映像や再生時の映像を表示するようになされる。映像&音声処理部44にはイヤホン36’が接続され、音声信号S36に基づいて撮影中の被写体周辺の音や再生時の音声等を出力する。イヤホン36’は左メガネ吊る部24a及び右メガネ吊る部24bの所定の位置に設けられる。映像&音声処理部44には外部インターフェース41が接続され、映像&音声信号等を外部機器へ出力するようになされる。
【0156】
図15及び図16は、ヘッドマウント型のビデオカメラ200における撮影フォーマット例(その1,2)を示す動作タイミングチャートである。この例では操作者30の頭部での発汗、脈拍及び血圧の変化に対応して固有の映像及び音声を抽出できるようにすると共に、編集起点情報及び編集終点情報を記録時間情報に対してタイムコードとして設定(記述)するようにした。
【0157】
図15A及び図16Aは記録時間情報Tを示している。記録時間情報Tとは、スタートスイッチを押下して映像データD34を取り込み、記憶装置35に記録している時間をいう。図15B及び図16Bに示す動画シーンは、第1の実施例と同様にして、被写体の動きを代表する8つのシーン(i)〜(viii)である。動画シーンのサンプリング頻度は1/30秒である。すなわち、カメラ34’は1秒間に30コマ(NTSC方式)の映像を取得する。この例では運動会で被写体が”かけっこ”をする映像を、操作者30が撮影している場合である。
【0158】
図15Bに示すシーン(i)は第1の実施例と同様にして、出番を待っている被写体の映像である。シーン(ii)及び(iii)はいよいよ出番が回ってきて、被写体がスタートラインに移動する際の映像である。シーン(iv)はスタートラインに立った被写体の映像である。更に、図16Bに示すシーン(v)はスターターが号砲を打った瞬間の映像である。シーン(vi)は被写体がスタートして、駆け足を始めた際の映像である。シーン(vii)は勢い余って被写体が転んだ状態の映像である。シーン(viii)は被写体が泣きながらゴールに到着した映像である。
【0159】
図15Cに示す波形は被写体周囲収録時の音声信号である。被写体周囲の音声はマイクロフォン13’が収録する。この例では運動会の”かけっこをする被写体周辺の音を収録している場合である。例えば、シーン(i)〜(iv)に対応する音情報は、運動会特有の行進曲や周囲のざわめき音が収録される。更に、図16Cに示すシーン(v)に対応する音情報は、スターターが号砲を打った瞬間の”バ〜ン”等と共にシーン(vi)に対応して応援者により声援が収録される。シーン(vii)に対応する音情報は、例えば、被写体に対して”さあ〜起き上がってがんばれ”のような声援が収録される。シーン(viii)に対応する音情報は、例えば、被写体がゴールした行動に対して安堵のどよめき声が収録される。
【0160】
図15Dに示す波形は、血圧検知データD87から得られる血圧波形であって、当該ビデオカメラ200を持って被写体を撮影する操作者の血圧の経時的変化を示している。図15Eに示す波形は、脈拍検知データD27から得られる脈動波形であって、当該ビデオカメラ200を持って被写体を撮影する操作者の脈拍の経時的変化を示している。図15Eにおいて、データYは脈波伝達時間(WTT)であって、例えば、拍動のピークを検知した時刻t1から血圧の上昇起点時刻t2に至る時間である。
【0161】
この例で、シーン(i)〜(iv)に対応する血圧は、ほとんど経時的変化が無く安定しており、また、シーン(i)〜(iv)に対応する脈拍も、ほとんど経時的変化が無く安定している場合を示している。すなわち、脈波伝達時間を示すデータYは、図15Fに示すように、いずれも、脈波伝達時間判定用の閾値B以上である。
【0162】
ところが、図16Dに示すシーン(v)では、被写体がスタートラインに立った直後から、操作者の脈拍が増加すると共に血圧が増加し始め、スターターが号砲を打った瞬間に例えば、そのピークを迎えている。この際の脈波伝達時間を示すデータYは、シーン(i)〜(iv)の場合の脈波伝達時間を示すデータYよりも短くなっている。シーン(vi)で被写体がスタートして、駆け足を始めた当たりから、徐々に脈拍及び血圧も正常時に戻ってくる。この際の脈波伝達時間を示すデータYは、シーン(i)〜(iv)の場合の脈波伝達時間を示すデータYとほぼ等しくなっている。
【0163】
しかし、シーン(vii)で勢い余って被写体が転んだ状態となると、再び、操作者の脈拍及び血圧が増加し始め、被写体が立ち上がった瞬間に、例えば、そのピークを迎えている。この際の脈波伝達時間を示すデータYは、シーン(i)〜(iv)の場合の脈波伝達時間を示すデータYよりも短くなっている。そして、徐々に脈拍及び血圧も正常時に戻ってくる。この例で、シーン(viii)で被写体が泣きながらゴールに到着した時点では、操作者の脈拍及び血圧は、最初と同じ状態に戻っている。
【0164】
なお、当該ビデオカメラ200を持って被写体を撮影する操作者の発汗量の経時的変化については、図4D及び図5Dを参照されたい。このような操作者の感情変化に対して発汗量、脈拍及び血圧が増加し、その発汗量、脈拍及び血圧は経過時間と共に正常時へ戻ることが知られている。
【0165】
この例では、第1の実施例と異なり、脈波伝達時間判定用の閾値Bは特殊記録モードの起動と共に一義的に設定される。図16Dに示すシーン(v)で操作者の脈拍及び血圧変化に伴う脈波伝達時間を示すデータYは脈波伝達時間判定用の閾値Bを下回っている。このデータYが閾値Bを下回った時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。
【0166】
更に時間が経過して、図16Dに示すシーン(vi)で操作者の脈拍及び血圧が正常時に戻ってデータYが閾値B以上になっている。このデータYが閾値Bを越えた時刻teがタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第1のタイムコードの時刻tsと時刻teとの間の動画シーンが第1の実施例と同様にして、特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる。
【0167】
この例では、更に、時間が経過して、図16Dに示すシーン(vii)で操作者の脈拍及び血圧が増加して、データYが閾値Bを下回っている。この脈拍及び血圧変化に伴うデータYが閾値Bを下回った時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。更に、時間が経過して、図16Dに示すシーン(vii)で操作者の脈拍及び血圧が正常時に戻って、データYが閾値B以上となっている。この脈拍及び血圧変化に伴うデータYが閾値Bを越えた時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第2のタイムコードの時刻tsと時刻teとの間の動画シーンが第1の実施例と同様にして特殊記録モードにおける第2の抽出(摘出)シーンSVii(編集映像+音情報)となる。なお、感情変化に対して寄与するパラメータFの寄与率を表1に示している。
【0168】
【表1】
【0169】
表1によれば、感情変化に対して寄与するパラメータFについて、心拍数は寄与率が0.94,血圧は同1.06,WTTは同1.30、体温は同0.44,発汗量は同1.93である。この例では発汗量>WTT>血圧>心拍数なる関係を得ている。
【0170】
続いて、本発明に係る第2の情報処理方法について説明する。図17は、ビデオカメラ200における情報記録例を示すフローチャートである。
【0171】
この例では、ヘッドマウント型のビデオカメラ200で被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合を前提とする。生体センサ部45には図14に示したような発汗センサ45’、脈拍センサ27及び血圧センサ28が使用される。CPU32は、生体センサ部45から出力される発汗検知データD45’、脈拍検知データD27及び血圧検知データD87に基づく脈波伝達時間を示すデータYと映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0172】
これらを前提にして、図6に示すフローチャートのステップC1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は特殊記録モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は特殊記録モードのいずれかを選択するようになされる。例えば、押しボタンスイッチ12を操作して特殊記録モードを選択すると、操作部18からCPU32には特殊記録モードを示す操作データD18が出力される。
【0173】
次に、ステップC2でCPU32はスタートを待機する。このとき、ユーザは撮影スタートを構成する押しボタンスイッチ12を操作して、CPU32に動画記録処理開始を指示するようになされる。操作部18はCPU32に動画記録処理開始を指示する操作データD18を出力する。
【0174】
操作部18からCPU32へ動画記録処理開始が指示された場合は、ステップC3でノーマルモード又は特殊記録モードの設定によって制御を分岐する。上述のステップC1で特殊記録モードが設定されている場合は、ステップC4でCPU32は、被写体の映像及びその周辺の音情報を取得するように映像&音収録部31’を制御して記録開始処理に移行する。このとき、映像&音収録部31’は、被写体の映像を撮影して映像データD34を取得し、かつ、当該被写体の周囲の音を集音して音声データD13を取得する。映像&音声処理部44では、例えば、MPEG−1規格に準拠して、映像の中の動く部分だけを検出し圧縮処理した映像データD34を記憶装置35に記録する。
【0175】
これと並行して、ステップC5でCPU32は当該ビデオカメラ200を操作する操作者30の発汗や、脈拍、血圧等の生体感情を検出して脈波伝達時間を示すデータYを作成するように血圧センサ部28を制御する。血圧センサ部28は、この制御を受けて、映像&音収録部31’を操作する操作者30の血圧を検出して血圧検知データD87をCPU32に出力する。このとき、血圧センサ28は映像&音収録部31’を操作する操作者30の血圧を時系列に検知し、更に、脈拍センサ27からの脈拍検知データD27を入力して脈波伝達時間を示すデータYを演算してCPU32へ出力するようになされる。
【0176】
次に、ステップC6に移行して、CPU32は、血圧センサ28から出力される脈波伝達時間を示すデータYと当該データYの判別基準となる脈波伝達時間判別用の閾値Bとを比較してY<Bの判別処理を実行する。メモリ部37ではCPU32のメモリ制御を受けて、データYを入力し、予め設定された閾値Bと、データYから得られる脈波伝達時間(WTT)とを比較する。
【0177】
Y<Bなる判別結果を得た場合はステップC7に移行して、CPU32はステップC4で同時進行の記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集起点情報を付加する。このとき、図16に示したシーン(v)の例によれば、血圧センサ28が閾値Bを越える脈波伝達時間を示すデータYを検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加する。映像&音声処理部44では、CPU32からの編集起点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻tsをマーク(記述)するようになる。
【0178】
そして、ステップC8に移行してCPU32はY≧Bの判別処理を実行する。Y≧Bを判別した場合はステップC9に移行して、ステップC4で同時進行している記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集終点情報を付加する。このとき、図16に示したシーン(v)の例によれば、血圧センサ28が閾値B以上の脈波伝達時間を示すデータYを検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0179】
映像&音声処理部44では、CPU32の編集終点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻teをマーク(記述)するようになる。このタイムコードとして時刻tsと時刻teの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図16参照)。そして、ステップC11に移行する。
【0180】
なお、上述のステップC3でノーマルモードが設定されている場合は、ステップC10に移行して、ノーマルモードを実行する。ノーマルモードでは、編集終点情報や編集終点情報等を付加することなく、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とが記録装置35に記録される。その後、ステップC11に移行する。
【0181】
ステップC11で、CPU32は終了判断をする。例えば、撮影のストップスイッチを構成する押しボタンスイッチ12が操作されたか否かを判別する。あるいは、電源オフ情報を検出した否かを判別する。ストップスイッチを構成する押しボタンスイッチ12が操作された場合、又は、電源オフ情報が検出された場合は、動画記録処理を終了する。ストップスイッチを構成する押しボタンスイッチ12が操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップC3に戻って上述した処理を繰り返す。これにより、血圧センサ28から得られた脈波伝達時間を示すデータYと、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0182】
図15及び図16に示した例によれば、第1及び第2の抽出シーンを編集できるタイムコード(時刻)ts,teが付加されている。このようにすると、操作者30の発汗、脈拍及び血圧に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は例えば、記録時間情報Tに対してタイムコードとして設定(記述)される。
【0183】
このように第2の実施例に係るビデオカメラ及び情報記録方法によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、映像&音収録部31’は、被写体の映像を撮影して映像データD34を出力し、かつ、当該被写体の周囲の音を集音して音声データD13を出力する。血圧センサ28は、映像&音収録部31’を操作する操作者30の生体感情を検出して脈波伝達時間を示すデータYを出力する。これを前提にして、CPU32で血圧センサ28から出力されるデータYと映像&音収録部31’から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理できるようになった。
【0184】
従って、操作者30が被写体映像撮影中に脈拍数が増加し血圧が上昇して生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになり、ここで自動抽出される映像データD34及び音声データD13を編集した操作者固有の映像及び音声データファイルを容易かつ簡単に作成できるようになった。これにより、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0185】
この実施例では、脈拍センサ27及び血圧センサ28を用いて、生体感情が高まった時点の映像データD34及び音声データD13を自動抽出する場合について説明したが、これに限られることはなく、脈拍センサ27や血圧センサ28等に替えて脳波センサを用いて生体感情が高まった時点の映像データD34及び音声データD13を自動抽出するようにしても同様な効果が得られる。
【実施例3】
【0186】
図18は、第3の実施例としてのデジタルカメラ300の構成例を示す斜視図である。
図18に示すデジタルカメラ300は情報処理装置の一例を構成し、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置である。
【0187】
デジタルカメラ300は、外装を構成する本体ケース60を有しており、本体ケース60の前面側には撮像部34が組み込まれている。撮像部34は撮像レンズや、図示しないレンズ駆動機構、撮像素子等を有して構成される。撮像素子は、撮像レンズの後端に設けられ、撮像レンズやレンズ駆動機構等の撮影光学系によって導かれた被写体像を撮像するように動作する。
【0188】
本体ケース60の後面、上面、側面には、電源スイッチ、モードスイッチ、ズームスイッチ、シャッタースイッチ12a等の種々の押しボタンスイッチ12が設けられている。電源スイッチはデジタルカメラ300の電源をオン又はオフするスイッチである。モードスイッチは撮影時のノーマルモード又は特殊記録モードのいずれかを選択する際に操作される。ここに特殊動画記録モードとは、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた動画を記録する動作をいう。ノーマルモードとは特殊動画記録モード以外の動作をいい、操作者の生体感情に関係無く撮影集音された被写体の映像情報(静止画)をそのまま記録する動作をいう。
【0189】
この例で、特殊動画記録モードを選択するモードスイッチには、情報出力部の機能の一例を構成する生体センサ部45が設けられ、当該デジタルカメラ300を操作する操作者の生体感情を検出して生体感情報を出力するようになされる。生体センサ部45には例えば図2に示したような発汗(Hidrosis)センサ45’が使用される。この例で発汗センサ45’は、本体ケース60の背面右下に設けられる。この部分は当該デジタルカメラ200を右手で把持するグリップ部分である。もちろん、グリップ部分に限られることはく、シャッタースイッチ12aを兼用する位置に生体センサ部45を設けるようにしてもよい。シャッタースイッチ12aに触れている操作者の発汗量を検知して発汗レベルを示す生体感情報を情報処理部15へ出力できるようなる。また、生体センサ部45は発汗センサ45’の他に脈拍センサ27や血圧センサ28等を使用してもよい。
【0190】
図示ないズームスイッチは、被写体映像をズームアップ表示又はズームダウン表示する際に操作される。シャッタースイッチ12aは表示部29に表示されている被写体映像の静止画情報の取り込みを情報処理部15へ指示する際にON操作される。本体ケース60の前面であって、撮像レンズの先端下方の位置には、集音部13を成す音収録用のマイクロフォンが取り付けられる。動画像再生時、音をステレオ再生する場合は、左右2個のマイクロフォンを取り付けるとよい。
【0191】
更に、本体ケース60の背面側には、表示部29が設けられ、撮像部34で撮像した被写体映像を動画表示(モニタ)するようになされる。例えば、表示部29は撮影中の映像(動画像)や、シャッターON操作時、再生時の静止画映像又は動画映像を表示する。表示部29には、例えば、2乃至3インチ程度のカラー液晶表示装置が使用される。
【0192】
本体ケース60の内部には回路基板17が設けられる。回路基板17には記録メディアやメディアスロット等の記憶装置35が実装又は装着可能となされ、ノーマルモード又は特殊動画記録モードによって得られた被写体の静止画及び動画を含む映像情報及び、動画像取得時の被写体の周囲の音情報を記録するようになされる。回路基板17には記憶装置35の他に情報処理部15が実装される。
【0193】
本体ケース60の内部には回路基板17の他にバッテリー14が実装され、当該回路基板17、表示部29、撮像部34、記憶装置35及び生体センサ部45に直流電源を供給するようになされる。本体ケース60の外部側には外部インターフェース41等が設けられ、外部機器からの映像&音声用のコネクタや、通信ケーブル類が接続可能なようになされている。外部インターフェース41は外部機器へ映像&音声出力する際に使用され、通信ケーブル用の端子は、外部機器と通信する際に使用される。
【0194】
図19は、デジタルカメラ300の制御系の構成例を示すブロック図である。図19に示すデジタルカメラ300は、本体ケース60内の回路基板17に各機能ブロックを実装して構成される。なお、図18に示した各部と対応する部分は、同一符号で示している。
【0195】
デジタルカメラ300は、シャッタースイッチ12a、情報処理部15、操作部18、通信部19、表示部29、映像&音収録部31、記憶装置35、外部インターフェース41及び生体センサ部45を有して構成される。第1の実施例と同じ符号及び同じ名称のものは同じ機能を有するので、その説明を省略する。
【0196】
情報処理部15はCPU32、メモリ部37及び映像&音声処理部44を有して構成される。CPU32はシステムプログラムに基づいて当該デジタルカメラ全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該デジタルカメラ全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げてデジタルカメラ全体を制御するようになされる。
【0197】
操作部18はCPU32に接続され、図1に示した電源スイッチ、モードスイッチ、ズームスイッチ、シャッタースイッチ12a等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。
【0198】
映像&音収録部31は第1の実施例と同様にして、集音部13及び撮像部34を有して構成される。集音部13は映像&音声処理部44に接続され、被写体の周囲の音を集音して得た音声データD13を出力する。撮像部34は映像&音声処理部44に接続され、被写体の映像を撮影して得た静止画及び動画に係る映像データD34を出力する。
【0199】
生体センサ部45は、映像&音収録部31や操作部18等、特に、シャッタースイッチ12aを操作する操作者30の生体感情を検出して感情データD45を出力する。例えば、生体センサ部45には図2に示した発汗センサ45’が使用され、映像&音収録部31を操作する操作者30の発汗量を時系列に検知して感情データD45をCPU32へ出力する。
【0200】
上述のメモリ部37のROM又はEEPROMにはシステムプログラムの他にノーマルモード用のプログラムと特殊動画記録モード用のプログラムとが記述されている。ノーマルモード用のプログラムは、従来方式と同様にして、静止画を記録する順序を記述したものである。特殊動画記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の静止画映像の取得処理に並行して、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情に基づいて動画記録処理するためのプログラムである。
【0201】
その内容は、被写体の静止画映像の取得時に、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31を操作する操作者30の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の動画映像情報及び当該被写体の周囲の音情報とを対応付けて自動抽出処理するステップとを記述したものである。
【0202】
このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、CPU32は、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0203】
例えば、CPU32は、シャッタースイッチ12aのON操作とは別個独立に、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて自動抽出処理するようになされる。この例でCPU32は、第1の実施例と同様にして、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較する。
【0204】
この比較結果で、例えば、生体センサ部45が発汗量判定閾値Hthを越える発汗レベルHxの感情データD45を検出したとき、これをトリガ(編集起点)にして、CPU32は、シャッタースイッチ12aがON操作されていなくても、動画モニタ表示されている被写体の映像データD34及び当該被写体周囲収録時の音声データD13を抽出して切り出すように動画の記録を開始する。この例では、静止画とは独立に編集起点からの動画情報を記録するようになされる。
【0205】
その後、発汗量判定閾値Hth以下の発汗レベルHxの感情データD45を検出したとき、これをトリガー(編集終点)にして、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の抽出切り出しを終了するように映像&音声処理部44を自動抽出するように制御する。この例で、静止画とは独立に当該動画像の編集終点で記録を終了するようになされる。
【0206】
映像&音声処理部44はCPU32の静止画記録制御を受けて、例えば、JPEG圧縮方式により静止画像データを圧縮して記憶装置35に転送するようになされる。圧縮率は例えば、圧縮前の静止画像データの1/10〜1/100程度である。感動シーンに係る動画像は、CPU32の動画像抽出記録制御を受けて、第1の実施例と同様にして、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録するようになされる。
【0207】
この例で、メモリ部37は発汗量判定閾値Hthを記憶する。例えば、発汗量判定閾値Hthはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値Hthと、感情データD45から得られる発汗レベルHxとを比較し、Hth>Hxの判定処理や、Hth≦Hx等の判定処理を実行する。もちろん、発汗量判定閾値は一義的な定数に限られることはなく、二次関数的に変化するものであってもよい(図5参照)。
【0208】
このようにすると、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点及び編集終点に係る情報は、第1の実施例と同様にして、記録時間情報に対してタイムコードとして設定(記述)してもよいが、その時点で動画像を切り出して記録装置35に保存する形式を採っているので省略してもよい。特殊動画記録モードの設定によって、操作者30が被写体静止画像の撮影中に、手に汗握って生体感情が高まった時点の動画シーンの映像データD34及び音声データD13を自動抽出できるようになる。
【0209】
更にCPU32に再生制御機能を持たせて、自動抽出した被写体の動画シーンの映像データD34及び当該被写体周囲収録時の音声データD13を再生するようにしてもよい。このような再生処理を実行すると、操作者30が被写体静止画映像を撮影中に手に汗握って生体感情が高まった時点の動画シーンを成す映像データD34及び音声データD13を再生することができ、被写体の静止画に加えて、操作者固有の映像データD34及び音声データD13を記録したメモリアルファイルを視聴できるようになる。表示部29は、操作者固有の映像データD34を入力して操作者固有の映像を表示し、スピーカー36からは、感動シーン取り込み時の被写体周辺の音声データD13を入力して被写体周辺固有の音声等を出力できるようになる。
【0210】
更にCPU32に記録制御機能を持たせて、自動抽出した被写体の動画シーンの映像データD34及び当該被写体周囲収録時の音声データD13を所定の記録媒体に記録するようにしてもよい。このような記録処理を実行すると、操作者30が被写体静止画映像を撮影中に手に汗握って生体感情が高まった時点の動画シーンを成す映像データD34及び音声データD13をCD−ROMや、MD等の記録媒体に記録することができ、静止画に加えて、操作者固有の動画シーンを成す映像データD34及び音声データD13を記録したメモリアルファイルを配布できるようになる。
【0211】
上述のCPU32には記録メディアや、メディアスロット等を構成する記憶装置35が接続され、ノーマルモード時の静止画情報の他に、特殊動画記録モード時、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた動画記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0212】
上述の映像&音声処理部44には表示部29が接続され、映像表示信号S29に基づいて撮影中の動画映像や再生時の静止映像、感動シーンを成す動画像を表示するようになされる。映像&音声処理部44にはスピーカー36が接続され、動画撮影時、音声信号S36に基づいて撮影中の被写体周辺の音や再生時の音声等を出力する。スピーカー36は本体ケース60の所定の位置に設けられる。映像&音声処理部44には外部インターフェース41が接続され、映像&音声信号を外部機器へ出力するようになされる。
【0213】
CPU32には通信部19が接続され、第1の実施例と同様にして、外部機器と通信するようになされる。例えば、CPU32は、自動抽出した被写体の動画像を成す映像データD34及び当該被写体周囲収録時の音声データD13を通信部19を介して配信する。このような配信処理を実行すると、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を配信することができ、操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。なお、デジタルカメラ300における撮影フォーマット例については、図4及び図5を参照されたい。
【0214】
続いて、本発明に係る第3の情報処理方法について説明する。図20及び図21は、デジタルカメラ300における記録処理例(その1,2)を示すフローチャートである。
【0215】
この例では、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合を前提とする。生体センサ部45には図2に示したような発汗センサが使用される。CPU32は、シャッタースイッチ12aのON操作と独立して、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び、当該被写体周囲収録時の音声データD13とを対応付けて自動抽出処理する場合を例に挙げる。
【0216】
これらを前提にして、図20に示すフローチャートのステップE1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は特殊動画記録モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は特殊動画記録モードのいずれかを選択するようになされる。例えば、該当する押しボタンスイッチ12を操作して特殊動画記録モードを選択すると、操作部18からCPU32には特殊動画記録モードを示す操作データD18が出力される。
【0217】
次に、ステップE2でノーマルモード又は特殊動画記録モードの設定によって制御を分岐する。上述のステップE1で特殊動画記録モードが設定されている場合は、ステップE3でCPU32は被写体映像を動画でモニタ表示する。そして、ステップE4でシャッタースイッチ12aがON操作されたかを監視する。シャッタースイッチ12aがON操作されない場合は、被写体映像の動画モニタ表示を継続すると共に、ステップE17に移行する。ステップE4でシャッタースイッチ12aがON操作された場合は、ステップE5に移行して被写体映像の静止画をモニタ表示すると共に静止画を記録装置35に記録し保存する。このとき、撮像部34は、被写体の映像を撮影して映像データD34を取得する。映像&音声処理部44では、例えば、JPEG規格に準拠して、静止画情報を圧縮処理した映像データD34を記憶装置35に記録する。その後、ステップE17に移行する。
【0218】
これと並行して、ステップE6でCPU32は当該デジタルカメラ300を操作する操作者30の生体感情を検出して感情データD45を作成するように生体センサ部45を制御する。生体センサ部45は、この制御を受けて、発汗センサ45’に触れている操作者の発汗量を検知して発汗レベルを示す感情データD45をCPU32に出力する。
【0219】
次に、ステップE7でCPU32は発汗量判定閾値曲線を設定するか否かを判別する。この際の判断基準は、第1の実施例と同様にして、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較することにより実行される。操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値である。このような差分値を求めるようにしたのは、第1の実施例で説明した通りである。
【0220】
上述のステップE7で操作者の発汗量の変化率が基準変化率を越えた場合は、ステップE8でCPU32は発汗量判定閾値曲線を設定するようになされる。このとき、メモリ部37から式(1)に示したような発汗量判定閾値曲線を読み出してRAMに展開する。これと共に、CPU32はタイマを起動して、監視時間のカウントを開始する。そして、ステップE9に移行して、CPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。メモリ部37では、図19に示したCPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値曲線を成す発汗量判定閾値Hth1,Hth2,Hth3,Hth4・・・・と、感情データD45から得られる発汗レベルHxとを比較する。
【0221】
Hx>Hthなる判別結果を得た場合はステップE10に移行して、CPU32はステップE4のシャッタースイッチ2aのON操作に関係なく、編集起点を示す時刻tsで被写体動画像の抽出記録処理を開始する。このとき、映像&音声処理部44は編集起点の被写体の映像データD34及び当該被写体周囲収録時の音声データD13をMPEG規格に準拠して圧縮処理する。圧縮処理後の被写体の映像データD34及び当該被写体周囲収録時の音声データD13が記憶装置35に動画記録するようになされる(図5参照)。
【0222】
そして、図21に示すステップE11に移行してCPU32はHx≦Hthの判別処理を実行する。Hx≦Hthを判別した場合はステップE12に移行して、ステップE4のシャッタースイッチ12aびON操作に関係なく、編集終点を示す時刻teで被写体動画像の抽出記録処理を終了する。このとき、編集終点以降の被写体の映像データD34及び当該被写体周囲収録時の音声データD13は、次のHx>Hthなる判別結果が得られるまで、記憶装置35に記録されることなく表示処理に止まっている。
【0223】
映像&音声処理部44では、CPU32からの動画像抽出記録制御によって、抽出された編集起点を示す時刻tsと編集終点を示す時刻teの間の動画シーンが特殊動画記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。
【0224】
その後、ステップE13に移行して第1の実施例と同様にして、当該発汗量判定閾値曲線における監視時間が終了したか否かを判別する。この際の判別基準はタイマのカウントアップを以て終了する。監視時間が終了していない場合は、ステップE9に戻ってCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。
【0225】
この動画像抽出記録制御によって、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を、シャッタースイッチ12aのON操作に関係なく、自動抽出できるようになる。上述の監視時間が終了した場合は、ステップE17に移行する。
【0226】
なお、上述のステップE2でノーマルモードが設定されている場合は、ステップE14に移行して、ノーマルモードを実行する。ノーマルモードでは、生体感情の検知処理等を実行することなく、ステップE14で被写体映像をモニタ表示する。そして、ステップE15でシャッタースイッチ12aがON操作されたかを監視する。シャッタースイッチ12aがON操作されない場合は、被写体映像の動画でのモニタ表示を継続すると共に、ステップE17に移行する。ステップE15でシャッタースイッチ12aがON操作された場合は、ステップE16に移行して被写体映像の静止画をモニタ表示すると共に静止画を記録装置35に記録し保存する。このとき、先のステップE5と同様にして、撮像部34は、被写体の映像を撮影して映像データD34を取得する。映像&音声処理部44では、JPEG規格に準拠して、静止画情報を圧縮処理した映像データD34を記憶装置35に記録する。その後、ステップE17に移行する。
【0227】
ステップE17で、CPU32は終了判断をする。例えば、電源スイッチを構成する押しボタンスイッチ12が操作され、CPU32は電源オフ情報を検出した否かを判別する。電源スイッチを構成する押しボタンスイッチ12が操作され、電源オフ情報が検出された場合は、静止画及び動画記録処理を終了する。電源スイッチを構成する押しボタンスイッチ12が操作されず、電源オフ情報が検出されていない場合は、ステップE2に戻って上述した処理を繰り返す。これにより、シャッタースイッチ12aのON操作とは独立して生体センサ部45から得られた感情データD45と撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0228】
このように第3の実施例に係るデジタルカメラ及び情報記録方法によれば、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合に、静止画取得時、撮像部34は、シャッタースイッチ12aのON操作に対応して被写体の映像を撮影して得た映像データD34を映像&音声処理部44へ出力する。生体センサ部45は、シャッタースイッチ12aのON操作に無関係に映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。これを前提にして、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて動画像を自動抽出処理するようになされる。
【0229】
従って、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を自動抽出することができ、ここで自動抽出された映像データD34及び音声データD13を編集した操作者固有の動画取得映像及び音声データファイルを容易かつ簡単に作成できるようになる。
【0230】
しかも、シャッタースイッチ12aのON操作によって撮り損なった感動シーンの静止画を、感動シーンの動画像として自動抽出することができ、後日、感動シーンの動画像からその静止画を編集できるようになる。この結果、シャッタースイッチ12aのON操作によって得られた静止像の他に、自動抽出された感動シーンの動画像の中から、より特徴的な感動シーンのJPEG静止画を編集(取得)できるようになる。
【実施例4】
【0231】
図22は、第4の実施例としてのカメラ付き携帯電話機400の構成例を示す斜視図である。図22に示す携帯電話機400はデジタルカメラ機能モードを有すると共に、上部筐体40a及び下部筐体40bを有している。上部筐体40aと下部筐体40bとはヒンジ機構11を介在して折り畳み及び回動自在に係合されている。
【0232】
上部筐体40aの表面には、表示部29が設けられ、デジタルカメラ機能モード実行時、被写体の映像を動画表示するようになされる。電話機能モードの実行時、表示部29には、相手方の電話番号や、メニュー画面が表示される。上部筐体40aの表面の上方にはスピーカー36bが設けられ、通話用のレシーバ(受話器)として使用される。スピーカー36bの取り付け位置と対峙するヒンジ機構11の取り付け位置には、生体センサ部45が設けられ、当該携帯電話機400を操作する操作者30の生体感情を検出して生体感情報を出力するようになされる。
【0233】
上部筐体40aに対して、ヒンジ機構11によって可動自在に係合された下部筐体40bには、図示しない複数の押しボタンスイッチ12から成る操作部18が設けられる。押しボタンスイッチ12は、「0」〜「9」数字キー、「*」や「#」等の記号キー、「オン」や「オフ」等のフックボタン、メニューキー等から構成される。下部筐体40bの側面(図中では上部)にシャッタースイッチ12aが設けられる。下部筐体40bの操作パネル面の下方には、図示しない通話用のマイクロフォン13’が取り付けられ、送話器として機能するようになされる。
【0234】
また、下部筐体40bの背面側には撮像部34が設けられ、シャッタースイッチ12aのON操作によって、被写体を撮影し、例えば、静止画情報や動作情報を取得するようになされる。下部筐体40bの内部には、バッテリー14や回路基板17等が設けられる。下部筐体40bの内部下端には、図示しないモジュール型のアンテナ16が取り付けられ、その上端内部側面には、大音響用のスピーカー36aが設けられ、再生等を放音するようになされる。
【0235】
図23は、携帯電話機400の制御系の構成例を示すブロック図である。図23に示す携帯電話機400は、下部筐体40b内の回路基板17に各機能ブロックを実装して構成される。なお、図22に示した各部と対応する部分は、同一符号で示している。携帯電話機400は、情報処理部15、アンテナ16、操作部18、受信部21、送信部22、アンテナ共用器23、表示部29、映像&音収録部31’、記憶装置35、スピーカー36a,36b、外部インターフェース41及び生体センサ部45を有して構成される。
【0236】
情報処理部15はCPU32、メモリ部37及び映像&音声処理部44を有して構成される。CPU32はシステムプログラムに基づいて当該携帯電話機全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該携帯電話機全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げて携帯電話機全体を制御するようになされる。
【0237】
メモリ部37のROM又はEEPROMにはシステムプログラムの他に撮影記録モード用のプログラムが記述されている。撮影記録モード用のプログラムには、静止画記録モードと特殊動画記録モードとを実行するためのプログラムが含まれている。静止画記録モード用のプログラムは、従来方式と同様にして、静止画を記録する順序を記述したものである。特殊動画記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の静止画映像の取得処理に並行して、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情に基づいて動画記録処理するためのプログラムである。
【0238】
その内容は、被写体の静止画映像の取得時に、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31を操作する操作者30の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の動画映像情報及び当該被写体の周囲の音情報とを対応付けて自動抽出処理するステップとを記述したものである。
【0239】
この例で、デジタルカメラ機能モード選択時、このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、CPU32は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0240】
CPU32には操作部18が接続され、当該携帯電話機操作時、電源スイッチ、モードスイッチ、ズームスイッチ、シャッタースイッチ12a等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。
【0241】
CPU32には操作部18の他に映像&音収録部31’が接続されている。映像&音収録部31’は、マイクロフォン13’及び撮像部34を有して構成される。マイクロフォン13’は映像&音声処理部44に接続され、被写体の周囲の音や、操作者の話声を集音して得た音声信号Sinを出力する。映像&音声処理部44はマイクロフォン13’から出力される音声信号Sinをアナログ・デジタル変換して音声データD13を送信部22や、記憶装置35等へ出力する。マイクロフォン13’には第1の実施例で説明した型式のマイクロフォンが使用される。撮像部34は映像&音声処理部44に接続され、デジタルカメラ機能モード選択時、被写体の映像を撮影して得た映像データD34を出力する。撮像部34の内部構造は第1の実施例で述べているので割愛する。
【0242】
CPU32には映像&音収録部31’の他に生体センサ部45が接続され、映像&音収録部31’を操作する操作者30の生体感情を検出して感情データD45を出力する。例えば、生体センサ部45には図2に示した発汗センサ45’が使用され、映像&音収録部31’を操作する操作者30の発汗量を時系列に検知して感情データD45をCPU32へ出力する。
【0243】
CPU32は、第3の実施例で説明したデジタルカメラ機能と同様にして、シャッタースイッチ12aのON操作とは別個独立に、生体センサ部45から出力される感情データD45と映像&音収録部31’から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて自動抽出処理するようになされる。この例でCPU32は、第1の実施例と同様にして、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較する。
【0244】
この比較結果で、例えば、生体センサ部45が発汗量判定閾値Hthを越える発汗レベルHxの感情データD45を検出したとき、これをトリガ(編集起点)にして、CPU32は、シャッタースイッチ12aがON操作されていなくても、動画モニタ表示されている被写体の映像データD34及び当該被写体周囲収録時の音声データD13を抽出して切り出すように動画の記録を開始する。この例では、静止画とは独立に編集起点からの動画情報を記録するようになされる。
【0245】
その後、発汗量判定閾値Hth以下の発汗レベルHxの感情データD45を検出したとき、これをトリガー(編集終点)にして、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の抽出切り出しを終了するように映像&音声処理部44を自動抽出するように制御する。この例で、静止画とは独立に当該動画像の編集終点で記録を終了するようになされる。
【0246】
映像&音声処理部44はCPU32の静止画記録制御を受けて、例えば、JPEG圧縮方式により静止画像データを圧縮して記憶装置35に転送するようになされる。圧縮率は例えば、圧縮前の静止画像データの1/10〜1/100程度である。感動シーンに係る動画像は、CPU32の動画像抽出記録制御を受けて、第1の実施例と同様にして、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録するようになされる。
【0247】
この例で、メモリ部37は発汗量判定閾値Hthを記憶する。例えば、発汗量判定閾値Hthはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値Hthと、感情データD45から得られる発汗レベルHxとを比較し、Hth>Hxの判定処理や、Hth≦Hx等の判定処理を実行する。もちろん、発汗量判定閾値は一義的な定数に限られることはなく、二次関数的に変化するものであってもよい(図5参照)。
【0248】
このようにすると、携帯電話機400においても、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点及び編集終点に係る情報は、第1の実施例と同様にして、記録時間情報に対してタイムコードとして設定(記述)してもよいが、第3の実施例と同様にして、その時点で動画像を切り出して記録装置35に保存する形式を採っているので省略してもよい。撮影記録モードの設定によって、操作者30が被写体静止画像の撮影中に、手に汗握って生体感情が高まった時点の動画シーンの映像データD34及び音声データD13を自動抽出できるようになる。
【0249】
上述のCPU32には記録メディアや、メディアスロット等を構成する記憶装置35が接続され、撮影記録モード時、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0250】
また、携帯電話機固有の構成部品として、図23に示すアンテナ16は、アンテナ共用器23に接続され、着呼時、相手方からの無線電波を基地局等から受信する。アンテナ共用器23には受信部21が接続され、アンテナ16から導かれる受信データを受信して映像や音声等を復調処理し、復調後の映像及び音声データDinをCPU32等に出力するようになされる。受信部21には、CPU32を通じて映像&音声処理部44が接続され、デジタルの音声データDinをデジタル/アナログ変換して音声信号Soutを出力したり、デジタルの映像データをデジタル/アナログ変換して映像表示信号S29を出力するようになされる。
【0251】
上述の映像&音声処理部44には表示部29が接続され、映像表示信号S29に基づいて撮影中の映像や再生時の映像を表示するようになされる。映像&音声処理部44には大音響用を構成するスピーカー36aが接続され、音声信号S36に基づいて着信時の着信メロディや、再生時の音声等を出力するようになされる。スピーカー36aは例えば、下部筐体40bの所定の位置に設けられる。映像&音声処理部44にはスピーカー36aの他に受話器を構成するスピーカー36bが接続される。スピーカー36bは、音声信号Soutを入力して相手方の話声等を拡大するようになされる。スピーカー36bは例えば、上部筐体40aの所定の位置に設けられる。
【0252】
この映像&音声処理部44にはスピーカー36a,36bの他に、送話器を構成するマイクロフォン13’が接続され、操作者30の声を集音して音声信号Sinを出力するようになされる。映像&音声処理部44は、発呼時、相手方へ送るためのアナログの音声信号Sinをアナログ/デジタル変換してデジタルの音声データDoutを出力する。
【0253】
CPU32には受信部21の他に、送信部22が接続され、相手方へ送るための映像及び音声データDout等を変調処理し、変調後の送信データをアンテナ共用器23を通じアンテナ16に供給するようになされる。アンテナ16は、アンテナ共用器23から供給される無線電波を基地局等に向けて輻射するようになされる。
【0254】
この例で、当該携帯電話機400で自動抽出処理に基づいて得られた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を送信部22を介して配信することもできる。このような配信処理を実行すると、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を配信することができ、操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0255】
映像&音声処理部44にはマイクロフォン13’の他に外部インターフェース41が接続され、映像&音声信号をパーソナルコンピュータ等の外部機器へ出力したり、当該外部機器と通信するようになる。この例でも、第1の実施例で説明したような編集制御機能や、再生制御機能、動画配信制御機能等をCPU32に持たせてもよい。
【0256】
続いて、携帯電話機400における情報処理例について説明する。図24及び図25は、携帯電話機400における情報処理例(その1,2)を示すフローチャートである。
【0257】
この例では、撮影記録モードと他の処理モードのいずれかを選択するようになされ、撮影記録モードを選択すると、静止画撮影モードと特殊動画記録モードとを併合した記録処理が実行される場合を前提とする。他の処理モードの中には、電話発呼・着呼・応答機能や、従来方式の携帯電話機のような静止画像のみの撮影モードが含まれている場合を例に挙げる。
【0258】
これらを情報処理条件にして、図24に示すフローチャートのステップF1でCPU32は、モード設定入力処理を実行する。例えば、撮影記録モード又は他の処理モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、撮影記録モード又は他の処理モードのいずれかを選択するようになされる。例えば、該当する押しボタンスイッチ12を操作して撮影記録モードを選択すると、操作部18からCPU32には撮影記録モードを示す操作データD18が出力される。
【0259】
次に、ステップF2で撮影記録モード又は他の処理モードの設定によって制御を分岐する。上述のステップF1で撮影記録モードが設定されている場合は、ステップF3でCPU32は被写体映像を動画でモニタ表示する。そして、ステップF4でシャッタースイッチ12aがON操作されたかを監視する。シャッタースイッチ12aがON操作されない場合は、被写体映像の動画モニタ表示を継続すると共に、ステップF15に移行する。ステップF4でシャッタースイッチ12aがON操作された場合は、ステップF5に移行して被写体映像の静止画をモニタ表示すると共に静止画を記録装置35に記録し保存する。このとき、撮像部34は、被写体の映像を撮影して映像データD34を取得する。映像&音声処理部44では、例えば、JPEG規格に準拠して、静止画情報を圧縮処理した映像データD34を記憶装置35に記録する。その後、ステップF15に移行する。
【0260】
これと並行して、ステップF6でCPU32は当該デジタルカメラ300を操作する操作者30の生体感情を検出して感情データD45を作成するように生体センサ部45を制御する。生体センサ部45は、この制御を受けて、発汗センサ45’に触れている操作者の発汗量を検知して発汗レベルを示す感情データD45をCPU32に出力する。
【0261】
次に、ステップF7でCPU32は発汗量判定閾値曲線を設定するか否かを判別する。この際の判断基準は、第1の実施例と同様にして、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較することにより実行される。操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値である。このような差分値を求めるようにしたのは、第1の実施例で説明した通りである。
【0262】
上述のステップF7で操作者の発汗量の変化率が基準変化率を越えた場合は、ステップF8でCPU32は発汗量判定閾値曲線を設定するようになされる。このとき、メモリ部37から式(1)に示したような発汗量判定閾値曲線を読み出してRAMに展開する。これと共に、CPU32はタイマを起動して、監視時間のカウントを開始する。そして、ステップF9に移行して、CPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。メモリ部37では、図23に示したCPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値曲線を成す発汗量判定閾値Hth1,Hth2,Hth3,Hth4・・・・と、感情データD45から得られる発汗レベルHxとを比較する。
【0263】
Hx>Hthなる判別結果を得た場合はステップF10に移行して、CPU32はステップF4のシャッタースイッチ2aのON操作に関係なく、編集起点を示す時刻tsで被写体動画像の抽出記録処理を開始する。このとき、映像&音声処理部44は編集起点の被写体の映像データD34及び、当該被写体周囲収録時の音声データD13をMPEG規格に準拠して圧縮処理する。圧縮処理後の被写体の映像データD34及び当該被写体周囲収録時の音声データD13が記憶装置35に動画記録するようになされる(図5参照)。
【0264】
そして、図25に示すステップF11に移行してCPU32はHx≦Hthの判別処理を実行する。Hx≦Hthを判別した場合はステップF12に移行して、ステップF4のシャッタースイッチ12aびON操作に関係なく、編集終点を示す時刻teで被写体動画像の抽出記録処理を終了する。このとき、編集終点以降の被写体の映像データD34及び当該被写体周囲収録時の音声データD13は、次のHx>Hthなる判別結果が得られるまで、記憶装置35に記録されることなく表示処理に止まっている。
【0265】
映像&音声処理部44では、CPU32からの動画像抽出記録制御によって、抽出された編集起点を示す時刻tsと編集終点を示す時刻teの間の動画シーンが撮影記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。
【0266】
その後、ステップF13に移行して第1の実施例と同様にして、当該発汗量判定閾値曲線における監視時間が終了したか否かを判別する。この際の判別基準はタイマのカウントアップを以て終了する。監視時間が終了していない場合は、ステップF9に戻ってCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。
【0267】
この動画像抽出記録制御によって、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を、シャッタースイッチ12aのON操作に関係なく、自動抽出できるようになる。上述の監視時間が終了した場合は、ステップF15に移行する。
【0268】
なお、上述のステップF2で他の処理モードが設定されている場合は、ステップF14に移行して、他の処理モードを実行する。他の処理モードでは、生体感情の検知処理等を実行することなく、電話機能モードや、特殊動画撮影モードを伴わない撮影記録モードを実行する。特殊動画撮影モードを伴わない撮影記録モードとは、第3の実施例で説明したようなノーマルモードによる静止画映像の撮影モードをいう。
【0269】
例えば、電話機能モードが選択されて、相手方に電話をする場合は、まず、相手方の電話番号をRAMに読み出して相手方の電話機を発呼する。相手方との電話回線が接続されると、送話器を構成するマイクロフォン13’は操作者の音声を収音して映像&音声処理部44に出力する。
【0270】
映像&音声処理部44は、操作者の話声を集音して得た音声信号Sinをアナログ・デジタル(A/D)変換する。A/D変換後の音声データD13は送信部22に出力される。送信部22は、相手方へ送るための音声データDoutを変調処理し、変調後の送信データをアンテナ共用器23を通じアンテナ16に供給するようになされる。アンテナ16は、アンテナ共用器23から供給される無線電波を基地局等に向けて輻射するようになされる。
【0271】
また、相手方からの無線電波をアンテナ16を介して基地局から受信する。アンテナ16から導かれる受信データは受信部21で復調処理され、復調後の音声データDinをCPU32を介して映像&音声処理部44に入力される。デジタルの音声データDinは映像&音声処理部44でデジタル/アナログ(D/A)変換される。D/A変換後の音声信号Soutはスピーカー36bへ出力される。スピーカー36bは、音声信号Soutを入力して相手方の話声等を拡大する。これにより、相手方と会話できるようになる。その後、電話回線を切断(オンフック)して電話機能モードを終了する。その後、ステップF15に移行する。
【0272】
ステップF15で、CPU32は終了判断をする。例えば、電源スイッチを構成する押しボタンスイッチ12が操作され、CPU32は電源オフ情報を検出した否かを判別する。電源スイッチを構成する押しボタンスイッチ12が操作され、電源オフ情報が検出された場合は、電話機能モード及び撮影記録モード等を終了する。電源スイッチを構成する押しボタンスイッチ12が操作されず、電源オフ情報が検出されていない場合は、ステップF2に戻って上述した処理を繰り返したり、待ち受け状態となされる。これにより、第3の実施例と同様にして、シャッタースイッチ12aのON操作とは独立して生体センサ部45から得られた感情データD45と撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0273】
このように第4の実施例に係るカメラ付き携帯電話機及びその情報処理方法によれば、デジタルカメラ機能を利用して、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合に、静止画取得時、撮像部34は、シャッタースイッチ12aのON操作に対応して被写体の映像を撮影して得た映像データD34を映像&音声処理部44へ出力する。生体センサ部45は、シャッタースイッチ12aのON操作に無関係に映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。これを前提にして、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて動画像を自動抽出処理するようになされる。
【0274】
従って、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を第3の実施例と同様にして、自動抽出することができ、ここで自動抽出された映像データD34及び音声データD13を編集した操作者固有の動画取得映像及び音声データファイルを容易かつ簡単に作成できるようになる。
【0275】
しかも、シャッタースイッチ12aのON操作によって撮り損なった感動シーンの静止画を、第3の実施例と同様にして、感動シーンの動画像として自動抽出することができ、後日、感動シーンの動画像からその静止画を編集できるようになる。この結果、シャッタースイッチ12aのON操作によって得られた静止像の他に、自動抽出された感動シーンの動画像の中から、より特徴的な感動シーンのJPEG静止画を編集(取得)できるようになった。
【実施例5】
【0276】
図26は、第5の実施例としての記録編集再生装置500の構成例を示す斜視図である。この例では、ヘッドマウント型のビデオカメラ200等から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するようになされる。
【0277】
図26に示す記録編集再生装置500は、情報再生装置の機能の一例を構成し、編集起点及び編集終点の各々の情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点及び編集終点に係るタイムコードを付加した区間部分の映像データD34’及び音声データD13’を自動抽出して繋ぎ合わせるように編集処理を実行するものである。記録編集再生装置500は例えば、ヘッドマウント型のビデオカメラ200のベースステーションを構成する。
【0278】
記録編集再生装置500は矩形状の本体ケース80を有している。本体ケース80の前面は操作パネル80aとなされている。操作パネル80aには電源スイッチ81、複数の操作用のスイッチ82、リモートコントロール用の受光部(以下リモコン受光部83という)、外部記録メディア用のスロット86が設けられる。電源スイッチ81は当該記録編集再生装置500に電源を供給する際にON操作される。
【0279】
リモコン受光部83は、図示しないリモートコントローラからの操作用の赤外光を受光して操作データを情報処理部85へ出力するようになされる。操作部82(スイッチ類)には、編集スタート・ストップスイッチ、再生スタート・ストップスイッチ、編集長さ設定スイッチ等が含まれる。編集長さ設定スイッチには、例えば、編集短目モード設定用のスイッチ、編集中程モード設定用のスイッチ、編集長目モード設定用のスイッチが準備されている。
【0280】
外部記録メディア用のスロット86にはCD−ROMや、MD、メモリスティック等の記録媒体が装着可能になされ、自動編集された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13をこれらの記録媒体に書き込み可能なようになされている。これらの記録媒体から自動編集に供される被写体の映像データD34及び当該被写体周囲収録時の音声データD13を読み出し可能となされている。
【0281】
本体ケース80の背面には、映像&音声入出力端子89が設けられ、ヘッドマウント型のビデオカメラ200や、映像&音声モニタ装置等の外部機器に接続可能なようになされている。この例では映像&音声入出力端子89を使用して、自動編集された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を外部機器に送信したり、外部機器から自動編集に供される被写体の映像データD34及び当該被写体周囲収録時の音声データD13を受信したりするようになされる。
【0282】
本体ケース80の内部には回路基板87が設けられる。回路基板87には、電源回路84や、情報処理部85及び無線通信部91を構成する半導体集積回路装置(LSI装置)、内蔵記憶装置92、装置放熱部93等が実装されている。無線通信部91は、例えば、ヘッドマウント型のビデオカメラ200と無線通信をする際に使用される。この無線通信処理には、ビデオカメラ200で撮影している、又は、撮影を終了した被写体の映像データD34及び当該被写体周囲収録時の音声データD13の転送処理が含まれる。
【0283】
内蔵記憶装置92には、固定ディスク装置(HDD)が使用され、自動編集された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を格納する際に使用される。もちろん、自動編集前の被写体の映像データD34及び当該被写体周囲収録時の音声データD13を格納するようにしてもよい。固定ディスク装置には磁気ディスク及び光ディスクが含まれる。
【0284】
情報処理部85は、編集依頼が有った外部からの被写体の映像データD34及び当該被写体周囲収録時の音声データD13に関して、編集起点及び編集終点の各々の情報を抽出して自動編集処理を実行する。例えば、情報処理部85は、編集長さ設定モードに対応して、当該編集起点及び編集終点の各々の情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点及び編集終点に係るタイムコードを付加した区間部分の映像データD34及び音声データD13を自動抽出して繋ぎ合わせるようになされる。
【0285】
上述の情報処理部85や、無線通信部91、内蔵記憶装置92、装置放熱部93等には電源回路84が接続され、これらの部品に直流電源を供給するようになされる。装置放熱部93は例えば、CPU冷却用のファンである。電源回路84には所定の長さの電源コード94が接続され、その終端部には電源プラグ95が取り付けられている。当該記録編集再生装置500は電源プラグ95を商用電源(AC100等)に接続して使用される。
【0286】
続いて、記録編集再生装置500の制御系の構成例について説明する。図27は、記録編集再生装置500の制御系の構成例を示すブロック図である。図27に示す記録編集再生装置500は、図26に示した本体ケース80内の回路基板87に各機能ブロックを実装して構成される。なお、図27に示した各部と対応する部分は、同一符号で示している。
【0287】
記録編集再生装置500は、アンテナ66、リモコン受光部83、電源回路84、情報処理部85、操作部82、映像&音声入出力端子89、無線&有線通信部91、内蔵記憶装置92及びメディアスロット用のドライバ96を有して構成される。情報処理部85はCPU62、メモリ部67及び映像&音声処理部64を有している。
【0288】
操作部82はCPU62に接続され、図26に示した電源スイッチ81、編集スタート・ストップスイッチ、再生スタート・ストップスイッチ、編集長さ設定スイッチ等の押しボタンが押下されることで発生した操作データD82をCPU62に出力する。CPU62には操作部82の他にリモコン受光部83が接続され、図示しないリモートコントローラからの操作用の赤外光を受光して操作データD83をCPU62へ出力するようになされる。
【0289】
CPU62は電源スイッチ81がON操作されると、システムプログラムに基づいて当該記録編集再生装置全体を制御するようになされる。メモリ部67は図示しないROM、RAM及びEEPROM等を有している。メモリ部67のROM又はEEPROMには当該記録編集再生装置全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU62は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げて記録編集再生装置全体を制御するようになされる。
【0290】
メモリ部67のROM又はEEPROMにはシステムプログラムの他に自動編集モードを実行するためのプログラムが記述されている。この自動編集モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせるためのプログラムである。
【0291】
その内容は、編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を入力するステップと、入力された被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するか否かを判別するステップと、自動編集すると判別された被写体の映像データD34及び当該被写体周囲収録時の音声データD13から編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせるステップとを記述したものである。
【0292】
このようなプログラムを成すデータPD”をROM又はEEPROMから読み出して実行すると、CPU62は、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。このような編集処理を実行すると、操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を抽出することができ、操作者固有の映像及び音声データファイルを作成できるようになる。
【0293】
CPU62が判別部の機能の一例を構成し、外部機器から映像&音声入出力端子89等を介して映像&音声処理部64へ入力された被写体の映像情報及び当該被写体周囲収録時の音声情報を操作部82(外部)からの指示に基づいて自動編集するか否かを判別する。外部から自動編集指示が有った場合は、映像&音声処理部64へ自動編集実行の制御コマンドを出力する。外部からの自動編集指示が無い場合は、映像&音声処理部64へ自動編集を実行しない旨のコマンドを出力する。
【0294】
CPU62には映像&音声処理部64が接続され、CPU62の制御コマンドを受けて、記録時間情報に対してタイムコードとして設定された編集起点情報及び編集終点情報を検出し、この編集起点情報及び編集終点情報が付加された区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせる。映像&音声処理部64は、例えば、MPEG−1規格に準拠して映像データD34’を圧縮処理して内蔵記憶装置92に新設される編集後データ格納用のメモリ領域に記録するようになされる。新設のメモリ領域に編集データを移行するようにしたのは、データ配信や、メディア記録処理、再生処理に対して、編集後の映像データD34’及び音声データD13’の出力を円滑に実行するための出力準備である。
【0295】
映像&音声処理部64は編集後のデータをMPEG−1規格に準拠した圧縮処理により実行する。この圧縮処理によれば、映像の中の動く部分だけを検出し保存するようにデータを圧縮する。圧縮処理はMPEG−1に限られることはなく、ハイビジョン対応のMPEG2からMPEG−4までの各規格や、現在標準化進行中のMPEG−7規格であってもよい。これにより、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を自動抽出できるようになり、操作者30の指の発汗量に対応して固有の映像及び音声を編集できるようになる。
【0296】
上述のCPU62には映像&音声処理部64を介して内蔵記憶装置92が接続されている。内蔵記憶装置92には、未編集の映像データD34及び音声データD13を格納するメモリ領域(以下未編集のデータ領域という)、編集後の映像データD34’及び音声データD13’を格納するメモリ領域が新設されている。新設されたメモリ領域には、メモリ部67から読み出された抽出シーンf(SIII)や、抽出シーンf(SIII+SII)、抽出シーンf(SIII+SII+SI)等に係る映像データD34’及び音声データD13’が格納される。
【0297】
未編集のデータメモリ領域には、データを自動編集しない旨の指示が設定された場合に、編集終点情報や編集終点情報等の付加有無に関係無く、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とをそのまま順次格納するようになされる。内蔵記憶装置92には光ディスクや磁気ディスク等の固定ディスク装置が使用される。
【0298】
上述の映像&音声処理部64にはメディアスロット用のドライバ96が接続され、映像表示信号S29に基づいて編集後の映像を記録媒体97に書き込んだり、編集時、未編集の映像に係る映像表示信号S29を記録媒体97から読み出すようになされる。もちろん、編集後の音声を音声信号S36に基づいて映像と共に記録媒体97に書き込んだり、編集時、未編集の映像に係る音声信号S36を記録媒体97から読み出すようになされる。
【0299】
このようにすると、所定の記録媒体97に生体感情報に基づく動画記録処理する記録制御機能をCPU62に持たせることができる。記録媒体97はドライバ96に装着して使用される。記録媒体97にはCD−ROMやMD等の記録メディア、メモリスティック等のメディアスロットが使用される。このような動画記録処理を実行すると、編集後の操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを配布できるようになる。CD−ROMや、MD等の記録媒体97から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を再生して楽しむことができる。
【0300】
映像&音声処理部64には入力部の機能の一例を構成する映像&音声入出力端子89が接続され、編集後の映像表示信号S29を外部機器に送信したり、編集時、未編集の映像に係る映像表示信号S29を外部機器から受信するようになされる。この例で映像&音声入出力端子89は、外部機器から映像&音声処理部64又は内蔵記憶装置92へ編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力するようになる。もちろん、編集後の音声信号S36を映像表示信号S36と共に外部機器に送信したり、編集時、未編集の映像に係る音声信号S36を外部機器から受信するようになされる。
【0301】
上述のCPU62には入力部の機能の一例を構成する無線&有線通信部91が接続され、外部機器と通信するようになされる。この例で無線&有線通信部91は、外部機器から映像&音声処理部64又は内蔵記憶装置92へ編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力するようになる。無線&有線通信部91にはアンテナ66が接続される。例えば、CPU62は、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を無線&有線通信部91の無線機能及びアンテナ66を使用してヘッドマウント型のビデオカメラ200へ送信するようになされる。
【0302】
更に、無線&有線通信部91は電話回線に接続可能となされ、電話回線を通じてインターネットに接続される。無線&有線通信部91はCPU62の制御を受けて配信処理を実行する。例えば、無線&有線通信部91は、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を配信する。これにより、操作者固有の映像データD34’及び音声データD13’を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0303】
なお、CPU62に再生制御機能を持たせて、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を編集長さ設定モードに基づいて再生するようにしてもよい。このような再生処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を短目、中程又は長目編集モードに基づいて再生することができ、操作者固有の映像データD34’及び音声データD13’を適度な長さに記録したメモリアルファイルを視聴できるようになる。
【0304】
また、電源回路84は商用電源から変換された直流電源をリモコン受光部83や、情報処理部85、操作部82、無線&有線通信部91、内蔵記憶装置92、ドライバ96等に供給するようになされる。
【0305】
続いて、記録編集再生装置500における情報処理例について説明する。図28は、記録編集再生装置500における情報処理例を示すフローチャートである。この例では、情報編集処理に関して自動編集モードが備えられ、当該自動編集モードが選択された場合は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせるようになされる。自動編集モードには、短目編集モード、中程編集モード及び長目編集モードの3種類が準備される場合を例に挙げる。もちろん、記録編集再生装置500の電源プラグ95は、商用電源に接続されており、電源がオンされている。
【0306】
これらを編集処理条件にして、図28に示すフローチャートのステップG1でCPU62は入力操作指示に基づいてデータ入力処理を実行する。このとき、ユーザは操作部82を操作して、データを入力する旨をCPU62に指示する。この操作によって、操作部82からCPU62へデータを入力する旨の操作データD82を出力するようになる。更に、ユーザは操作部82を操作して、データを自動編集するか否かをCPU62に指示する。この操作によって、操作部82からCPU62へデータを自動編集する又は編集しない旨の操作データD82を出力するようになる。
【0307】
このときの入力先は第1の実施例で説明したようなビデオカメラ100、第2の実施例で説明したようなヘッドマウント型のビデオカメラ200、第3の実施例で説明したようなデジタルカメラ300、第4の実施例で説明したカメラ付き携帯電話機400である。ビデオカメラ100、デジタルカメラ300及び携帯電話機400は、例えば有線形態で、編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13が入力される。ビデオカメラ200は、例えば無線形態で、編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13が入力される。このときの映像データD34及び音声データD13はメモリ部67のRAM等に一時記憶される。
【0308】
なお、この時点で操作部82を操作して、データ自動編集後の出力形態をCPU62に指示するようにしてもよい。例えば、操作部82を操作して、CPU62にデータ自動編集後の出力先を指示する旨の操作データD82を出力するようにする。出力先は、ビデオカメラ100、デジタルカメラ300、携帯電話機400及び不図示の映像表示モニタは有線形態で、自動編集後の被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を出力するようになる。映像表示モニタにはパーソナルコンピュータ(以下パソコンという)が含まれる。ビデオカメラ200は無線形態で、自動編集後の被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を出力するようになる。
【0309】
次に、ステップG2でCPU62はデータを自動編集するか否かを判別し、この判別結果に基づいて制御を分岐する。この例で、データを自動編集する指示が設定されている場合は、ステップG3に移行して、CPU62はモード設定入力処理を実行する。例えば、操作部82の編集長さ設定スイッチを操作して、編集長さ設定モードに関する操作データD82をCPU62に入力する。このとき、操作部82の短目編集モードスイッチ、中程編集モードスイッチ又は長目編集モードスイッチの中から1つのスイッチを選択するようになされる。
【0310】
例えば、短目編集モードスイッチを選択すると、操作部82からCPU62には短目編集モードを示す操作データD82が出力される。短目編集モードとは、編集起点情報及び編集終点情報を付加した複数の区間部分の中から最も短い編集起点情報及び編集終点情報を付加した1つの区間部分の映像データD34及び音声データD13を抽出する動作をいう。
【0311】
また、中程編集モードスイッチを選択すると、操作部82からCPU62には中程編集モードを示す操作データD82が出力される。中程編集モードとは、短目編集モードによって抽出された区間部分の映像データD34’及び音声データD13’を除く、他の区間部分の映像データD34’及び音声データD13’を繋ぎ合わせた編集動作をいう。
【0312】
更に長目編集モードスイッチを選択すると、操作部82からCPU62には長目編集モードを示す操作データD82が出力される。長目編集モードとは、短目編集モードと中程編集モードとを合わせた編集動作をいい、例えば、編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を全部繋ぎ合わせた編集動作をいう。
【0313】
次に、ステップG4でCPU62は編集スタートを待機する。このとき、ユーザは編集スタートを構成する操作部82の押しボタンスイッチを操作して、CPU62に編集処理開始を指示するようになされる。操作部82はCPU62に編集処理開始を指示する操作データD82を出力する。
【0314】
操作部82からCPU62へ編集処理開始が指示されると、ステップG5に移行してCPU62は、更に、先に設定された短目編集モード、中程編集モード又は長目編集モードに基づいて制御を分岐する。上述のステップG3で短目編集モードが設定されている場合は、ステップG5からステップG6へ移行して、CPU62は、アルゴリズムIIIを演算して短目編集モードを実行する。このとき、記録時間情報Tからタイムコードts,teが付加された映像データD34’及び音声データD13’の区間部分を抽出する演算をfとし、アルゴリズムIIIを演算して編集される抽出シーンをSIIIとする。
【0315】
次に、ステップG7でCPU62は抽出シーンf(SIII)に係る映像データD34’及び音声データD13’をメモリ部67のRAMから読み出す。その後、ステップG8に移行して、内蔵記憶装置92で新設されたメモリ領域に、RAMから読み出した抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を格納する。その後、ステップG16に移行する。
【0316】
また、上述のステップG3で中程編集モードが設定されている場合は、ステップG5からステップG9へ移行して、CPU62は、アルゴリズムIIを演算して中程編集モードを実行する。このとき、アルゴリズムIIを演算して編集される抽出シーンをSIII+SIIとする。
【0317】
次に、ステップG10でCPU62は抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’をメモリ部67のRAMから読み出す。その後、ステップG11に移行して、内蔵記憶装置92で新設されたメモリ領域に、RAMから読み出した抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’を格納する。その後、ステップG16に移行する。
【0318】
更に、上述のステップG3で長目編集モードが設定されている場合は、ステップG5からステップG12へ移行して、CPU62は、アルゴリズムIを演算して長目編集モードを実行する。このとき、アルゴリズムIを演算して編集される抽出シーンをSIII+SII+SIとする。
【0319】
次に、ステップG13でCPU62は抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’をメモリ部67のRAMから読み出す。その後、ステップG14に移行して、内蔵記憶装置92で新設されたメモリ領域に、RAMから読み出した抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を格納する。その後、ステップG16に移行する。
【0320】
なお、上述のステップG2でデータを自動編集しない旨の指示が設定されている場合はステップG15に移行する。ステップG15で、CPU62は未編集のデータ格納処理を実行する。このデータ格納処理では、編集終点情報や編集終点情報等の付加有無に関係無く、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とをそのまま内蔵記録装置85の所定のメモリ領域へ順次格納される。これは編集依頼が殺到して、後日、編集処理に移行する場合が考えられるためである。その後、ステップG16に移行する。
【0321】
ステップG16で、CPU62は編集後の映像データD34’及び音声データD13’を出力する否かを判別する。このとき、ユーザは操作部82を操作して、データを出力する旨をCPU62に指示する。この操作によって、操作部82は、CPU62へデータを出力する旨の操作データD82を出力するようになる。更に、ユーザは操作部82を操作して、短目編集モード、中程編集モード又は長目編集モードのいずれかを選択する旨をCPU62に指示する。この操作によって、操作部82は、CPU62へ短目編集モード、中程編集モード又は長目編集モードのいずれかを選択する旨の操作データD82を出力するようになる。
【0322】
次にステップG17でCPU62は、先に設定された出力形態と、短目編集モード、中程編集モード又は長目編集モードのいずれかとに基づいてデータ出力処理を実行する。例えば、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の入力先がビデオカメラ200で、そのデータ編集後の出力先に関して当該ビデオカメラ200が設定されている場合であって、短目編集モードが設定されている場合、内蔵記憶装置92から読み出した抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を無線&有線通信部91を介してビデオカメラ200へ送信する。
【0323】
ビデオカメラ200の情報処理&通信部50では、抽出シーンf(SIII)に係る映像データD34’及び音声データD13’が再生され、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’に基づく感動シーンを表示部29a,29bに表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。出力先はビデオカメラ200に限られることなく、映像再生表示専用のモニタであってもよい。
【0324】
また、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の入力先がデジタルカメラ300で、そのデータ編集後の出力先に関して当該デジタルカメラ300が設定されている場合であって、中程編集モードが設定されている場合に、内蔵記憶装置92から読み出した抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’をデジタルカメラ300の情報処理部15で再生すると、この再生によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’に基づく感動シーンを表示部29に表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。出力先はデジタルカメラ300に限られることなく、TV受像機等の映像表示モニタであってもよい。
【0325】
更に、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の入力先がビデオカメラ100で、そのデータ編集後の出力先に関して映像表示モニタが設定されている場合であって、長目編集モードが設定されている場合、内蔵記憶装置92から読み出した抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を映像表示モニタに転送して再生する。
【0326】
この再生によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’と、更に、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点・・・等の抽出された全ての映像データD34’及び音声データD13’に基づく感動シーンをモニタ表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。出力先は映像表示モニタに限られることなく、ビデオカメラ100であってもよい。
【0327】
その後、ステップG18で、CPU62は終了判断をする。例えば、操作部82の編集ストップスイッチが操作されたか否かを判別する。あるいは、電源スイッチ81が操作されて、電源オフ情報を検出した否かを判別する。操作部82の編集ストップスイッチが操作された場合、又は、電源オフ情報が検出された場合は、編集処理を終了する。操作部82の編集ストップスイッチが操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップG1に戻って上述した処理を繰り返すようになされる。
【0328】
このように第5の実施例としての記録編集再生装置500によれば、ヘッドマウント型のビデオカメラ200等から得られる被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を自動編集して再生するようになされる。記録編集再生装置500は、編集起点及び編集終点の各々の情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点及び編集終点に係るタイムコードを付加した区間部分の映像データD34’及び音声データD13’を自動抽出して繋ぎ合わせるように編集処理を実行する。
【0329】
従って、抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’に基づく感動シーンをモニタ表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを再現性良く視聴できるようになる。
【実施例6】
【0330】
図29は第6の実施例としての編集サービスシステム#1の構成例を示すブロック図である。図29に示す編集サービスシステム#1は本発明に係る情報処理システムの一例を構成し、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、これらの情報の編集処理を提供するシステムである。編集処理は無料でも有料でもどちらであってもよい。有料システムを構成する場合は編集処理が課金対象となり、ビジネスモデルを構成するようになる。
【0331】
編集サービスシステム#1ではユーザの情報通信処理装置601と編集処理提供者の情報端末装置603とがインターネット602(www)を介して接続するようになされる。情報通信処理装置601には、デスクトップ型のパソコンや、ノート型のパソコンが含まれる。
【0332】
情報通信処理装置601には映像取得機器604が接続され、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するようになされる。映像取得機器604には第1の実施例で説明したようなビデオカメラ100、第2の実施例で説明したようなヘッドマウント型のビデオカメラ200、第3の実施例で説明したようなデジタルカメラ300、第4の実施例で説明したカメラ付き携帯電話機400が含まれる。
【0333】
この例で情報通信処理装置601は、映像取得機器604から得られる被写体の映像データD34及び当該被写体周囲収録時の音声データD13を再生する機能を有しているが、第5の実施例で説明したような記録編集再生装置500の機能を有していない場合である。
【0334】
当該システム#1で編集サービスを受ける場合、情報通信処理装置601は、インターネット602を介して編集処理提供者の情報端末装置603に接続して、編集起点及び編集終点の各々の情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を送信するようになされる。情報端末装置603は、情報通信処理装置601から送信されてきた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集する機能を有している。
【0335】
情報端末装置603には第5の実施例で説明した記録編集再生装置500が使用される。もちろん、情報端末装置603には、図27で説明したような編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を入力するステップと、入力された被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するか否かを判別するステップと、自動編集すると判別された被写体の映像データD34及び当該被写体周囲収録時の音声データD13から編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して繋ぎ合わせるステップとを記述したプログラムが実装されている。
【0336】
これにより、編集処理提供者で自動編集した抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’をユーザに、例えば、課金対象として返信できるようになる。
【0337】
続いて、編集サービスシステム#1における情報処理例について説明する。図30は編集サービスシステム#1における情報処理例を示すフローチャートである。この例では、情報編集業者には情報端末装置603が備えられ、編集後の抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’をダウンロード形式でユーザの情報通信処理装置601に提供する場合を例に挙げる。
【0338】
これを編集処理条件にして、ユーザは、図30に示すステップQ1で編集サービスを受けるために情報編集業者の情報端末装置603を呼び出す。このとき、情報通信処理装置601は情報端末装置603に発呼し、インターネット602を介して電話回線を接続する。
【0339】
次に、ステップQ2でインターネット602上のWeb画面で申し込み内容を確認し、情報編集業者との手続を実行する。例えば、情報通信処理装置601には編集サービスを受けるための申し込み内容が表示され、そのWeb画面上で内容を確認した後、手続OKボタンを操作する。その後、ステップQ3で情報通信処理装置601は情報端末装置603へのデータ送信処理を実行する。データは、編集起点情報及び編集終点情報が付加された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13である。
【0340】
情報編集業者側ではステップQ4で情報端末装置603がデータ自動編集処理を実行する(図28参照)。この自動編集処理によって感動シーンが抽出され、残留した映像及び音声データはそのまま廃棄するか、また、一定期間だけ、情報編集業者側で保存しておいてもよい。情報編集業者側で保存される映像及び音声データに関しては秘密保持扱いとすればよい。
【0341】
そして、ステップQ5で情報端末装置603は情報通信処理装置601へ編集後の映像データD34’及び音声データD13’の返信処理を実行する。編集後の映像データD34’及び音声データD13’は、情報通信処理装置601の記憶装置等に格納される。その後、ユーザはステップQ6でWeb画面上で、編集後の映像データD34’及び音声データD13’の確認処理を実行する。
【0342】
確認終了後、ステップQ7で情報通信処理装置601をONフックして電話回線を切断する処理を実行する。そして、ステップQ8で情報通信処理装置601は終了判断する。例えば、電源スイッチが操作され、電源オフ情報を検出した否かを判別する。電源スイッチが操作され、電源オフ情報が検出された場合は、編集サービスモードを終了する。電源スイッチが操作されず、電源オフ情報が検出されていない場合は、ステップQ1に戻って上述した処理を繰り返すようになされる。
【0343】
このように第6の実施例としての編集サービスシステム#1によれば、本発明に係る情報処理装置、情報処理方法及びプログラムが応用されるので、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する際に、情報編集業者の情報端末装置603を呼び出すことで、当該情報端末装置603は、操作者30の生体感情を検出して生成された感情データ45等と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた編集処理等を実行する。
【0344】
従って、ユーザの情報処理装置に自動編集プログラムが無くても、編集処理提供者で自動編集した抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’を課金対象として取得できるようになる。編集後の抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’は、ダウンロード形式でも、記録媒体97のような搬送形態でもどちらでもよい。なお、情報編集業者への編集依頼は、インターネットのみならず、被写体の映像データD34及び当該被写体周囲収録時の音声データD13を記録したメモリスティク605や、CD−ROM606等の記録媒体を店頭渡しの形式で行ってもよい。
【実施例7】
【0345】
図31は第7の実施例としての編集ソフト提供システム#2の構成例を示すブロック図である。
【0346】
図31に示す編集ソフト提供システム#2は、本発明に係る情報処理システムの他の一例を構成し、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、これらの情報の編集処理に必要な編集プログラムPD”を記述した編集処理用のソフトウエア(以下編集ソフトという)を提供するシステムである。編集ソフトは無料でも有料でもどちらであってもよい。有料システムを構成する場合は編集ソフトが課金対象となり、ビジネスモデルを構成するようになる。
【0347】
編集ソフト提供システム#2ではユーザの情報通信処理装置701と編集処理提供者の情報配信装置703とがインターネット702(www)を介して接続するようになされる。情報通信処理装置701にはデスクトップ型のパソコンや、ノート型のパソコンに第5の実施例で説明したような記録編集再生機能を備えたものが使用される。もちろん、通信機能付きのパソコンと通常の記録編集再生装置とを組み合わせて使用してもよい。
【0348】
情報通信処理装置701には映像取得機器704が接続され、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するようになされる。映像取得機器704には第1の実施例で説明したようなビデオカメラ100、第2の実施例で説明したようなヘッドマウント型のビデオカメラ200、第3の実施例で説明したようなデジタルカメラ300、第4の実施例で説明したカメラ付き携帯電話機400が含まれる。
【0349】
この例で情報通信処理装置701は、映像取得機器704から得られる被写体の映像データD34及び当該被写体周囲収録時の音声データD13を再生する機能を有しており、第5の実施例で説明したような記録編集再生機能を有しているが、編集ソフトが実装されていない場合である。最初から情報通信処理装置701に編集ソフトを実装していないのは、オプション扱いとしたこと、及び、編集ソフトのバージョンアップに柔軟に対処できるようにしたためである。
【0350】
当該システム#2で編集ソフトの提供を受ける場合、情報通信処理装置701は、インターネット702を介して編集処理提供者の情報配信装置703に接続して、例えば、機器登録番号や、ユーザID等の登録情報を送信するようになされる。情報配信装置703は、情報通信処理装置701から送信されてきた登録情報を検証し、検証OKを得た場合に、被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するための編集ソフトを配信するようになされる。
【0351】
情報配信装置703には、デスクトップ型のパソコンや、ノート型のパソコンが使用される。情報配信装置703にはサーバシステムが導入され、図27で説明したような編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を入力するステップと、入力された被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するか否かを判別するステップと、自動編集すると判別された被写体の映像データD34及び当該被写体周囲収録時の音声データD13から編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して繋ぎ合わせるステップとを記述したプログラムが実装されている。
【0352】
これにより、編集処理提供者は登録要求に応じて編集ソフトを配信することができ、ユーザは、手元の情報通信処理装置701で被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集し、編集後の抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’をまとめた感動シーンの映像及び音声アルバムファイルを作成できるようになる。
【0353】
続いて、編集ソフト提供システム#2における情報処理例について説明する。図32は編集ソフト提供システム#2における情報処理例を示すフローチャートである。この例では、情報編集業者には情報配信装置703が備えられ、当該システム#2で編集ソフトの提供を受ける場合、情報通信処理装置701の機器登録番号や、ユーザID等の登録情報を送信し、検証OKを得た場合に、編集ソフトを配信する場合を例に挙げる。
【0354】
これを編集ソフト取得条件にして、ユーザは、図32に示すフローチャートのステップR1で編集ソフトを受けるために情報編集業者の情報配信装置703を呼び出す。このとき、情報通信処理装置701は情報配信装置703に発呼し、インターネット702を介して電話回線を接続する。
【0355】
次に、ステップR2でインターネット702上のWeb画面で登録内容を確認し、情報編集業者との登録手続を実行する。例えば、情報通信処理装置701には編集ソフトを受けるための登録内容が表示される。このとき、当該装置の機器登録番号や、ユーザID等の登録情報が情報通信処理装置701に入力される。そして、Web画面上で登録内容を確認した後、手続OKボタンを操作する。登録情報は情報通信処理装置701から情報配信装置703へ送信するようになされる。
【0356】
その後、ステップR3で情報配信装置703は、情報通信処理装置701から送信されてきた登録情報の検証処理をする。この際の検証処理では、例えば、情報通信処理装置701の販売時に控えてある機器登録番号と、登録時の機器登録番号とを比較照合する。両者の番号が一致した場合に検証OKとなされる。
【0357】
当該検証OKを得た場合に、ステップR4で被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するための編集ソフトの配信処理をする。この編集ソフトは情報通信処理装置701内にダウンロードするようになされる。以後、ユーザ側ではデータ自動編集処理を実行できるようになる(図28参照)。そして、ステップR5で情報通信処理装置701をONフックして電話回線を切断する処理を実行する。
【0358】
このように第7の実施例としての編集ソフト提供システム#2によれば、本発明に係る情報処理装置、情報処理方法及びプログラムが応用されるので、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、情報編集業者には情報配信装置703が備えられ、情報編集業者の情報配信装置703を呼び出し、情報通信処理装置701の機器登録番号や、ユーザID等の登録情報を送信し、検証OKを得た場合に、編集ソフトを配信を受けられるようになされる。
【0359】
従って、機器購入時、情報通信処理装置701内に自動編集プログラムが無くても、後日、編集処理提供者から提供を受けること、更に、編集ソフト内容に変更が生じた場合も、簡単に更新手続きを行うことができる。当該情報通信処理装置701で、操作者30の生体感情を検出して生成された感情データ45等と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた編集処理等を実行できるようになる。なお、編集ソフトの配信要求はインターネット形式でも、郵送や、店頭に出向く形態でもどちらでもよい。情報編集業者からユーザへの編集ソフトは、インターネットによるダウンロードのみならず、編集ソフトウエアを記述したメモリスティク705や、CD−ROM706等の記録媒体を店頭で渡す形式で行ってもよい。
【0360】
このように第1〜第7の実施例によれば、ユーザ主体の煩雑な操作を行うこと無しに、膨大な記録データの中から、ユーザが望むシーンのみを自動抽出及び自動編集することができるようになった。
【産業上の利用可能性】
【0361】
この発明は、動画を撮るビデオカメラや、静止画を撮るデジタルカメラ、カメラ付きの携帯電話機、カメラ付きの携帯端末装置、これら装置から得られる映像及び音情報を再生する情報再生装置、あるいは、データを保存する記録編集再生ディスク装置を備えたシステム等に適用して極めて好適である。
【図面の簡単な説明】
【0362】
【図1】本発明に係る第1の実施例としてのビデオカメラ100の構成例を示す斜視図である。
【図2】生体センサ部45に適用可能な発汗センサ45’の構成例を示すブロック図である。
【図3】ビデオカメラ100の制御系の構成例を示すブロック図である。
【図4】ビデオカメラ100における撮影フォーマット例(その1)を示すタイムチャートである。
【図5】ビデオカメラ100における撮影フォーマット例(その2)を示すタイムチャートである。
【図6】ビデオカメラ100における記録処理例(その1)を示すフローチャートである。
【図7】ビデオカメラ100における記録処理例(その2)を示すフローチャートである。
【図8】ビデオカメラ100における情報編集例を示すフローチャートである。
【図9】第2の実施例としてのヘッドマウント型のビデオカメラ200の構成例を示す斜視図である。
【図10】脈拍センサ27の構成例を示す断面図である。
【図11】脈拍センサ27の内部構成例を示すブロック図である。
【図12】血圧センサ28の構成例を示すブロック図である。
【図13】(A)及び(B)は、血圧検知例、脈拍検知例及び脈波伝達時間の算出例を示すグラフ図である。
【図14】ビデオカメラ200の制御系の構成例を示すブロック図である。
【図15】ビデオカメラ200における撮影フォーマット例(その1)を示す動作タイミングチャートである。
【図16】ビデオカメラ200における撮影フォーマット例(その2)を示す動作タイミングチャートである。
【図17】ビデオカメラ200における情報記録例を示すフローチャートである。
【図18】第3の実施例としてのデジタルカメラ300の構成例を示す斜視図である。
【図19】デジタルカメラ300の制御系の構成例を示すブロック図である。
【図20】デジタルカメラ300における記録処理例(その1)を示すフローチャートである。
【図21】デジタルカメラ300における記録処理例(その2)を示すフローチャートである。
【図22】第4の実施例としてのカメラ付き携帯電話機400の構成例を示す斜視図である。
【図23】携帯電話機400の制御系の構成例を示すブロック図である。
【図24】携帯電話機400における情報処理例(その1)を示すフローチャートである。
【図25】携帯電話機400における情報処理例(その2)を示すフローチャートである。
【図26】第5の実施例としての記録編集再生装置500の構成例を示す斜視図である。
【図27】記録編集再生装置500の制御系の構成例を示すブロック図である。
【図28】記録編集再生装置500における情報処理例を示すフローチャートである。
【図29】第6の実施例としての編集サービスシステム#1の構成例を示すブロック図である。
【図30】編集サービスシステム#1における情報処理例を示すフローチャートである。
【図31】第7の実施例としての編集ソフト提供システム#2の構成例を示すブロック図である。
【図32】編集ソフト提供システム#2における情報処理例を示すフローチャートである。
【符号の説明】
【0363】
#1・・・編集サービスシステム(情報処理システム)、#2・・・編集ソフト提供システム(情報処理システム)、10,40,60,80・・・本体ケース、11・・・ヒンジ機構、12・・・押しボタンスイッチ、13・・・集音部、13’・・・マイクロフォン(集音部)、14・・・バッテリー、15,85・・・情報処理部、16,66・・・アンテナ、17,87・・・回路基板、18,82・・・操作部、19・・・通信部、20・・・本体フレーム、21・・・受信部、22・・・送信部、24a・・・左メガネ吊る部、24b・・・右メガネ吊る部、25・・・圧電アクチュエータ、27・・・脈拍センサ(生体センサ部)、28・・・血圧センサ(生体センサ部)、29・・・表示部、31・・・映像&音声収録部、32,62・・・CPU(情報処理部)、33・・・電源ユニット、34・・・撮像部、35・・・記憶装置、36a,36b・・・スピーカー、37,67・・・メモリ部(情報処理部)、39・・・映像&音声出力端子、41・・・外部インターフェース、43・・・バッテリー&記憶部、44,64・・・映像&音声処理部(情報処理部)、45・・・生体センサ部(情報出力部)、45’・・・発汗センサ(生体センサ部)、50・・・情報処理&通信部、89・・・映像&音声入出力端子、100,200・・・ビデオカメラ(情報処理装置)、300・・・デジタルカメラ(情報処理装置)、400・・・携帯電話機(情報処理装置)、500・・・記録編集再生装置、601,701・・・情報通信処理装置、602,702・・・インターネット、603・・・情報端末装置、604・・・情報取得機器、703・・・情報配信装置、604,704・・・映像取得機器(情報処理装置)
【技術分野】
【0001】
本発明は、動画を撮るビデオカメラや、静止画を撮るデジタルカメラ、カメラ付きの携帯電話機、カメラ付きの携帯端末装置、これら装置から得られる映像及び音情報を再生する情報再生装置、あるいは、データを保存する記録編集再生装置を備えたシステム等に適用可能な情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システムに関する。
【0002】
詳しくは、被写体の映像が撮影され、及び、当該被写体の周囲の音を集音して得られた情報を処理する情報処理部を備え、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点等の映像及び音情報を自動抽出できようにすると共に、映像及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようにしたものである。
【背景技術】
【0003】
近年、記憶メディア容量の増大化、機器の小型化及び機器間の相互通信の強化が図られ、大容量の個人映像、静止画を撮影、鑑賞できるようになってきた。例えば、ユーザ(操作者)は、運動会や旅行等のイベントにおいて、思い出の映像を撮るため、被写体や景色・風景等の映像及び、被写体周囲の音をビデオカメラを用いて収録する場合が多い。
【0004】
ビデオカメラは、撮像部、集音部、記録部、操作部及び制御部を有して構成されている。撮像部は操作部による操作に基づいて被写体や景色・風景等の映像を撮影し、集音部は被写体周囲の音を収録し、記録部は制御部のメモリ制御を受けて、撮像部によって撮影された被写体等の動画映像及び、集音部によって集音された被写体周囲の音を記録するようになされる。
【0005】
また、デジタルカメラや、カメラ付き携帯電話機によれば、被写体を撮影して静止画を記録部に記録するようになされる。上述のビデオカメラ、デジタルカメラ及びカメラ付き携帯電話機の記録部には、着脱可能なメモリスティック等の記録メディアが使用される場合が多い。記憶メディア容量の増大化に伴い、膨大な個人コンテンツ(静止画、動画映像)を保存できるようになった。これらの記録メディアは記録編集再生装置に装填され、編集処理に移行されて、思い出の映像及び音情報を編集し保存するようになされる。編集は、個人が後日それらのコンテンツを鑑賞するに値する状態とするための作業である。編集後の映像及び音声情報は、後日、鑑賞の用に供される場合が多い。
【0006】
ところで、この種の記録編集再生装置に関連して、特許文献1には映像音声自動編集装置、方法及び記録媒体が開示されている。この映像音声自動編集装置によれば、被写体の映像及び音声を記録すると同時に、当該記録と同期してユーザの脳波を測定し、情報取得後、ユーザの脳波を解析して、当該ユーザの覚醒水準が高いときの映像及び音声を自動的に判別する。判別されたユーザの覚醒水準が高いときの映像及び音声を要約編集するようになされる。このように装置を構成すると、ユーザの覚醒水準の高い状態のシーンを網羅しつつ、シーン全体の流れを損なわない見やすい映像及び音声を編集できるというものである。
【0007】
また、特許文献2には情報コンテンツの編集装置及び編集方法が開示されている。この編集装置によれば、生体情報に基づく情報を用いて感情の度合いを示す感情パラメータを作成し、この感情パラメータを数値化した感情レベルに応じて要約作成用のコマンドを作成し、このコマンドを用いて情報コンテンツデータの要約を作成するようになされる。このように装置を構成すると、生体情報から解析された感情パラメータに基づいて、映像や音声等の情報コンテンツの要約を作成できるというものである。
【0008】
【特許文献1】特許 第3514236号公報(第4頁 図2)
【特許文献2】特開2005−128884号公報(第3頁 図6)
【発明の開示】
【発明が解決しようとする課題】
【0009】
ところで、従来例に係るビデオカメラ、デジタルカメラ、カメラ付き携帯電話機及び、記録再生編集装置を取り扱う情報処理システムによれば、以下のような問題がある。
【0010】
i.ビデオカメラ、デジタルカメラ及びカメラ付き携帯電話機等によれば、記憶メディア容量の増大、機器の小型化及び機器間の相互通信の強化が図られ、大容量の個人映像の撮影、静止画の撮影、これらの映像及び静止画を鑑賞できるようになった。しかし、被写体映像及びその周辺の音情報を撮影及び収録し易くなった反面、被写体や景色・風景等の静止画、動画映像及び音声情報を成すコンテンツデータがあまりにも膨大な量となり、現状ではその編集作業に多くの時間が費やさなければならない事態に陥っている。
【0011】
編集作業には人間が主体的となることが多く、膨大な編集時間を要したり、折角、取得したコンテンツデータを未編集のままにして、コンテンツ自体の価値が損失に繋がってしまうという問題がある。
【0012】
ii.特許文献1に見られるような記録編集再生装置によれば、被写体の映像及び音声を記録すると同時に、当該記録と同期してユーザの脳波を測定し、情報取得後、ユーザの脳波を解析して、当該ユーザの覚醒水準が高いときの映像及び音声を自動的に判別している。このため、判別されたユーザの覚醒水準が高いときの映像及び音声を要約編集することができても、運動会や旅行等のイベントにおいて、手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができていないのが現状である。
【0013】
iii.特許文献2に見られるような編集装置によれば、生体情報に基づく情報を用いて作成した感情の度合いを示す感情パラメータを数値化した感情レベルに応じて要約作成用のコマンドを作成し、このコマンドを用いて情報コンテンツデータの要約を作成している。このため、関心を示した場面や、驚いた場面の映像及び音声を要約編集することができても、運動会や旅行等のイベントにおいて、被写体の映像及び音収録時に、手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができていないのが現状である。
【0014】
そこで、この発明はこのような従来の課題を解決したものであって、被写体映像の撮影途中でマニュアル操作によって編集する場合に比べて格段に編集操作性を向上できるようにした情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システムを提供することを目的とする。
【課題を解決するための手段】
【0015】
上述した課題は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置であって、被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、この映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、この情報出力部から出力される生体感情報と映像及び音収録部から出力される被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理する情報処理部とを備えることを特徴とする第1の情報処理装置によって解決される。
【0016】
本発明に係る第1の情報処理装置によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、映像及び音収録部は、被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する。情報出力部は、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する。これを前提にして、情報出力部から出力される生体感情報と映像及び音収録部から出力される被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理する。
【0017】
従って、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。
【0018】
本発明に係る第2の情報処理装置は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報であって、操作者の生体感情を検出して作成された生体感情報と、撮影集音された当該被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて編集起点情報及び編集終点情報が付加された情報を処理する装置であって、編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力する入力部と、この入力部によって入力された被写体の映像情報及び当該被写体周囲収録時の音声情報を外部からの指示に基づいて自動編集するか否かを判別する判別部と、この判別部によって編集すると判別された被写体の映像情報及び当該被写体周囲収録時の音声情報から編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせる映像及音声処理部とを備えることを特徴とするものである。
【0019】
本発明に係る第2の情報処理装置によれば、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。
【0020】
本発明に係る情報処理方法は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する方法であって、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを有することを特徴とするものである。
【0021】
本発明に係る情報処理方法によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0022】
本発明に係るコンピュータが読み取り可能なプログラムは、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムであって、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したことを特徴とするものである。
【0023】
本発明に係るプログラムによれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0024】
本発明に係るコンピュータが読み取り可能な記録媒体は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムを記述した記録媒体であって、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したプログラムを有することを特徴とするものである。
【0025】
本発明に係る記録媒体によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0026】
本発明に係る情報処理システムは、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する情報処理装置と、この情報処理装置から得られる被写体の映像情報及び当該被写体の周囲の音情報を再生する情報再生装置とを備え、情報処理装置は、被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、情報出力部から出力される生体感情報と映像及び音収録部から出力される被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理する情報処理部とを有することを特徴とするものである。
【0027】
本発明に係る情報処理システムによれば、本発明に係る情報処理装置が応用されるので、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する際に、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【発明の効果】
【0028】
本発明に係る第1の情報処理装置及び情報処理方法によれば、被写体の映像が撮影され、及び、当該被写体の周囲の音を集音して得られた情報を処理する情報処理部を備え、情報処理部は、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理するものである。
【0029】
この構成によって、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。従って、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0030】
本発明に係る第2の情報処理装置及び情報処理方法によれば、外部からの指示に基づいて自動編集すると判別された被写体の映像情報及び当該被写体周囲収録時の音声情報から編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせるようになされる。
【0031】
この構成によって、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報を自動抽出することができ、ここで自動抽出される映像情報及び音情報を編集した操作者固有の映像及び音情報ファイルを容易かつ簡単に作成できるようになる。従って、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0032】
本発明に係るコンピュータが読み取り可能なプログラム及び記録媒体によれば、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を再現性良く実行できるようになる。
【0033】
本発明に係る情報処理システムによれば、本発明に係る情報処理装置が応用されるので、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0034】
これにより、操作者が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像情報及び音情報をファイルにまとめた操作者固有の映像及び音情報ファイル作成システム、操作者固有の映像及び音情報ファイル視聴システム、操作者固有の映像及び音情報ファイルダウンロードシステム及び、CDやMD等の所定の記録媒体に記録した操作者固有の映像及び音情報ファイル配布システムを構築できるようになった。
【発明を実施するための最良の形態】
【0035】
続いて、この発明に係る情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システムの一実施例について、図面を参照しながら説明をする。
【実施例1】
【0036】
図1は本発明に係る第1の実施例としてのビデオカメラ100の構成例を示す斜視図である。図1に示すビデオカメラ100は情報処理装置の一例を構成し、被写体の映像を撮影して動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置である。
【0037】
ビデオカメラ100は、外装を構成する本体ケース10を有しており、本体ケース10の前面側の上部には撮像部34が組み込まれている。撮像部34は撮像レンズや、図示しないレンズ駆動機構、撮像素子等を有して構成される。撮像素子は、撮像レンズの後端に設けられ、撮像レンズやレンズ駆動機構等の撮影光学系によって導かれた被写体像を撮像するように動作する。
【0038】
本体ケース10の後面、上面、側面には、電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の種々の押しボタンスイッチ12が設けられている。電源スイッチはビデオカメラ100の電源をオン又はオフするスイッチである。モードスイッチは撮影時のノーマルモード又は特殊記録モードのいずれかを選択する際に操作される。ここに特殊記録モードとは、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報(動画)及び当該被写体の周囲の音情報とを対応付けて記録する動作をいう。ノーマルモードとは特殊記録モード以外の動作をいい、操作者の生体感情に関係無く撮影集音された被写体の映像情報及び当該被写体の周囲の音情報そのまま記録する動作をいう。
【0039】
この例で、特殊記録モードを選択するモードスイッチには、情報出力部の機能の一例を構成する生体センサ部45が設けられ、当該ビデオカメラ100を操作する操作者の生体感情を検出して生体感情報を出力するようになされる。生体センサ部45には例えば図2に示すような発汗(Hidrosis)センサが使用される。発汗センサは、当該モードスイッチに触れている操作者の発汗量を検知して発汗レベルを示す生体感情報を情報処理部へ出力するようになされる。もちろん、生体センサ部45はモードスイッチを兼用する位置に設けることなく、モードスイッチに対して生体センサ部45を別個独立に設けて、撮影集音動作中に操作者に触れさせるようにしてもよい。また、生体センサ部45は発汗センサの他に脈拍センサや血圧センサ等を使用してもよい。生体センサ部45の上方には、センサ用のカバー38が設けられ、操作者30の指先に生ずる汗の発散を防止するようになされる。カバー38は省略してもよい。
【0040】
図示しないズームスイッチは、被写体映像をズームアップ表示又はズームダウン表示する際に操作される。撮影スタート/ストップスイッチはスタンバイ状態の撮像部34に対して被写体映像の記録開始を情報処理部へ指示する際に操作される。本体ケース10の前面であって、撮像レンズの先端下方の位置には、集音部13を成す音収録用のマイクロフォンが取り付けられる。音をステレオ再生する場合は、左右2個のマイクロフォンが取り付けられる。
【0041】
更に、本体ケース10の左側面には、表示部29が図示しないヒンジ部を介して開閉回転可能に連結され、撮像部34で撮像した被写体映像を表示するようになされる。例えば、表示部29は撮影中の映像や再生時の映像を表示する。表示部29には、例えば、3乃至4インチ程度のカラー液晶表示装置が使用される。
【0042】
本体ケース10の内部には回路基板17が設けられる。回路基板17には記録メディアやメディアスロット等の記憶装置35が実装又は装着可能となされ、ノーマルモード又は特殊記録モードによって得られた被写体の映像情報及び当該被写体の周囲の音情報を記録するようになされる。回路基板17には記憶装置35の他に情報処理部が実装される。
【0043】
本体ケース10の内部には回路基板17の他にバッテリー14が実装され、当該回路基板17、表示部29、撮像部34、記憶装置35及び生体センサ部45に直流電源を供給するようになされる。本体ケース10の外部側には映像&音声出力端子39等が設けられ、外部機器からの映像&音声用のコネクタや、通信ケーブル類が接続可能なようになされている。映像&音声出力端子39は外部機器へ映像&音声出力する際に使用され、通信ケーブル用の端子は、外部機器と通信する際に使用される。
【0044】
続いて、生体センサ部45について説明する。図2は、生体センサ部45に適用可能な発汗センサ45’の構成例を示すブロック図である。図2に示す発汗センサ45’は、吸気パイプ51、吸気側のハウジング部52、触子部53、排気側のハウジング部54、排気パイプ55、コンプレッサ56(ブロア)、絶対湿度センサ57,58及び差動増幅部59を有して構成される。
【0045】
吸気パイプ51はハウジング52を介在して触子部53の吸気側に接続され、外気(空気)を触子部53に引き込むようになされる。ハウジング52には絶対湿度センサ57が設けられ、ハウジング52内に引き込まれた外気の絶対湿度を検知して吸気側の湿度検知信号S57を差動増幅部59に出力するようになされる。
【0046】
触子部53は皮膚摺触面を有しており、皮膚摺触面には小さな開孔部が2つ設けられている。触子部53は、皮膚摺触面に触れた操作者30の汗により触子部53内の湿度が上昇するようになされる。触子部53はカプセルを構成する。排気パイプ55はハウジング54を介在して触子部53の排気側に接続され、触子部53に取り込まれた空気を外部へ排気するようになされる。排気パイプ55の終端部にはコンプレッサ56が接続され、吸気パイプ51から外気を引き込んで外部へ排気する。
【0047】
ハウジング54には絶対湿度センサ58が設けられ、ハウジング54内を通過する空気の絶対湿度を検知して排気側の湿度検知信号S58を差動増幅部59に出力するようになされる。差動増幅部59は吸気側及び排気側の湿度検知信号S57,S58の差分を増幅して発汗量検知信号S45を出力する。発汗量検知信号S45をアナログ・デジタル変換したデータは生体感情報D45となる。このアナログ・デジタル変換機能は生体センサ部45内に設けても、また、情報処理部内に設けてもよい。このような構成の生体センサ部45をモードスイッチを兼用する位置に設けると、当該モードスイッチに触れている操作者30の発汗量を検知して生体感情報(以下感情データD45という)を情報処理部へ出力できるようになる。
【0048】
図3は、ビデオカメラ100の制御系の構成例を示すブロック図である。図3に示すビデオカメラ100は、図1に示した本体ケース10内の回路基板17に各機能ブロックを実装して構成される。なお、図1及び図2に示した各部と対応する部分は、同一符号で示している。
【0049】
ビデオカメラ100は、情報処理部15、操作部18、通信部19、表示部29、映像&音収録部31、記憶装置35、映像&音声出力端子39及び生体センサ部45を有して構成される。
【0050】
情報処理部15はCPU32、メモリ部37及び映像&音声処理部44を有して構成される。CPU32はシステムプログラムに基づいて当該ビデオカメラ全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該ビデオカメラ全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げてビデオカメラ全体を制御するようになされる。
【0051】
メモリ部37のROM又はEEPROMにはシステムプログラムの他に特殊記録モードを実行するためのプログラムが記述されている。この特殊記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情に基づいて動画記録処理するためのプログラムである。その内容は、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31を操作する操作者30の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したものである。
【0052】
このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、CPU32は、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0053】
例えば、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。この例ではCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較する。発汗量判定閾値Hthは判別基準情報の一例を成している。
【0054】
この比較結果で、例えば、生体センサ部45が発汗量判定閾値Hthを越える発汗レベルHxの感情データD45を検出したとき、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加し、その後、発汗量判定閾値Hth以下の発汗レベルHxの感情データD45を検出したとき、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0055】
映像&音声処理部44は、例えば、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録する。MPEG−1規格に準拠した圧縮処理によれば、映像の中の動く部分だけを検出し保存するようにデータを圧縮する。圧縮処理はMPEG−1に限られることはなく、ハイビジョン対応のMPEG2からMPEG−4までの各規格や、現在標準化進行中のMPEG−7規格であってもよい。
【0056】
この例で、メモリ部37は発汗量判定閾値Hthを記憶する。例えば、発汗量判定閾値Hthはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値Hthと、感情データD45から得られる発汗レベルHとを比較し、Hth>Hの判定処理や、Hth≦H等の判定処理を実行する。もちろん、発汗量判定閾値は一義的な定数に限られることはなく、二次関数的に変化するものであってもよい(図5参照)。
【0057】
このようにすると、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は例えば、記録時間情報に対してタイムコードとして設定(記述)される。このタイムコードの設定によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになる。
【0058】
この例でCPU32は、編集起点情報及び編集終点情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせる編集処理を実行する。このような編集処理を実行すると、操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を抽出することができ、操作者固有の映像及び音声データファイルを作成できるようになる。
【0059】
更にCPU32に再生制御機能を持たせて、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を再生するようにしてもよい。このような再生処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を再生することができ、操作者固有の映像データD34及び音声データD13を記録したメモリアルファイルを視聴できるようになる。表示部29は、操作者固有の映像データD34を入力して操作者固有の映像を表示し、スピーカー36からは、操作者固有の音声データD13を入力して操作者固有の音声を出力できるようになる。
【0060】
更にCPU32に記録制御機能を持たせて、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を所定の記録媒体に記録するようにしてもよい。このような動画記録処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13をCD−ROMや、MD等の記録媒体に記録することができ、操作者固有の映像データD34及び音声データD13を記録したメモリアルファイルを配布できるようになる。
【0061】
操作部18はCPU32に接続され、図1に示した電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。
【0062】
映像&音収録部31は、集音部13及び撮像部34を有して構成される。集音部13は映像&音声処理部44に接続され、被写体の周囲の音を集音して得た音声データD13を出力する。集音部13にはコンデンサ型のマイクロフォンやムービングコイル型のマイクロフォンが使用される。撮像部34は映像&音声処理部44に接続され、被写体の映像を撮影して得た映像データD34を出力する。撮像部34は撮像レンズ、撮像素子、レンズ駆動機構から構成される。
【0063】
生体センサ部45は情報出力部の機能を一例を構成し、映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。例えば、生体センサ部45には図2に示した発汗センサ45’が使用され、映像&音収録部31を操作する操作者30の発汗量を時系列に検知して感情データD45をCPU32へ出力する。
【0064】
上述のCPU32には記録メディアや、メディアスロット等を構成する記憶装置35が接続され、特殊記録モード時、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0065】
上述の映像&音声処理部44には表示部29が接続され、表示信号S29に基づいて撮影中の映像や再生時の映像を表示するようになされる。映像&音声処理部44にはスピーカー36が接続され、音声信号S36に基づいて撮影中の被写体周辺の音や再生時の音声等を出力する。スピーカー36は本体ケース10の所定の位置に設けられる。映像&音声処理部44には映像&音声出力端子39が接続され、映像&音声信号を外部機器へ出力するようになされる。
【0066】
CPU32には通信部19が接続され、外部機器と通信するようになされる。例えば、CPU32は、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を通信部19を介して配信する。このような配信処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を配信することができ、操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0067】
図4及び図5は、ビデオカメラ100における撮影フォーマット例(その1,2)を示すタイムチャートである。当該撮影フォーマット例は、記録時の起点及び終点の挿入例を示している。この例では操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようにすると共に、編集起点情報及び編集終点情報を記録時間情報に対してタイムコードとして設定(記述)するようにした。
【0068】
図4A及び図5Aは記録時間情報Tを示している。記録時間情報Tとは、スタートスイッチを押下して映像データD34を取り込み、記憶装置35に記録している時間をいう。図4B及び図5Bに示す動画シーンは、被写体の動きを代表する8つのシーン(i)〜(viii)である。動画シーンのサンプリング頻度は1/30秒である。すなわち、撮像部34は1秒間に30コマ(NTSC方式)の映像を取得する。この例では運動会で被写体が”かけっこ”をする映像を、操作者30が撮影している場合である。
【0069】
図4Bに示すシーン(i)は出番を待っている被写体の映像である。シーン(ii)及び(iii)はいよいよ出番が回ってきて、被写体がスタートラインに移動する際の映像である。シーン(iv)はスタートラインに立った被写体の映像である。更に、図5Bに示すシーン(v)はスターターが号砲を打った瞬間の映像である。シーン(vi)は被写体がスタートして、駆け足を始めた際の映像である。シーン(vii)は勢い余って被写体が転んだ状態の映像である。シーン(viii)は被写体が泣きながらゴールに到着した映像である。
【0070】
図4Cに示す波形は被写体周囲収録時の音声信号である。被写体周囲の音声は集音部13が収録する。この例では運動会の”かけっこをする被写体周辺の音を収録している場合である。例えば、シーン(i)〜(iv)に対応する音情報は、運動会特有の行進曲や周囲のざわめき音が収録される。更に、図5Cに示すシーン(v)に対応する音情報は、スターターが号砲を打った瞬間の”バ〜ン”等と共にシーン(vi)に対応して応援者により声援が収録される。シーン(vii)に対応する音情報は、例えば、被写体に対して”さあ〜起き上がってがんばれ”のような声援が収録される。シーン(viii)に対応する音情報は、例えば、被写体がゴールした行動に対して安堵のどよめき声が収録される。
【0071】
図4Dは、当該ビデオカメラ100を持って被写体を撮影する操作者の発汗量の経時的変化である。この例で、シーン(i)〜(iv)に対応する発汗量は、ほとんど無い場合を示している。ところが、図5Dに示すシーン(v)では、被写体がスタートラインに立った直後から、操作者の発汗量が増加をし始め、スターターが号砲を打った瞬間に例えば、そのピークを迎えている。シーン(vi)で被写体がスタートして、駆け足を始めた当たりから、徐々に発汗量も減少してくる。しかし、シーン(vii)で勢い余って被写体が転んだ状態となると、再び、操作者の発汗量が増加をし始め、被写体が立ち上がった瞬間に、例えば、そのピークを迎えている。そして、徐々に発汗量も減少してくる。この例で、シーン(viii)で被写体が泣きながらゴールに到着した時点では、操作者の発汗量は、最初と同じ状態に戻っている。
【0072】
このような操作者の感情変化に対して発汗量が増加し、その発汗量は経過時間と共に少なくなることが知られている。このような発汗現象は精神性発汗と呼ばれる。精神性発汗は、人が感動したとき、興奮や、緊張したときに手掌や足底部等の皮膚にかくことが知られている。発汗量は温熱性発汗に比べて少なく、発汗潜伏時間も短い。汗腺はエクリン腺である。また、精神性発汗は、感動等の繰り返しにより発汗量が二次関数的に低下することも知られている(構え反応)。
【0073】
なお、発汗と感情変化の関係を説明した学術資料「計測自動制御学会東北支部第197回研究集会(2001.10.13)資料番号197−11」によれば、心理・気分状態の不安定な被験者の群では、安定した群に比べて手掌部発汗反応が大きく現れる。被験者に反復負荷を与えた場合に、安定した心理・気分状態では初回の発汗反応が大きく、慣れ効果による反応量の減少も大きいことが報告されている。また、構え反応とその慣れ効果には個人の心理・気分特性が影響しやすく、手掌部発汗の定量評価では構え反応の影響を考慮すべきとの報告もある。手掌部発汗は、情動変化や、情緒反応を伴う記憶の想起によって促進される。手掌部発汗は人の精神・心理過程の客観的指標となり得ると結論付けている。
【0074】
そこで、操作者の感情変化に対する発汗量の大小を判定する際に、経過時間に対して一定値となる発汗量判定閾値Hthを設定しても良いが、この例では、図5Dに示すように経過時間に対して二次関数的に変化する発汗量判定閾値曲線が設定される。発汗量判定閾値曲線には、例えば、A×(1/log(n))が使用される。Aは定数であり、発汗量の時間変化に相当する単位の閾値である。操作者のある時間の発汗量をHxとしたとき、(1)式、すなわち、
Hx>Hth=A×(1/log(n))・・・・(1)
を判別して操作者の感情変化に対する発汗量の大小を判定するようになされる。
【0075】
この例で、発汗量判定閾値曲線は監視時間対閾値を関係付けたものである。監視時間は可変である。例えば、監視時間は5分、10分、15分・・・と自在に設定可能である。発汗量判定閾値曲線の設定要件は、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較し、操作者の発汗量の変化率が基準変化率を越えた場合は、発汗量判定閾値曲線を設定するようになされる。
【0076】
操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値を演算することで得られる。この例で、操作者の感情変化が大きい場合は、発汗量の検知曲線の傾きが大きくなり、その感情変化が小さい場合は、発汗量の検知曲線の傾きが小さくなる。そこで、上述の差分値を求めて、操作者の発汗量の変化率が基準変化率を越えた場合に、発汗量判定閾値曲線を設定するようになされる。つまり、発汗量判定閾値曲線は、操作者の感情変化率が基準変化率を越えた時刻に設定され、その時刻から所定の監視時間だけ有効に働く特徴を有している。この監視時間が経過すると、再度、上述の処理を繰り返すようになされる。これは、再び、操作者の感情変化率が大きくなる発汗量を検知する場合が想定されるためである。
【0077】
この例では、記録時間情報Tにおいて、発汗量の立ち上がり(変化率)が大きくなった時刻t0に、発汗量判定閾値曲線が設定される。図5Dに示すシーン(v)で操作者の発汗量Hxが発汗量判定閾値Hth1を越えている。この発汗量Hxが発汗量判定閾値Hth1を越えた時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。
【0078】
更に時間が経過して、図5Dに示すシーン(vi)で操作者の発汗量Hxが発汗量判定閾値Hth2を下回っている。この発汗量Hxが発汗量判定閾値Hth1を下回った時刻teがタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第1のタイムコードの時刻tsと時刻teとの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる。
【0079】
この例では、更に、時間が経過して、図5Dに示すシーン(vii)で操作者の発汗量Hxが発汗量判定閾値Hth3を上回っている。この発汗量Hxが発汗量判定閾値Hth3を越えた時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。更に、時間が経過して、図5Dに示すシーン(vii)で操作者の発汗量Hxが発汗量判定閾値Hth4を下回っている。この発汗量Hxが発汗量判定閾値Hth4を下回った時刻teが第2のタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第2のタイムコードの時刻tsと時刻teとの間の動画シーンが特殊記録モードにおける第2の抽出(摘出)シーンSVii(編集映像+音情報)となる。
【0080】
続いて、本発明に係る第1の情報処理方法について説明する。図6及び図7は、ビデオカメラ100における情報記録例(その1,2)を示すフローチャートである。
【0081】
この例では、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合を前提とする。生体センサ部45には図2に示したような発汗センサ45’が使用される。CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0082】
これらを前提にして、図6に示すフローチャートのステップA1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は特殊記録モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は特殊記録モードのいずれかを選択するようになされる。例えば、押しボタンスイッチ12を操作して特殊記録モードを選択すると、操作部18からCPU32には特殊記録モードを示す操作データD18が出力される。
【0083】
次に、ステップA2でCPU32はスタートを待機する。このとき、ユーザは撮影スタートを構成する押しボタンスイッチ12を操作して、CPU32に動画記録処理開始を指示するようになされる。操作部18はCPU32に動画記録処理開始を指示する操作データD18を出力する。
【0084】
操作部18からCPU32へ動画記録処理開始が指示された場合は、ステップA3でノーマルモード又は特殊記録モードの設定によって制御を分岐する。上述のステップA1で特殊記録モードが設定されている場合は、ステップA4でCPU32は、被写体の映像及びその周辺の音情報を取得するように映像&音収録部31を制御して記録開始処理に移行する。このとき、映像&音収録部31は、被写体の映像を撮影して映像データD34を取得し、かつ、当該被写体の周囲の音を集音して音声データD13を取得する。映像&音声処理部44では、例えば、MPEG−1規格に準拠して、映像の中の動く部分だけを検出し圧縮処理した映像データD34を記憶装置35に記録する。
【0085】
これと並行して、ステップA5でCPU32は当該ビデオカメラ100を操作する操作者30の生体感情を検出して感情データD45を作成するように生体センサ部45を制御する。生体センサ部45は、この制御を受けて、モードスイッチに触れている操作者の発汗量を検知して発汗レベルを示す感情データD45をCPU32に出力する。
【0086】
次に、ステップA6でCPU32は発汗量判定閾値曲線を設定するか否かを判別する。この際の判断基準は、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較することにより実行される。操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値である。このような差分値を求めるようにしたのは、操作者の感情変化が大きい場合は、発汗量の検知曲線の傾きが大きくなり、その感情変化が小さい場合は、発汗量の検知曲線の傾きが小さくなるためである。
【0087】
上述のステップA6で操作者の発汗量の変化率が基準変化率を越えた場合は、ステップA7でCPU32は発汗量判定閾値曲線を設定するようになされる。このとき、メモリ部37から式(1)に示したような発汗量判定閾値曲線を読み出してRAMに展開する。これと共に、CPU32はタイマを起動して、監視時間のカウントを開始する。そして、ステップA8に移行して、CPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。メモリ部37では、図5に示したように、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値曲線を成す発汗量判定閾値Hth1,Hth2,Hth3,Hth4・・・・と、感情データD45から得られる発汗レベルHxとを比較する。
【0088】
Hx>Hthなる判別結果を得た場合はステップA9に移行して、CPU32はステップA4で同時進行の記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集起点情報を付加する。このとき、図5に示したシーン(v)の例によれば、生体センサ部45が発汗量判定閾値Hth1を越える発汗レベルHxの感情データD45を検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加する。映像&音声処理部44では、CPU32からの編集起点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻tsをマーク(記述)するようになる。
【0089】
そして、図7に示すステップA10に移行してCPU32はHx≦Hthの判別処理を実行する。Hx≦Hthを判別した場合はステップA11に移行して、ステップA4で同時進行している記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集終点情報を付加する。このとき、図5に示したシーン(v)の例によれば、生体センサ部45が発汗量判定閾値Hth2を下回る発汗レベルHxの感情データD45を検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0090】
映像&音声処理部44では、CPU32からの編集終点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻teをマーク(記述)するようになる。このタイムコードとして時刻tsと時刻teの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。映像&音声処理部44では、記録時間情報Tにタイムコードとして時刻tsと時刻teとをマーク(記述)する。このタイムコードとして時刻tsと時刻teの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。
【0091】
その後、ステップA12に移行して当該発汗量判定閾値曲線における監視時間が終了したか否かを判別する。この際の判別基準はタイマのカウントアップを以て終了する。監視時間が終了していない場合は、ステップA8に戻ってCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。
【0092】
図4及び図5に示した例によれば、第1及び第2の抽出シーンを編集できるタイムコードts,teが付加されている。このようにすると、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は例えば、記録時間情報Tに対してタイムコードとして設定(記述)される。このタイムコードの設定によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになる。上述の監視時間が終了した場合は、ステップA14に移行する。
【0093】
なお、上述のステップA3でノーマルモードが設定されている場合は、ステップA13に移行して、ノーマルモードを実行する。ノーマルモードでは、編集終点情報や編集終点情報等を付加することなく、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とが記録装置35に記録される。その後、ステップA14に移行する。
【0094】
ステップA14で、CPU32は終了判断をする。例えば、撮影のストップスイッチを構成する押しボタンスイッチ12が操作されたか否かを判別する。あるいは、電源オフ情報を検出した否かを判別する。ストップスイッチを構成する押しボタンスイッチ12が操作された場合、又は、電源オフ情報が検出された場合は、動画記録処理を終了する。ストップスイッチを構成する押しボタンスイッチ12が操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップA3に戻って上述した処理を繰り返す。これにより、生体センサ部45から得られた感情データD45と撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0095】
このように第1の実施例に係るビデオカメラ及び情報記録方法によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、映像&音収録部31は、被写体の映像を撮影して映像データD34を出力し、かつ、当該被写体の周囲の音を集音して音声データD13を出力する。生体センサ部45は、映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。これを前提にして、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0096】
従って、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を自動抽出することができ、ここで自動抽出される映像データD34’及び音声データD13’を編集した操作者固有の映像及び音声データファイルを容易かつ簡単に作成できるようになる。これにより、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0097】
続いて、ビデオカメラ100における情報編集例について説明する。図8は、ビデオカメラ100における情報編集例を示すフローチャートである。この例では、情報編集処理に関してノーマルモード又は自動編集モードが備えられ、自動編集モードが選択された場合は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して繋ぎ合わせるようになされる。自動編集モードには、短目編集モード、中程編集モード及び長目編集モードの3種類が準備される場合を例に挙げる。
【0098】
これらを編集処理条件にして、図8に示すフローチャートのステップB1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は自動編集モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は自動編集モードのいずれかを選択するようになされる。例えば、押しボタンスイッチ12を操作して自動編集モードを選択すると、操作部18からCPU32には自動編集モードを示す操作データD18が出力される。更に、自動編集モードを選択した場合には、短目編集モード、中程編集モード又は長目編集モードの中から1つのモードを選択できるようになされている。
【0099】
ここに、短目編集モードとは、編集起点情報及び編集終点情報を付加した複数の区間部分の中から最も短い編集起点情報及び編集終点情報を付加した1つの区間部分の映像データD34’及び音声データD13’を抽出する動作をいう。中程編集モードとは、短目編集モードによって抽出された区間部分の映像データD34’及び音声データD13’を除く、他の区間部分の映像データD34’及び音声データD13’を繋ぎ合わせた編集動作をいう。長目編集モードとは、短目編集モードと中程編集モードとを合わせた編集動作をいい、例えば、編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を全部繋ぎ合わせた編集動作をいう。
【0100】
次に、ステップB2でCPU32は編集スタートを待機する。このとき、ユーザは編集スタートを構成する押しボタンスイッチ12を操作して、CPU32に編集処理開始を指示するようになされる。操作部18はCPU32に編集処理開始を指示する操作データD18を出力する。
【0101】
操作部18からCPU32へ編集処理開始が指示された場合は、ステップB3でノーマル編集モード又は自動編集モードの設定によって制御を分岐する。上述のステップB1で自動編集モードが設定されている場合は、ステップB4に移行してCPU32は、更に、短目編集モード、中程編集モード又は長目編集モードの設定に基づいて制御を分岐する。
【0102】
上述のステップB1で短目編集モードが設定されている場合は、ステップB4からステップB5へ移行して、CPU32は、アルゴリズムIIIを演算して短目編集モードを実行する。ここで、記録時間情報Tからタイムコードts,teを検出し、映像データD34’及び音声データD13’から、当該タイムコードts,teが付加された区間部分の映像データD34’及び音声データD13’を抽出する演算をfとし、アルゴリズムIIIを演算して編集される抽出シーンをf(SIII)とする。
【0103】
ステップB6でCPU32は抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を記憶装置35から読み出すようになされる。記憶装置35から読み出した抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を再生することができ、操作者固有の映像データD347及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。その後、ステップB12に移行する。
【0104】
また、上述のステップB1で中程編集モードが設定されている場合は、ステップB4からステップB7へ移行して、CPU32は、アルゴリズムIIを演算して中程編集モードを実行する。このとき、アルゴリズムIIを演算して編集される抽出シーンをf(SIII+SII)とする。
【0105】
ステップB8でCPU32は抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’を記憶装置35から読み出すようになされる。記憶装置35から読み出した抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’等を再生することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。その後、ステップB12に移行する。
【0106】
更に、上述のステップB1で長目編集モードが設定されている場合は、ステップB4からステップB9へ移行して、CPU32は、アルゴリズムIを演算して長目編集モードを実行する。このとき、アルゴリズムIを演算して編集される抽出シーンをf(SIII+SII+SI)とする。その後、ステップB12に移行する。
【0107】
ステップB10でCPU32は抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を記憶装置35から読み出すようになされる。記憶装置35から読み出した抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’と、更に、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点・・・等の抽出された全ての映像データD34’及び音声データD13’を再生することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。その後、ステップB12に移行する。
【0108】
なお、上述のステップB3でノーマルモードが設定されている場合は、ステップB11に移行して、CPU32はノーマルモードを実行する。ノーマルモードでは、編集終点情報や編集終点情報等の付加に関係無く、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とが記録装置35から順次読み出される。その後、ステップB12に移行する。
【0109】
ステップB12で、CPU32は終了判断をする。例えば、編集のストップスイッチを構成する押しボタンスイッチ12が操作されたか否かを判別する。あるいは、電源オフ情報を検出した否かを判別する。ストップスイッチを構成する押しボタンスイッチ12が操作された場合、又は、電源オフ情報が検出された場合は、編集処理を終了する。ストップスイッチを構成する押しボタンスイッチ12が操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップB1に戻って上述した処理を繰り返すようになされる。
【0110】
このような編集処理を実行すると、操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を飛び飛びに繋ぎ合わせることができ、操作者固有の映像及び音声データファイルを作成できるようになる。しかも、短目編集モード、中程編集モード又は長目編集モードの設定に基づいて、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して、3段階に分けて繋ぎ合わせるような編集処理を実行できるようになった。
【0111】
上述の実施例で被写体の映像データD34及び音声データD13から抽出し取得した映像データD34’及び音声データD13’から適切な場面をユーザが望む時間(または頻度)だけ、更に摘出する編集アルゴリズムを上述したアルゴリズムI,II及びIIIに組み合わせてもよい。よりユニークな感動シーンを編集したアルバムファイルを作成できるようになる。
【実施例2】
【0112】
図9は、第2の実施例としてのヘッドマウント型のビデオカメラ200の構成例を示す斜視図である。
【0113】
この実施例では、ヘッドマウント型のビデオカメラ200に、発汗センサ45’の他に脈拍センサ27及び血圧センサ28を備え、情報処理部15が、脈拍センサ27から得られる脈拍情報と血圧センサ28から得られる血圧情報とを演算して脈波伝達時間(WTT)を求め、この脈波伝達時間に基づいて操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に脳裏に印象が残る程、生体感情が高まった時点の映像データD34及び音声データD13を抽出できるようにした。
【0114】
図9に示すヘッドマウント型のビデオカメラ200は情報処理装置の他の一例を構成し、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置である。ビデオカメラ200は、メガネ形状を構成する本体フレーム20を有している。本体フレーム20の左側には左メガネ吊る部24aが、図示しないヒンジを介して開閉自在に取り付けられ、その右側には右メガネ吊る部24bが図示しないヒンジを介して開閉自在に取り付けられている。左メガネ吊る部24aの後部はR状を有して操作者30の右耳に装着可能なようになされている。同様にして、右メガネ吊る部24bの後部もR状を有して操作者30の左耳に装着可能なようになされている。
【0115】
本体フレーム20の前面左側にはマイクロフォン13’(集音部)が組み込まれ、被写体の周囲の音を収録するようになされる。音をステレオ再生する場合は、2個のマイクロフォンが本体フレーム20の左右側に取り付けられる。この例で、本体フレーム20の前面右側にはカメラ34’(撮像部)が組み込まれている。カメラ34’は撮像レンズや、図示しないレンズ駆動機構、撮像素子等を有して構成される。撮像素子は、撮像レンズの後端に設けられ、撮像レンズやレンズ駆動機構等の撮影光学系によって導かれた被写体像を撮影するように動作する。
【0116】
本体フレーム20の上面、下面及び側面には、電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の種々の押しボタンスイッチ12が設けられている。電源スイッチはビデオカメラ200の電源をオン又はオフするスイッチである。モードスイッチは撮影時のノーマルモード又は特殊記録モードのいずれかを選択する際に操作される。ここに特殊記録モード及びノーマルモードは、第1の実施例で説明した通りである。
【0117】
この例では、情報出力部の機能の一例を構成する脈拍センサ27、血圧センサ及び発汗センサ45’が設けられ、当該ビデオカメラ200を操作する操作者の生体感情を検出して生体感情報を出力するようになされる。脈拍センサ27は、例えば、左メガネ吊る部24aの後端に設けられ、ヘッドマウント型のビデオカメラ200を装着した操作者30の脈拍数を時系列に検知して脈拍情報を発生する。
【0118】
この例で、左メガネ吊る部24aの後端と右メガネ吊る部24bの後端との間には配線バンド42が渡されている。配線バンド42のほぼ中央部位には、血圧センサ28が設けられ、当該ビデオカメラ200を装着した操作者30の血圧を時系列に検知して血圧情報を発生する。発汗センサ45’については、図2で説明しているので、その説明を省略する。発汗センサ45’は、当該発汗センサ45’に触れている操作者の発汗量を検知して発汗レベルを示す生体感情報を情報処理&通信部50へ出力する。
【0119】
本体フレーム20の左メガネ吊る部24aには情報処理&通信部50が設けられ、脈拍センサ27から得られる脈拍情報と血圧センサ28から得られる血圧情報とを演算して脈波伝達時間を求める。ここに脈波伝達時間とは、脈拍変化が有った時刻から、この脈拍変化が血圧変化に反映する時刻に至るまでの時間をいう。
【0120】
更に、本体フレーム20の前面左右には、左表示部29a及び右表示部29bが図示しないヒンジ部を介して開閉回転可能に連結され、カメラ34’で撮像した被写体映像を表示するようになされる。例えば、左右表示部29a,29bには撮影中の映像や、再生時の映像を表示する。左右表示部29a,29bには、例えば、1.0乃至2.0インチ程度のカラー液晶表示装置が使用される。
【0121】
本体フレーム20の右メガネ吊る部24bには、バッテリー&記憶装置43が設けられる。バッテリー&記憶装置43は、図示しないバッテリー及び、記憶装置を有して構成される。バッテリーは、脈拍センサ27、血圧センサ28、左右表示部29a,29b、カメラ34’、記憶装置及び発汗センサ45’及び情報処理&通信部50等に直流電源を供給するようになされる。記憶装置は、ノーマルモード又は特殊記録モードによって得られた被写体の映像情報及び当該被写体の周囲の音情報を記録するようになされる。
【0122】
本体フレーム20の前面中央部位には外部インターフェース41が設けられ、外部機器からの映像&音声用のコネクタや、通信ケーブル類が接続可能なようになされている。外部インターフェース41は外部機器へ映像&音声出力する際に使用され、通信ケーブル用の端子は、外部機器と通信する際に使用される。
【0123】
上述の他に、左メガネ吊る部24a及び右メガネ吊る部24bには振動アクチュエータ25が設けられ、入力確定時に振動アクチュエータ25を駆動して触覚を提示するようになされる。更に、左メガネ吊る部24a及び右メガネ吊る部24bには振動アクチュエータ25の他に1対のイヤホン36bが設けられ、左右のスピーカーとして機能するようになされている。例えば、左側のイヤホン36bは、左メガネ吊る部24aの後部R状部位から垂下するように、操作者30の右耳穴に対峙するように配設されている。同様にして、右側のイヤホン36bは、右メガネ吊る部24bの後部R状部位から垂下するように、操作者30の左耳穴に対峙するように配設されている。
【0124】
続いて、脈拍センサ27について説明する。図10は、脈拍センサ27の構成例を示す断面図であり、図11はその内部構成例を示すブロック図である。図10に示す光学式の脈拍センサ27は時計に組み込み可能なものであって、基板71、発光ダイオード72及びフォトトラジスタ73、光選択フィルタ74、ガラス75を有して構成され、脈動による指先等の毛細血管中の血液濃度変化を利用して脈拍数を測定するようになされる。
る。
【0125】
基板71上には発光ダイオード72及びフォトダイオード73が配置される。発光ダイオード72及びフォトダイオード73の上方には光選択フィルタ74が配置される。光選択フィルタ74には赤外光が通過可能な赤色フィルタが使用される。光選択フィルタ74の上方にはガラス75が配置される。この部材にはガラス75に替えて、透明性のアクリル樹脂を使用してもよい。ガラス75上には操作者の指30aが触れられるが、この例では操作者30の耳脇こめかみ等が触れる構造を有している。
【0126】
脈拍センサ27では発光ダイオード72から出射された光が光選択フィルタ74を通過する。光選択フィルタ74を通過した赤外光は、操作者の耳脇のこめかみ等に反射する。こめかみ等の毛細血管(静脈)を反射した反射光は、外光と共に光選択フィルタ74を通過して、フォトダイオード73で受光される。このとき、外光が指先や、こめかみ等の毛細血管を通過するとき、その通過光が血液の脈動によって変化する。例えば、血液濃度が濃くなったり、薄くなったりする。この濃度変化量を電気信号に変換して検出する。この外光の光量(外光量)に応じて検出レベルを自動設定すると、広範囲な外光量に対応して操作者の脈拍を測定できるようになる。
【0127】
図11に示す脈拍センサ27の内部回路は、MOS−Tr76、バンド・エルミネート・フィルタ(Band Eliminate Filter:以下BEF回路77という)及び脈拍センサブロック78を有して構成される。脈拍センサブロック78は発光ダイオード72及びフォトトランジスタ73を有して構成される。発光ダイオード72のアノード及びフォトトランジスタ73のコレクタは接地(GND)されている。
【0128】
発光ダイオード72のカソードは、電源線VDDに接続されている。フォトトランジスタ73のエミッタはMOS−Tr76のソース及びBEF回路77に接続され、MOS−Tr76のドレインは電源線VDDに接続されている。MOS−Tr76にはn型の電界効果トランジスタが使用される。MOS−Tr76のゲートには負帰還回路を構成するBEF回路77が接続され、この外光量に応じた血液の濃度変化量を成す脈拍検知信号S27の出力レベルを自動的にゲートに負帰還して、操作者の脈拍を安定して測定できるようになされている。以下で、脈拍検知信号S27をアナログ・デジタル変換した情報を脈拍検知データD27という。アナログ・デジタル変換機能は、脈拍センサ27の内部に設けても、CPU32の内部に設けてもよい。
【0129】
続いて、血圧センサ28について説明する。図12は、血圧センサ28の構成例を示すブロック図である。図12に示す光学式の血圧センサ28は時計に組み込み可能なものであって、指尖脈波検出ブロックを構成する。この例で、血圧センサ28は家庭用血圧計(オシロメトリック方式)のようなカフを用いて最高血圧及び最低血圧を測定するものまで必要としていないので、脈拍センサ27とほぼ同様な構造の血圧センサ28を用いることができ、脈波伝達時間を測定するために、脈拍センサ27と血圧センサ28とが各々離れた位置に配設することが好ましい。
【0130】
ビデオカメラ200に適用可能な血圧センサ28は、フォトセンサ81、センサドライバ82、サンプルホールド回路83、スイッチト・キャパシタ・フィルタ&ローパスフィルタ回路(SCF&LPF回路84という)、メインアンプ85、センサコントローラ86、4ビットADコンバータ(以下ADC回路87という)、4ビットDAコンバータ(以下DAC回路88という)及びコンパレータ89を有して構成され、血圧上昇点を測定して脈波到達時間を得るようになされる。
る。
【0131】
フォトセンサ81は、図11に示した脈拍センサブロック78にほぼ等しい構成を有しているので、その説明を省略する。
【0132】
フォトセンサ81にはセンサドライバ82及びサンプルホールド回路83が接続されている。センサドライバ82は、所定の電圧をフォトセンサ81に印加して駆動する。フォトセンサ81は操作者の血圧脈動を検知して血圧脈動信号S81を出力する。フォトセンサ81には、サンプルホールド回路83が接続され、血圧脈動信号S81をサンプリングして血圧検知電圧V83を保持し出力する。
【0133】
サンプルホールド回路83にはSCF&LPF回路84が接続され、血圧検知電圧V83に含まれた高周波ノイズを除去する。SCF&LPF回路84にはメインアンプ85が接続され、ノイズ除去後の血圧検知電圧V83を増幅して血圧上昇点を示す信号(以下血圧信号S85という)を出力する。センサドライバ82、SCF&LPF回路84及びメインアンプ85にはセンサコントローラ86が接続され、これらのセンサドライバ82、SCF&LPF回路84及びメインアンプ85の入出力を制御する。
【0134】
メインアンプ85にはADC回路87及びコンパレータ89が接続されている。コンパレータ89には、DAC回路88が接続されている。DAC回路88には切出しレベルを決定する4ビットの脈拍検知データD45が入力される。DAC回路88は脈拍検知データD45をデジタル・アナログ変換した脈拍検知信号S88をコンパレータ89に出力する。ADC回路87はメインアンプ85から出力される血圧信号S85の信号振幅を監視するようになされる。ADC回路87は血圧信号S85をアナログ・デジタル変換して血圧検知データD87を出力する。血圧検知データD87には操作者の血圧の最大値等が含まれる。
【0135】
コンパレータ89はメインアンプ85から出力される血圧信号S85と、DAC回路88から出力される脈拍検知信号S88とを比較して脈波伝達時間(WTT)を示す差分信号Yを出力する。この差分信号Yはアナログデジタル変換した後のデータをYで示す。これにより、外環境ノイズから血圧信号S85の弁別を行いながら、脈波伝達時間(WTT)を示すデータYを出力できるようになる。
【0136】
図13A及びBは、血圧検知例、脈拍検知例及び脈波伝達時間の算出例を示すグラフ図である。
図13Aに示す血圧検知例において、横軸は時間であり、縦軸は血圧である。血圧とは、心臓のポンプ作用によって全身に血液が送り出されるとき、血管の壁に与える圧力をいう。図13Aに示す血圧検知例によれば、経過時間と共に最高血圧及び最低血圧が交互に繰り返されている。最高血圧とは、心臓が血液を送り出すために収縮したときの血圧(収縮期血圧)をいう。最低血圧とは、心臓が血液を溜めるために拡張したときの血圧(拡張期血圧)をいう。
【0137】
図13Bに示す脈拍検知例において、横軸は時間であり、縦軸は脈拍の強さである。脈拍とは、心臓が血液を送り出す際に、動脈に生じる拍動をいう。この拍動の回数を数えると脈拍数が得られる。一定の時間内に心臓が拍動する回数を心拍数(heart rate)といい、通常は1分間の拍動の数(bpm:beats per minute)で表される。
【0138】
図13Bに示す脈拍検知例によれば、ピークパルス(尖頭パルス)に示す部分が拍動を示している。脈拍は心電図によって表される。図中に示すWTTは脈波伝達時間(pluse-Wave Transfer Time)であり、脈拍変化が血液の変化に反映されるまでの時間をいう。例えば、拍動のピークを検知した時刻t1から血圧の上昇起点時刻t2に至る時間をいう。一般に、人が感動したとき、興奮や緊張等したときに、脈波伝達時間(以下WTTという)が早くなることが知られている。
【0139】
そこで、第2の実施例ではWTTを用いて生体感情を抽出するようにした。まず、第1の実施例と同様にして発汗量の差分(変化率)を算出する。この差分と、ある閾値とを比較し、この閾値を越える差分が検出された場合に、当該画像シーンを抽出シーンの対象とする。そして、ある時間のWTTをデータYとし、発汗量の時間変化に相当する単位の定数を閾値Bとしたとき、(2)式、すなわち、
Y<B ・・・・・(2)
を判別する。これにより、現在、人が感動している、興奮や緊張等しているをCPU32で判別できるようになる。
【0140】
図14は、ビデオカメラ200の制御系の構成例を示すブロック図である。図14に示すビデオカメラ200は、左メガネ吊る部24a、右メガネ吊る部24bの内部及び、本体フレーム20の内部に各機能ブロックを実装して構成される。なお、図9〜図12に示した各部と対応する部分は、同一符号で示している。
【0141】
ビデオカメラ200は、操作部18、表示部29a,29b、映像&音収録部31’、記憶装置35、外部インターフェース41、生体センサ部45及び情報処理&通信部50を有して構成される。情報処理&通信部50は通信部19、CPU32、メモリ部37及び映像&音声処理部44を有している。
【0142】
CPU32は第1の実施例と同様にして、システムプログラムに基づいて当該ビデオカメラ全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該ビデオカメラ全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げてビデオカメラ全体を制御するようになされる。
【0143】
メモリ部37のROM又はEEPROMにはシステムプログラムの他に特殊記録モードを実行するためのプログラムが記述されている。この特殊記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情、この例では、発汗、脈拍及び血圧に基づいて動画記録処理するためのプログラムである。その内容は、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31’を操作する操作者30の発汗や、脈拍、血圧等の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したものである。
【0144】
このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、CPU32は、操作者30の生体感情を検出して生成された脈波伝達時間を示すデータYと、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0145】
この例で、CPU32には情報出力部の機能を一例を構成する生体センサ部45を構成する発汗センサ45’、脈拍センサ27及び血圧センサ28が接続される。CPU32は、発汗センサ45’から出力される発汗検知データD45’、脈拍センサ27から出力される脈拍検知データD27、血圧センサ28から出力される血圧検知データD87を入力し、これらの発汗検知データD45’、脈拍検知データD27及び血圧検知データD87から演算される脈波伝達時間を示すデータYと、映像&音収録部31’から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0146】
この例で、発汗センサ45’から出力される発汗検知データD45’は、第1の実施例と同様にして発汗量の差分(変化率)を算出する。この差分と、ある閾値とを比較し、この閾値を越える差分が検出された場合に、当該画像シーンにおける抽出シーンの対象を決定するために使用される。
【0147】
血圧センサ28は、映像&音収録部31’を操作する操作者30の血圧を検出して血圧検知データD87を出力する。例えば、血圧センサ28には図12に示した指尖脈波検出ブロックを実装した光学式の血圧センサが使用され、映像&音収録部31’を操作する操作者30の血圧を時系列に検知し、更に、脈拍センサ27からの脈拍検知データD27を入力して脈波伝達時間を示すデータYを演算してCPU32へ出力するようになされる。
【0148】
この例ではCPU32は、血圧センサ28から出力される脈波伝達時間を示すデータYと、当該データYの判別基準となる脈波伝達時間判定用の閾値Bとを比較する。脈波伝達時間判定用の閾値Bは判別基準情報の一例を成している。この比較結果で、例えば、血圧センサ28が脈波伝達時間判定用の閾値Bを下回る脈波伝達時間を示すデータYを検出したとき、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加する。その後、CPU32は脈波伝達時間判定用の閾値Bを越える脈波伝達時間を示すデータYを検出したとき、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0149】
映像&音声処理部44は、第1の実施例と同様にして、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録する。MPEG−1規格に準拠した圧縮処理によれば、映像の中の動く部分だけを検出し保存するようにデータを圧縮する。圧縮処理はMPEG−1に限られることはなく、ハイビジョン対応のMPEG2からMPEG−4までの各規格や、現在標準化進行中のMPEG−7規格であってもよい。
【0150】
この例で、メモリ部37は脈波伝達時間判定用の閾値Bを記憶する。例えば、閾値Bはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、脈波伝達時間を示すデータYを入力し、予め設定された脈波伝達時間判定用の閾値Bと、データYから得られる脈波伝達時間(WTT)とを比較し、Y<Bの判定処理や、Y≧B等の判定処理を実行する。もちろん、閾値Bは一義的な定数に限られることはなく、二次関数的に変化するものであってもよい。
【0151】
このようにすると、操作者30の発汗、脈拍及び血圧に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は、第1の実施例と同様にして、記録時間情報に対してタイムコードとして設定(記述)される。このタイムコードの設定によって、操作者30が被写体映像撮影中に脈拍数が増加し血圧が上昇して生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになる。
【0152】
CPU32には通信部19が接続され、外部機器と通信するようになされる。例えば、通信部19には無線通信装置が使用される。CPU32は、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を通信部19を介してベースステーション等に無線配信する。このような無線配信処理を実行すると、操作者30が被写体映像撮影中に脈拍数が増加し血圧が上昇して生体感情が高まった時点の映像データD34及び音声データD13をベースステーション等のモニタに表示したり、ベースステーションの通信部を利用して他の情報処理系へ配信することができ、第1の実施例と同様にして操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0153】
操作部18はCPU32に接続され、図示しない電源スイッチ、モードスイッチ、ズームスイッチ、撮影スタート/ストップスイッチ等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。映像&音収録部31’は、マイクロフォン13’及びカメラ34’を有して構成される。マイクロフォン13’は映像&音声処理部44に接続され、被写体の周囲の音を集音して得た音声信号Sinを出力する。映像&音声処理部44はマイクロフォン13’から出力される音声信号Sinをアナログ・デジタル変換して音声データD13を記憶装置35へ出力する。マイクロフォン13’には第1の実施例で説明したものが使用される。カメラ34’は映像&音声処理部44に接続され、被写体の映像を撮影して得た映像データD34を出力する。カメラ34’は撮像レンズ、撮像素子、レンズ駆動機構から構成される。
【0154】
上述のCPU32には記憶装置35が接続され、特殊記録モード時、操作者30の発汗、脈拍及び血圧等の生体感情を検出して生成された脈波伝達時間を示すデータYと、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0155】
上述の映像&音声処理部44には左表示部29a及び右表示部29bが接続され、映像表示信号S29に基づいて撮影中の映像や再生時の映像を表示するようになされる。映像&音声処理部44にはイヤホン36’が接続され、音声信号S36に基づいて撮影中の被写体周辺の音や再生時の音声等を出力する。イヤホン36’は左メガネ吊る部24a及び右メガネ吊る部24bの所定の位置に設けられる。映像&音声処理部44には外部インターフェース41が接続され、映像&音声信号等を外部機器へ出力するようになされる。
【0156】
図15及び図16は、ヘッドマウント型のビデオカメラ200における撮影フォーマット例(その1,2)を示す動作タイミングチャートである。この例では操作者30の頭部での発汗、脈拍及び血圧の変化に対応して固有の映像及び音声を抽出できるようにすると共に、編集起点情報及び編集終点情報を記録時間情報に対してタイムコードとして設定(記述)するようにした。
【0157】
図15A及び図16Aは記録時間情報Tを示している。記録時間情報Tとは、スタートスイッチを押下して映像データD34を取り込み、記憶装置35に記録している時間をいう。図15B及び図16Bに示す動画シーンは、第1の実施例と同様にして、被写体の動きを代表する8つのシーン(i)〜(viii)である。動画シーンのサンプリング頻度は1/30秒である。すなわち、カメラ34’は1秒間に30コマ(NTSC方式)の映像を取得する。この例では運動会で被写体が”かけっこ”をする映像を、操作者30が撮影している場合である。
【0158】
図15Bに示すシーン(i)は第1の実施例と同様にして、出番を待っている被写体の映像である。シーン(ii)及び(iii)はいよいよ出番が回ってきて、被写体がスタートラインに移動する際の映像である。シーン(iv)はスタートラインに立った被写体の映像である。更に、図16Bに示すシーン(v)はスターターが号砲を打った瞬間の映像である。シーン(vi)は被写体がスタートして、駆け足を始めた際の映像である。シーン(vii)は勢い余って被写体が転んだ状態の映像である。シーン(viii)は被写体が泣きながらゴールに到着した映像である。
【0159】
図15Cに示す波形は被写体周囲収録時の音声信号である。被写体周囲の音声はマイクロフォン13’が収録する。この例では運動会の”かけっこをする被写体周辺の音を収録している場合である。例えば、シーン(i)〜(iv)に対応する音情報は、運動会特有の行進曲や周囲のざわめき音が収録される。更に、図16Cに示すシーン(v)に対応する音情報は、スターターが号砲を打った瞬間の”バ〜ン”等と共にシーン(vi)に対応して応援者により声援が収録される。シーン(vii)に対応する音情報は、例えば、被写体に対して”さあ〜起き上がってがんばれ”のような声援が収録される。シーン(viii)に対応する音情報は、例えば、被写体がゴールした行動に対して安堵のどよめき声が収録される。
【0160】
図15Dに示す波形は、血圧検知データD87から得られる血圧波形であって、当該ビデオカメラ200を持って被写体を撮影する操作者の血圧の経時的変化を示している。図15Eに示す波形は、脈拍検知データD27から得られる脈動波形であって、当該ビデオカメラ200を持って被写体を撮影する操作者の脈拍の経時的変化を示している。図15Eにおいて、データYは脈波伝達時間(WTT)であって、例えば、拍動のピークを検知した時刻t1から血圧の上昇起点時刻t2に至る時間である。
【0161】
この例で、シーン(i)〜(iv)に対応する血圧は、ほとんど経時的変化が無く安定しており、また、シーン(i)〜(iv)に対応する脈拍も、ほとんど経時的変化が無く安定している場合を示している。すなわち、脈波伝達時間を示すデータYは、図15Fに示すように、いずれも、脈波伝達時間判定用の閾値B以上である。
【0162】
ところが、図16Dに示すシーン(v)では、被写体がスタートラインに立った直後から、操作者の脈拍が増加すると共に血圧が増加し始め、スターターが号砲を打った瞬間に例えば、そのピークを迎えている。この際の脈波伝達時間を示すデータYは、シーン(i)〜(iv)の場合の脈波伝達時間を示すデータYよりも短くなっている。シーン(vi)で被写体がスタートして、駆け足を始めた当たりから、徐々に脈拍及び血圧も正常時に戻ってくる。この際の脈波伝達時間を示すデータYは、シーン(i)〜(iv)の場合の脈波伝達時間を示すデータYとほぼ等しくなっている。
【0163】
しかし、シーン(vii)で勢い余って被写体が転んだ状態となると、再び、操作者の脈拍及び血圧が増加し始め、被写体が立ち上がった瞬間に、例えば、そのピークを迎えている。この際の脈波伝達時間を示すデータYは、シーン(i)〜(iv)の場合の脈波伝達時間を示すデータYよりも短くなっている。そして、徐々に脈拍及び血圧も正常時に戻ってくる。この例で、シーン(viii)で被写体が泣きながらゴールに到着した時点では、操作者の脈拍及び血圧は、最初と同じ状態に戻っている。
【0164】
なお、当該ビデオカメラ200を持って被写体を撮影する操作者の発汗量の経時的変化については、図4D及び図5Dを参照されたい。このような操作者の感情変化に対して発汗量、脈拍及び血圧が増加し、その発汗量、脈拍及び血圧は経過時間と共に正常時へ戻ることが知られている。
【0165】
この例では、第1の実施例と異なり、脈波伝達時間判定用の閾値Bは特殊記録モードの起動と共に一義的に設定される。図16Dに示すシーン(v)で操作者の脈拍及び血圧変化に伴う脈波伝達時間を示すデータYは脈波伝達時間判定用の閾値Bを下回っている。このデータYが閾値Bを下回った時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。
【0166】
更に時間が経過して、図16Dに示すシーン(vi)で操作者の脈拍及び血圧が正常時に戻ってデータYが閾値B以上になっている。このデータYが閾値Bを越えた時刻teがタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第1のタイムコードの時刻tsと時刻teとの間の動画シーンが第1の実施例と同様にして、特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる。
【0167】
この例では、更に、時間が経過して、図16Dに示すシーン(vii)で操作者の脈拍及び血圧が増加して、データYが閾値Bを下回っている。この脈拍及び血圧変化に伴うデータYが閾値Bを下回った時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集起点情報となされる。更に、時間が経過して、図16Dに示すシーン(vii)で操作者の脈拍及び血圧が正常時に戻って、データYが閾値B以上となっている。この脈拍及び血圧変化に伴うデータYが閾値Bを越えた時刻tsがタイムコードを成すと共に動画シーンを編集する際の編集終点情報となされる。この第2のタイムコードの時刻tsと時刻teとの間の動画シーンが第1の実施例と同様にして特殊記録モードにおける第2の抽出(摘出)シーンSVii(編集映像+音情報)となる。なお、感情変化に対して寄与するパラメータFの寄与率を表1に示している。
【0168】
【表1】
【0169】
表1によれば、感情変化に対して寄与するパラメータFについて、心拍数は寄与率が0.94,血圧は同1.06,WTTは同1.30、体温は同0.44,発汗量は同1.93である。この例では発汗量>WTT>血圧>心拍数なる関係を得ている。
【0170】
続いて、本発明に係る第2の情報処理方法について説明する。図17は、ビデオカメラ200における情報記録例を示すフローチャートである。
【0171】
この例では、ヘッドマウント型のビデオカメラ200で被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合を前提とする。生体センサ部45には図14に示したような発汗センサ45’、脈拍センサ27及び血圧センサ28が使用される。CPU32は、生体センサ部45から出力される発汗検知データD45’、脈拍検知データD27及び血圧検知データD87に基づく脈波伝達時間を示すデータYと映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理する。
【0172】
これらを前提にして、図6に示すフローチャートのステップC1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は特殊記録モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は特殊記録モードのいずれかを選択するようになされる。例えば、押しボタンスイッチ12を操作して特殊記録モードを選択すると、操作部18からCPU32には特殊記録モードを示す操作データD18が出力される。
【0173】
次に、ステップC2でCPU32はスタートを待機する。このとき、ユーザは撮影スタートを構成する押しボタンスイッチ12を操作して、CPU32に動画記録処理開始を指示するようになされる。操作部18はCPU32に動画記録処理開始を指示する操作データD18を出力する。
【0174】
操作部18からCPU32へ動画記録処理開始が指示された場合は、ステップC3でノーマルモード又は特殊記録モードの設定によって制御を分岐する。上述のステップC1で特殊記録モードが設定されている場合は、ステップC4でCPU32は、被写体の映像及びその周辺の音情報を取得するように映像&音収録部31’を制御して記録開始処理に移行する。このとき、映像&音収録部31’は、被写体の映像を撮影して映像データD34を取得し、かつ、当該被写体の周囲の音を集音して音声データD13を取得する。映像&音声処理部44では、例えば、MPEG−1規格に準拠して、映像の中の動く部分だけを検出し圧縮処理した映像データD34を記憶装置35に記録する。
【0175】
これと並行して、ステップC5でCPU32は当該ビデオカメラ200を操作する操作者30の発汗や、脈拍、血圧等の生体感情を検出して脈波伝達時間を示すデータYを作成するように血圧センサ部28を制御する。血圧センサ部28は、この制御を受けて、映像&音収録部31’を操作する操作者30の血圧を検出して血圧検知データD87をCPU32に出力する。このとき、血圧センサ28は映像&音収録部31’を操作する操作者30の血圧を時系列に検知し、更に、脈拍センサ27からの脈拍検知データD27を入力して脈波伝達時間を示すデータYを演算してCPU32へ出力するようになされる。
【0176】
次に、ステップC6に移行して、CPU32は、血圧センサ28から出力される脈波伝達時間を示すデータYと当該データYの判別基準となる脈波伝達時間判別用の閾値Bとを比較してY<Bの判別処理を実行する。メモリ部37ではCPU32のメモリ制御を受けて、データYを入力し、予め設定された閾値Bと、データYから得られる脈波伝達時間(WTT)とを比較する。
【0177】
Y<Bなる判別結果を得た場合はステップC7に移行して、CPU32はステップC4で同時進行の記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集起点情報を付加する。このとき、図16に示したシーン(v)の例によれば、血圧センサ28が閾値Bを越える脈波伝達時間を示すデータYを検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集起点情報を付加する。映像&音声処理部44では、CPU32からの編集起点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻tsをマーク(記述)するようになる。
【0178】
そして、ステップC8に移行してCPU32はY≧Bの判別処理を実行する。Y≧Bを判別した場合はステップC9に移行して、ステップC4で同時進行している記録装置35へ記録している被写体の映像データD34及び当該被写体周囲収録時の音声データD13に対して編集終点情報を付加する。このとき、図16に示したシーン(v)の例によれば、血圧センサ28が閾値B以上の脈波伝達時間を示すデータYを検出したので、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13に編集終点情報を付加するように映像&音声処理部44をポイント設定制御を実行する。
【0179】
映像&音声処理部44では、CPU32の編集終点情報付加制御(ポイント設定制御)によって、記録時間情報Tにタイムコードとして時刻teをマーク(記述)するようになる。このタイムコードとして時刻tsと時刻teの間の動画シーンが特殊記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図16参照)。そして、ステップC11に移行する。
【0180】
なお、上述のステップC3でノーマルモードが設定されている場合は、ステップC10に移行して、ノーマルモードを実行する。ノーマルモードでは、編集終点情報や編集終点情報等を付加することなく、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とが記録装置35に記録される。その後、ステップC11に移行する。
【0181】
ステップC11で、CPU32は終了判断をする。例えば、撮影のストップスイッチを構成する押しボタンスイッチ12が操作されたか否かを判別する。あるいは、電源オフ情報を検出した否かを判別する。ストップスイッチを構成する押しボタンスイッチ12が操作された場合、又は、電源オフ情報が検出された場合は、動画記録処理を終了する。ストップスイッチを構成する押しボタンスイッチ12が操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップC3に戻って上述した処理を繰り返す。これにより、血圧センサ28から得られた脈波伝達時間を示すデータYと、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0182】
図15及び図16に示した例によれば、第1及び第2の抽出シーンを編集できるタイムコード(時刻)ts,teが付加されている。このようにすると、操作者30の発汗、脈拍及び血圧に対応して固有の映像及び音声を抽出できるようになる。編集起点情報及び編集終点情報は例えば、記録時間情報Tに対してタイムコードとして設定(記述)される。
【0183】
このように第2の実施例に係るビデオカメラ及び情報記録方法によれば、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、映像&音収録部31’は、被写体の映像を撮影して映像データD34を出力し、かつ、当該被写体の周囲の音を集音して音声データD13を出力する。血圧センサ28は、映像&音収録部31’を操作する操作者30の生体感情を検出して脈波伝達時間を示すデータYを出力する。これを前提にして、CPU32で血圧センサ28から出力されるデータYと映像&音収録部31’から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けるように処理できるようになった。
【0184】
従って、操作者30が被写体映像撮影中に脈拍数が増加し血圧が上昇して生体感情が高まった時点の映像データD34及び音声データD13を自動抽出できるようになり、ここで自動抽出される映像データD34及び音声データD13を編集した操作者固有の映像及び音声データファイルを容易かつ簡単に作成できるようになった。これにより、被写体映像の撮影途中でマニュアル操作によって編集起点や編集終点等を指定入力する場合に比べて格段に編集操作性を向上できるようになった。
【0185】
この実施例では、脈拍センサ27及び血圧センサ28を用いて、生体感情が高まった時点の映像データD34及び音声データD13を自動抽出する場合について説明したが、これに限られることはなく、脈拍センサ27や血圧センサ28等に替えて脳波センサを用いて生体感情が高まった時点の映像データD34及び音声データD13を自動抽出するようにしても同様な効果が得られる。
【実施例3】
【0186】
図18は、第3の実施例としてのデジタルカメラ300の構成例を示す斜視図である。
図18に示すデジタルカメラ300は情報処理装置の一例を構成し、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置である。
【0187】
デジタルカメラ300は、外装を構成する本体ケース60を有しており、本体ケース60の前面側には撮像部34が組み込まれている。撮像部34は撮像レンズや、図示しないレンズ駆動機構、撮像素子等を有して構成される。撮像素子は、撮像レンズの後端に設けられ、撮像レンズやレンズ駆動機構等の撮影光学系によって導かれた被写体像を撮像するように動作する。
【0188】
本体ケース60の後面、上面、側面には、電源スイッチ、モードスイッチ、ズームスイッチ、シャッタースイッチ12a等の種々の押しボタンスイッチ12が設けられている。電源スイッチはデジタルカメラ300の電源をオン又はオフするスイッチである。モードスイッチは撮影時のノーマルモード又は特殊記録モードのいずれかを選択する際に操作される。ここに特殊動画記録モードとは、操作者の生体感情を検出して生成された生体感情報と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた動画を記録する動作をいう。ノーマルモードとは特殊動画記録モード以外の動作をいい、操作者の生体感情に関係無く撮影集音された被写体の映像情報(静止画)をそのまま記録する動作をいう。
【0189】
この例で、特殊動画記録モードを選択するモードスイッチには、情報出力部の機能の一例を構成する生体センサ部45が設けられ、当該デジタルカメラ300を操作する操作者の生体感情を検出して生体感情報を出力するようになされる。生体センサ部45には例えば図2に示したような発汗(Hidrosis)センサ45’が使用される。この例で発汗センサ45’は、本体ケース60の背面右下に設けられる。この部分は当該デジタルカメラ200を右手で把持するグリップ部分である。もちろん、グリップ部分に限られることはく、シャッタースイッチ12aを兼用する位置に生体センサ部45を設けるようにしてもよい。シャッタースイッチ12aに触れている操作者の発汗量を検知して発汗レベルを示す生体感情報を情報処理部15へ出力できるようなる。また、生体センサ部45は発汗センサ45’の他に脈拍センサ27や血圧センサ28等を使用してもよい。
【0190】
図示ないズームスイッチは、被写体映像をズームアップ表示又はズームダウン表示する際に操作される。シャッタースイッチ12aは表示部29に表示されている被写体映像の静止画情報の取り込みを情報処理部15へ指示する際にON操作される。本体ケース60の前面であって、撮像レンズの先端下方の位置には、集音部13を成す音収録用のマイクロフォンが取り付けられる。動画像再生時、音をステレオ再生する場合は、左右2個のマイクロフォンを取り付けるとよい。
【0191】
更に、本体ケース60の背面側には、表示部29が設けられ、撮像部34で撮像した被写体映像を動画表示(モニタ)するようになされる。例えば、表示部29は撮影中の映像(動画像)や、シャッターON操作時、再生時の静止画映像又は動画映像を表示する。表示部29には、例えば、2乃至3インチ程度のカラー液晶表示装置が使用される。
【0192】
本体ケース60の内部には回路基板17が設けられる。回路基板17には記録メディアやメディアスロット等の記憶装置35が実装又は装着可能となされ、ノーマルモード又は特殊動画記録モードによって得られた被写体の静止画及び動画を含む映像情報及び、動画像取得時の被写体の周囲の音情報を記録するようになされる。回路基板17には記憶装置35の他に情報処理部15が実装される。
【0193】
本体ケース60の内部には回路基板17の他にバッテリー14が実装され、当該回路基板17、表示部29、撮像部34、記憶装置35及び生体センサ部45に直流電源を供給するようになされる。本体ケース60の外部側には外部インターフェース41等が設けられ、外部機器からの映像&音声用のコネクタや、通信ケーブル類が接続可能なようになされている。外部インターフェース41は外部機器へ映像&音声出力する際に使用され、通信ケーブル用の端子は、外部機器と通信する際に使用される。
【0194】
図19は、デジタルカメラ300の制御系の構成例を示すブロック図である。図19に示すデジタルカメラ300は、本体ケース60内の回路基板17に各機能ブロックを実装して構成される。なお、図18に示した各部と対応する部分は、同一符号で示している。
【0195】
デジタルカメラ300は、シャッタースイッチ12a、情報処理部15、操作部18、通信部19、表示部29、映像&音収録部31、記憶装置35、外部インターフェース41及び生体センサ部45を有して構成される。第1の実施例と同じ符号及び同じ名称のものは同じ機能を有するので、その説明を省略する。
【0196】
情報処理部15はCPU32、メモリ部37及び映像&音声処理部44を有して構成される。CPU32はシステムプログラムに基づいて当該デジタルカメラ全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該デジタルカメラ全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げてデジタルカメラ全体を制御するようになされる。
【0197】
操作部18はCPU32に接続され、図1に示した電源スイッチ、モードスイッチ、ズームスイッチ、シャッタースイッチ12a等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。
【0198】
映像&音収録部31は第1の実施例と同様にして、集音部13及び撮像部34を有して構成される。集音部13は映像&音声処理部44に接続され、被写体の周囲の音を集音して得た音声データD13を出力する。撮像部34は映像&音声処理部44に接続され、被写体の映像を撮影して得た静止画及び動画に係る映像データD34を出力する。
【0199】
生体センサ部45は、映像&音収録部31や操作部18等、特に、シャッタースイッチ12aを操作する操作者30の生体感情を検出して感情データD45を出力する。例えば、生体センサ部45には図2に示した発汗センサ45’が使用され、映像&音収録部31を操作する操作者30の発汗量を時系列に検知して感情データD45をCPU32へ出力する。
【0200】
上述のメモリ部37のROM又はEEPROMにはシステムプログラムの他にノーマルモード用のプログラムと特殊動画記録モード用のプログラムとが記述されている。ノーマルモード用のプログラムは、従来方式と同様にして、静止画を記録する順序を記述したものである。特殊動画記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の静止画映像の取得処理に並行して、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情に基づいて動画記録処理するためのプログラムである。
【0201】
その内容は、被写体の静止画映像の取得時に、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31を操作する操作者30の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の動画映像情報及び当該被写体の周囲の音情報とを対応付けて自動抽出処理するステップとを記述したものである。
【0202】
このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、CPU32は、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0203】
例えば、CPU32は、シャッタースイッチ12aのON操作とは別個独立に、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて自動抽出処理するようになされる。この例でCPU32は、第1の実施例と同様にして、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較する。
【0204】
この比較結果で、例えば、生体センサ部45が発汗量判定閾値Hthを越える発汗レベルHxの感情データD45を検出したとき、これをトリガ(編集起点)にして、CPU32は、シャッタースイッチ12aがON操作されていなくても、動画モニタ表示されている被写体の映像データD34及び当該被写体周囲収録時の音声データD13を抽出して切り出すように動画の記録を開始する。この例では、静止画とは独立に編集起点からの動画情報を記録するようになされる。
【0205】
その後、発汗量判定閾値Hth以下の発汗レベルHxの感情データD45を検出したとき、これをトリガー(編集終点)にして、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の抽出切り出しを終了するように映像&音声処理部44を自動抽出するように制御する。この例で、静止画とは独立に当該動画像の編集終点で記録を終了するようになされる。
【0206】
映像&音声処理部44はCPU32の静止画記録制御を受けて、例えば、JPEG圧縮方式により静止画像データを圧縮して記憶装置35に転送するようになされる。圧縮率は例えば、圧縮前の静止画像データの1/10〜1/100程度である。感動シーンに係る動画像は、CPU32の動画像抽出記録制御を受けて、第1の実施例と同様にして、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録するようになされる。
【0207】
この例で、メモリ部37は発汗量判定閾値Hthを記憶する。例えば、発汗量判定閾値Hthはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値Hthと、感情データD45から得られる発汗レベルHxとを比較し、Hth>Hxの判定処理や、Hth≦Hx等の判定処理を実行する。もちろん、発汗量判定閾値は一義的な定数に限られることはなく、二次関数的に変化するものであってもよい(図5参照)。
【0208】
このようにすると、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点及び編集終点に係る情報は、第1の実施例と同様にして、記録時間情報に対してタイムコードとして設定(記述)してもよいが、その時点で動画像を切り出して記録装置35に保存する形式を採っているので省略してもよい。特殊動画記録モードの設定によって、操作者30が被写体静止画像の撮影中に、手に汗握って生体感情が高まった時点の動画シーンの映像データD34及び音声データD13を自動抽出できるようになる。
【0209】
更にCPU32に再生制御機能を持たせて、自動抽出した被写体の動画シーンの映像データD34及び当該被写体周囲収録時の音声データD13を再生するようにしてもよい。このような再生処理を実行すると、操作者30が被写体静止画映像を撮影中に手に汗握って生体感情が高まった時点の動画シーンを成す映像データD34及び音声データD13を再生することができ、被写体の静止画に加えて、操作者固有の映像データD34及び音声データD13を記録したメモリアルファイルを視聴できるようになる。表示部29は、操作者固有の映像データD34を入力して操作者固有の映像を表示し、スピーカー36からは、感動シーン取り込み時の被写体周辺の音声データD13を入力して被写体周辺固有の音声等を出力できるようになる。
【0210】
更にCPU32に記録制御機能を持たせて、自動抽出した被写体の動画シーンの映像データD34及び当該被写体周囲収録時の音声データD13を所定の記録媒体に記録するようにしてもよい。このような記録処理を実行すると、操作者30が被写体静止画映像を撮影中に手に汗握って生体感情が高まった時点の動画シーンを成す映像データD34及び音声データD13をCD−ROMや、MD等の記録媒体に記録することができ、静止画に加えて、操作者固有の動画シーンを成す映像データD34及び音声データD13を記録したメモリアルファイルを配布できるようになる。
【0211】
上述のCPU32には記録メディアや、メディアスロット等を構成する記憶装置35が接続され、ノーマルモード時の静止画情報の他に、特殊動画記録モード時、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた動画記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0212】
上述の映像&音声処理部44には表示部29が接続され、映像表示信号S29に基づいて撮影中の動画映像や再生時の静止映像、感動シーンを成す動画像を表示するようになされる。映像&音声処理部44にはスピーカー36が接続され、動画撮影時、音声信号S36に基づいて撮影中の被写体周辺の音や再生時の音声等を出力する。スピーカー36は本体ケース60の所定の位置に設けられる。映像&音声処理部44には外部インターフェース41が接続され、映像&音声信号を外部機器へ出力するようになされる。
【0213】
CPU32には通信部19が接続され、第1の実施例と同様にして、外部機器と通信するようになされる。例えば、CPU32は、自動抽出した被写体の動画像を成す映像データD34及び当該被写体周囲収録時の音声データD13を通信部19を介して配信する。このような配信処理を実行すると、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を配信することができ、操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。なお、デジタルカメラ300における撮影フォーマット例については、図4及び図5を参照されたい。
【0214】
続いて、本発明に係る第3の情報処理方法について説明する。図20及び図21は、デジタルカメラ300における記録処理例(その1,2)を示すフローチャートである。
【0215】
この例では、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合を前提とする。生体センサ部45には図2に示したような発汗センサが使用される。CPU32は、シャッタースイッチ12aのON操作と独立して、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び、当該被写体周囲収録時の音声データD13とを対応付けて自動抽出処理する場合を例に挙げる。
【0216】
これらを前提にして、図20に示すフローチャートのステップE1でCPU32は、モード設定入力処理を実行する。例えば、ノーマルモード又は特殊動画記録モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、ノーマルモード又は特殊動画記録モードのいずれかを選択するようになされる。例えば、該当する押しボタンスイッチ12を操作して特殊動画記録モードを選択すると、操作部18からCPU32には特殊動画記録モードを示す操作データD18が出力される。
【0217】
次に、ステップE2でノーマルモード又は特殊動画記録モードの設定によって制御を分岐する。上述のステップE1で特殊動画記録モードが設定されている場合は、ステップE3でCPU32は被写体映像を動画でモニタ表示する。そして、ステップE4でシャッタースイッチ12aがON操作されたかを監視する。シャッタースイッチ12aがON操作されない場合は、被写体映像の動画モニタ表示を継続すると共に、ステップE17に移行する。ステップE4でシャッタースイッチ12aがON操作された場合は、ステップE5に移行して被写体映像の静止画をモニタ表示すると共に静止画を記録装置35に記録し保存する。このとき、撮像部34は、被写体の映像を撮影して映像データD34を取得する。映像&音声処理部44では、例えば、JPEG規格に準拠して、静止画情報を圧縮処理した映像データD34を記憶装置35に記録する。その後、ステップE17に移行する。
【0218】
これと並行して、ステップE6でCPU32は当該デジタルカメラ300を操作する操作者30の生体感情を検出して感情データD45を作成するように生体センサ部45を制御する。生体センサ部45は、この制御を受けて、発汗センサ45’に触れている操作者の発汗量を検知して発汗レベルを示す感情データD45をCPU32に出力する。
【0219】
次に、ステップE7でCPU32は発汗量判定閾値曲線を設定するか否かを判別する。この際の判断基準は、第1の実施例と同様にして、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較することにより実行される。操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値である。このような差分値を求めるようにしたのは、第1の実施例で説明した通りである。
【0220】
上述のステップE7で操作者の発汗量の変化率が基準変化率を越えた場合は、ステップE8でCPU32は発汗量判定閾値曲線を設定するようになされる。このとき、メモリ部37から式(1)に示したような発汗量判定閾値曲線を読み出してRAMに展開する。これと共に、CPU32はタイマを起動して、監視時間のカウントを開始する。そして、ステップE9に移行して、CPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。メモリ部37では、図19に示したCPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値曲線を成す発汗量判定閾値Hth1,Hth2,Hth3,Hth4・・・・と、感情データD45から得られる発汗レベルHxとを比較する。
【0221】
Hx>Hthなる判別結果を得た場合はステップE10に移行して、CPU32はステップE4のシャッタースイッチ2aのON操作に関係なく、編集起点を示す時刻tsで被写体動画像の抽出記録処理を開始する。このとき、映像&音声処理部44は編集起点の被写体の映像データD34及び当該被写体周囲収録時の音声データD13をMPEG規格に準拠して圧縮処理する。圧縮処理後の被写体の映像データD34及び当該被写体周囲収録時の音声データD13が記憶装置35に動画記録するようになされる(図5参照)。
【0222】
そして、図21に示すステップE11に移行してCPU32はHx≦Hthの判別処理を実行する。Hx≦Hthを判別した場合はステップE12に移行して、ステップE4のシャッタースイッチ12aびON操作に関係なく、編集終点を示す時刻teで被写体動画像の抽出記録処理を終了する。このとき、編集終点以降の被写体の映像データD34及び当該被写体周囲収録時の音声データD13は、次のHx>Hthなる判別結果が得られるまで、記憶装置35に記録されることなく表示処理に止まっている。
【0223】
映像&音声処理部44では、CPU32からの動画像抽出記録制御によって、抽出された編集起点を示す時刻tsと編集終点を示す時刻teの間の動画シーンが特殊動画記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。
【0224】
その後、ステップE13に移行して第1の実施例と同様にして、当該発汗量判定閾値曲線における監視時間が終了したか否かを判別する。この際の判別基準はタイマのカウントアップを以て終了する。監視時間が終了していない場合は、ステップE9に戻ってCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。
【0225】
この動画像抽出記録制御によって、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を、シャッタースイッチ12aのON操作に関係なく、自動抽出できるようになる。上述の監視時間が終了した場合は、ステップE17に移行する。
【0226】
なお、上述のステップE2でノーマルモードが設定されている場合は、ステップE14に移行して、ノーマルモードを実行する。ノーマルモードでは、生体感情の検知処理等を実行することなく、ステップE14で被写体映像をモニタ表示する。そして、ステップE15でシャッタースイッチ12aがON操作されたかを監視する。シャッタースイッチ12aがON操作されない場合は、被写体映像の動画でのモニタ表示を継続すると共に、ステップE17に移行する。ステップE15でシャッタースイッチ12aがON操作された場合は、ステップE16に移行して被写体映像の静止画をモニタ表示すると共に静止画を記録装置35に記録し保存する。このとき、先のステップE5と同様にして、撮像部34は、被写体の映像を撮影して映像データD34を取得する。映像&音声処理部44では、JPEG規格に準拠して、静止画情報を圧縮処理した映像データD34を記憶装置35に記録する。その後、ステップE17に移行する。
【0227】
ステップE17で、CPU32は終了判断をする。例えば、電源スイッチを構成する押しボタンスイッチ12が操作され、CPU32は電源オフ情報を検出した否かを判別する。電源スイッチを構成する押しボタンスイッチ12が操作され、電源オフ情報が検出された場合は、静止画及び動画記録処理を終了する。電源スイッチを構成する押しボタンスイッチ12が操作されず、電源オフ情報が検出されていない場合は、ステップE2に戻って上述した処理を繰り返す。これにより、シャッタースイッチ12aのON操作とは独立して生体センサ部45から得られた感情データD45と撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0228】
このように第3の実施例に係るデジタルカメラ及び情報記録方法によれば、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合に、静止画取得時、撮像部34は、シャッタースイッチ12aのON操作に対応して被写体の映像を撮影して得た映像データD34を映像&音声処理部44へ出力する。生体センサ部45は、シャッタースイッチ12aのON操作に無関係に映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。これを前提にして、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて動画像を自動抽出処理するようになされる。
【0229】
従って、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を自動抽出することができ、ここで自動抽出された映像データD34及び音声データD13を編集した操作者固有の動画取得映像及び音声データファイルを容易かつ簡単に作成できるようになる。
【0230】
しかも、シャッタースイッチ12aのON操作によって撮り損なった感動シーンの静止画を、感動シーンの動画像として自動抽出することができ、後日、感動シーンの動画像からその静止画を編集できるようになる。この結果、シャッタースイッチ12aのON操作によって得られた静止像の他に、自動抽出された感動シーンの動画像の中から、より特徴的な感動シーンのJPEG静止画を編集(取得)できるようになる。
【実施例4】
【0231】
図22は、第4の実施例としてのカメラ付き携帯電話機400の構成例を示す斜視図である。図22に示す携帯電話機400はデジタルカメラ機能モードを有すると共に、上部筐体40a及び下部筐体40bを有している。上部筐体40aと下部筐体40bとはヒンジ機構11を介在して折り畳み及び回動自在に係合されている。
【0232】
上部筐体40aの表面には、表示部29が設けられ、デジタルカメラ機能モード実行時、被写体の映像を動画表示するようになされる。電話機能モードの実行時、表示部29には、相手方の電話番号や、メニュー画面が表示される。上部筐体40aの表面の上方にはスピーカー36bが設けられ、通話用のレシーバ(受話器)として使用される。スピーカー36bの取り付け位置と対峙するヒンジ機構11の取り付け位置には、生体センサ部45が設けられ、当該携帯電話機400を操作する操作者30の生体感情を検出して生体感情報を出力するようになされる。
【0233】
上部筐体40aに対して、ヒンジ機構11によって可動自在に係合された下部筐体40bには、図示しない複数の押しボタンスイッチ12から成る操作部18が設けられる。押しボタンスイッチ12は、「0」〜「9」数字キー、「*」や「#」等の記号キー、「オン」や「オフ」等のフックボタン、メニューキー等から構成される。下部筐体40bの側面(図中では上部)にシャッタースイッチ12aが設けられる。下部筐体40bの操作パネル面の下方には、図示しない通話用のマイクロフォン13’が取り付けられ、送話器として機能するようになされる。
【0234】
また、下部筐体40bの背面側には撮像部34が設けられ、シャッタースイッチ12aのON操作によって、被写体を撮影し、例えば、静止画情報や動作情報を取得するようになされる。下部筐体40bの内部には、バッテリー14や回路基板17等が設けられる。下部筐体40bの内部下端には、図示しないモジュール型のアンテナ16が取り付けられ、その上端内部側面には、大音響用のスピーカー36aが設けられ、再生等を放音するようになされる。
【0235】
図23は、携帯電話機400の制御系の構成例を示すブロック図である。図23に示す携帯電話機400は、下部筐体40b内の回路基板17に各機能ブロックを実装して構成される。なお、図22に示した各部と対応する部分は、同一符号で示している。携帯電話機400は、情報処理部15、アンテナ16、操作部18、受信部21、送信部22、アンテナ共用器23、表示部29、映像&音収録部31’、記憶装置35、スピーカー36a,36b、外部インターフェース41及び生体センサ部45を有して構成される。
【0236】
情報処理部15はCPU32、メモリ部37及び映像&音声処理部44を有して構成される。CPU32はシステムプログラムに基づいて当該携帯電話機全体を制御するようになされる。メモリ部37は図示しないROM、RAM及びEEPROM等を有している。メモリ部37のROM又はEEPROMには当該携帯電話機全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU32は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げて携帯電話機全体を制御するようになされる。
【0237】
メモリ部37のROM又はEEPROMにはシステムプログラムの他に撮影記録モード用のプログラムが記述されている。撮影記録モード用のプログラムには、静止画記録モードと特殊動画記録モードとを実行するためのプログラムが含まれている。静止画記録モード用のプログラムは、従来方式と同様にして、静止画を記録する順序を記述したものである。特殊動画記録モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の静止画映像の取得処理に並行して、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を操作者30の生体感情に基づいて動画記録処理するためのプログラムである。
【0238】
その内容は、被写体の静止画映像の取得時に、被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、映像&音収録部31を操作する操作者30の生体感情を検出して生体感情報を作成するステップと、ここに作成された生体感情報と撮影集音された被写体の動画映像情報及び当該被写体の周囲の音情報とを対応付けて自動抽出処理するステップとを記述したものである。
【0239】
この例で、デジタルカメラ機能モード選択時、このようなプログラムを成すデータPD’をROM又はEEPROMから読み出して実行すると、CPU32は、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する際に、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。
【0240】
CPU32には操作部18が接続され、当該携帯電話機操作時、電源スイッチ、モードスイッチ、ズームスイッチ、シャッタースイッチ12a等の押しボタンスイッチ12が押下されることで発生した操作データD18をCPU32に出力する。
【0241】
CPU32には操作部18の他に映像&音収録部31’が接続されている。映像&音収録部31’は、マイクロフォン13’及び撮像部34を有して構成される。マイクロフォン13’は映像&音声処理部44に接続され、被写体の周囲の音や、操作者の話声を集音して得た音声信号Sinを出力する。映像&音声処理部44はマイクロフォン13’から出力される音声信号Sinをアナログ・デジタル変換して音声データD13を送信部22や、記憶装置35等へ出力する。マイクロフォン13’には第1の実施例で説明した型式のマイクロフォンが使用される。撮像部34は映像&音声処理部44に接続され、デジタルカメラ機能モード選択時、被写体の映像を撮影して得た映像データD34を出力する。撮像部34の内部構造は第1の実施例で述べているので割愛する。
【0242】
CPU32には映像&音収録部31’の他に生体センサ部45が接続され、映像&音収録部31’を操作する操作者30の生体感情を検出して感情データD45を出力する。例えば、生体センサ部45には図2に示した発汗センサ45’が使用され、映像&音収録部31’を操作する操作者30の発汗量を時系列に検知して感情データD45をCPU32へ出力する。
【0243】
CPU32は、第3の実施例で説明したデジタルカメラ機能と同様にして、シャッタースイッチ12aのON操作とは別個独立に、生体センサ部45から出力される感情データD45と映像&音収録部31’から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて自動抽出処理するようになされる。この例でCPU32は、第1の実施例と同様にして、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較する。
【0244】
この比較結果で、例えば、生体センサ部45が発汗量判定閾値Hthを越える発汗レベルHxの感情データD45を検出したとき、これをトリガ(編集起点)にして、CPU32は、シャッタースイッチ12aがON操作されていなくても、動画モニタ表示されている被写体の映像データD34及び当該被写体周囲収録時の音声データD13を抽出して切り出すように動画の記録を開始する。この例では、静止画とは独立に編集起点からの動画情報を記録するようになされる。
【0245】
その後、発汗量判定閾値Hth以下の発汗レベルHxの感情データD45を検出したとき、これをトリガー(編集終点)にして、CPU32は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の抽出切り出しを終了するように映像&音声処理部44を自動抽出するように制御する。この例で、静止画とは独立に当該動画像の編集終点で記録を終了するようになされる。
【0246】
映像&音声処理部44はCPU32の静止画記録制御を受けて、例えば、JPEG圧縮方式により静止画像データを圧縮して記憶装置35に転送するようになされる。圧縮率は例えば、圧縮前の静止画像データの1/10〜1/100程度である。感動シーンに係る動画像は、CPU32の動画像抽出記録制御を受けて、第1の実施例と同様にして、MPEG−1規格に準拠して映像データD34を圧縮処理して記憶装置35に記録するようになされる。
【0247】
この例で、メモリ部37は発汗量判定閾値Hthを記憶する。例えば、発汗量判定閾値Hthはトリガーパラメータとしてメモリ部37に設けられたROM等に予め格納される。メモリ部37のRAMは、CPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値Hthと、感情データD45から得られる発汗レベルHxとを比較し、Hth>Hxの判定処理や、Hth≦Hx等の判定処理を実行する。もちろん、発汗量判定閾値は一義的な定数に限られることはなく、二次関数的に変化するものであってもよい(図5参照)。
【0248】
このようにすると、携帯電話機400においても、操作者30の指の発汗量に対応して固有の映像及び音声を抽出できるようになる。編集起点及び編集終点に係る情報は、第1の実施例と同様にして、記録時間情報に対してタイムコードとして設定(記述)してもよいが、第3の実施例と同様にして、その時点で動画像を切り出して記録装置35に保存する形式を採っているので省略してもよい。撮影記録モードの設定によって、操作者30が被写体静止画像の撮影中に、手に汗握って生体感情が高まった時点の動画シーンの映像データD34及び音声データD13を自動抽出できるようになる。
【0249】
上述のCPU32には記録メディアや、メディアスロット等を構成する記憶装置35が接続され、撮影記録モード時、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた記録情報を格納するようになされる。記憶装置35にはハードディスク装置や、メモリカード等の不揮発性メモリが使用される。
【0250】
また、携帯電話機固有の構成部品として、図23に示すアンテナ16は、アンテナ共用器23に接続され、着呼時、相手方からの無線電波を基地局等から受信する。アンテナ共用器23には受信部21が接続され、アンテナ16から導かれる受信データを受信して映像や音声等を復調処理し、復調後の映像及び音声データDinをCPU32等に出力するようになされる。受信部21には、CPU32を通じて映像&音声処理部44が接続され、デジタルの音声データDinをデジタル/アナログ変換して音声信号Soutを出力したり、デジタルの映像データをデジタル/アナログ変換して映像表示信号S29を出力するようになされる。
【0251】
上述の映像&音声処理部44には表示部29が接続され、映像表示信号S29に基づいて撮影中の映像や再生時の映像を表示するようになされる。映像&音声処理部44には大音響用を構成するスピーカー36aが接続され、音声信号S36に基づいて着信時の着信メロディや、再生時の音声等を出力するようになされる。スピーカー36aは例えば、下部筐体40bの所定の位置に設けられる。映像&音声処理部44にはスピーカー36aの他に受話器を構成するスピーカー36bが接続される。スピーカー36bは、音声信号Soutを入力して相手方の話声等を拡大するようになされる。スピーカー36bは例えば、上部筐体40aの所定の位置に設けられる。
【0252】
この映像&音声処理部44にはスピーカー36a,36bの他に、送話器を構成するマイクロフォン13’が接続され、操作者30の声を集音して音声信号Sinを出力するようになされる。映像&音声処理部44は、発呼時、相手方へ送るためのアナログの音声信号Sinをアナログ/デジタル変換してデジタルの音声データDoutを出力する。
【0253】
CPU32には受信部21の他に、送信部22が接続され、相手方へ送るための映像及び音声データDout等を変調処理し、変調後の送信データをアンテナ共用器23を通じアンテナ16に供給するようになされる。アンテナ16は、アンテナ共用器23から供給される無線電波を基地局等に向けて輻射するようになされる。
【0254】
この例で、当該携帯電話機400で自動抽出処理に基づいて得られた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を送信部22を介して配信することもできる。このような配信処理を実行すると、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を配信することができ、操作者固有の映像データD34及び音声データD13を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0255】
映像&音声処理部44にはマイクロフォン13’の他に外部インターフェース41が接続され、映像&音声信号をパーソナルコンピュータ等の外部機器へ出力したり、当該外部機器と通信するようになる。この例でも、第1の実施例で説明したような編集制御機能や、再生制御機能、動画配信制御機能等をCPU32に持たせてもよい。
【0256】
続いて、携帯電話機400における情報処理例について説明する。図24及び図25は、携帯電話機400における情報処理例(その1,2)を示すフローチャートである。
【0257】
この例では、撮影記録モードと他の処理モードのいずれかを選択するようになされ、撮影記録モードを選択すると、静止画撮影モードと特殊動画記録モードとを併合した記録処理が実行される場合を前提とする。他の処理モードの中には、電話発呼・着呼・応答機能や、従来方式の携帯電話機のような静止画像のみの撮影モードが含まれている場合を例に挙げる。
【0258】
これらを情報処理条件にして、図24に示すフローチャートのステップF1でCPU32は、モード設定入力処理を実行する。例えば、撮影記録モード又は他の処理モードの設定に関する操作データD18を入力する。このとき、ユーザは、モードスイッチを構成する押しボタンスイッチ12を操作して、撮影記録モード又は他の処理モードのいずれかを選択するようになされる。例えば、該当する押しボタンスイッチ12を操作して撮影記録モードを選択すると、操作部18からCPU32には撮影記録モードを示す操作データD18が出力される。
【0259】
次に、ステップF2で撮影記録モード又は他の処理モードの設定によって制御を分岐する。上述のステップF1で撮影記録モードが設定されている場合は、ステップF3でCPU32は被写体映像を動画でモニタ表示する。そして、ステップF4でシャッタースイッチ12aがON操作されたかを監視する。シャッタースイッチ12aがON操作されない場合は、被写体映像の動画モニタ表示を継続すると共に、ステップF15に移行する。ステップF4でシャッタースイッチ12aがON操作された場合は、ステップF5に移行して被写体映像の静止画をモニタ表示すると共に静止画を記録装置35に記録し保存する。このとき、撮像部34は、被写体の映像を撮影して映像データD34を取得する。映像&音声処理部44では、例えば、JPEG規格に準拠して、静止画情報を圧縮処理した映像データD34を記憶装置35に記録する。その後、ステップF15に移行する。
【0260】
これと並行して、ステップF6でCPU32は当該デジタルカメラ300を操作する操作者30の生体感情を検出して感情データD45を作成するように生体センサ部45を制御する。生体センサ部45は、この制御を受けて、発汗センサ45’に触れている操作者の発汗量を検知して発汗レベルを示す感情データD45をCPU32に出力する。
【0261】
次に、ステップF7でCPU32は発汗量判定閾値曲線を設定するか否かを判別する。この際の判断基準は、第1の実施例と同様にして、生体センサ部45によって検知された操作者の発汗量の変化率(感情変化率)と、予め設定された閾値曲線設定の基準となる基準変化率とを比較することにより実行される。操作者の発汗量の変化率は、生体センサ部45が操作者の何らかの発汗量を検知した時刻以降の2つのサンプル時刻に検知された発汗量間の差分値である。このような差分値を求めるようにしたのは、第1の実施例で説明した通りである。
【0262】
上述のステップF7で操作者の発汗量の変化率が基準変化率を越えた場合は、ステップF8でCPU32は発汗量判定閾値曲線を設定するようになされる。このとき、メモリ部37から式(1)に示したような発汗量判定閾値曲線を読み出してRAMに展開する。これと共に、CPU32はタイマを起動して、監視時間のカウントを開始する。そして、ステップF9に移行して、CPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。メモリ部37では、図23に示したCPU32のメモリ制御を受けて、感情データD45を入力し、予め設定された発汗量判定閾値曲線を成す発汗量判定閾値Hth1,Hth2,Hth3,Hth4・・・・と、感情データD45から得られる発汗レベルHxとを比較する。
【0263】
Hx>Hthなる判別結果を得た場合はステップF10に移行して、CPU32はステップF4のシャッタースイッチ2aのON操作に関係なく、編集起点を示す時刻tsで被写体動画像の抽出記録処理を開始する。このとき、映像&音声処理部44は編集起点の被写体の映像データD34及び、当該被写体周囲収録時の音声データD13をMPEG規格に準拠して圧縮処理する。圧縮処理後の被写体の映像データD34及び当該被写体周囲収録時の音声データD13が記憶装置35に動画記録するようになされる(図5参照)。
【0264】
そして、図25に示すステップF11に移行してCPU32はHx≦Hthの判別処理を実行する。Hx≦Hthを判別した場合はステップF12に移行して、ステップF4のシャッタースイッチ12aびON操作に関係なく、編集終点を示す時刻teで被写体動画像の抽出記録処理を終了する。このとき、編集終点以降の被写体の映像データD34及び当該被写体周囲収録時の音声データD13は、次のHx>Hthなる判別結果が得られるまで、記憶装置35に記録されることなく表示処理に止まっている。
【0265】
映像&音声処理部44では、CPU32からの動画像抽出記録制御によって、抽出された編集起点を示す時刻tsと編集終点を示す時刻teの間の動画シーンが撮影記録モードにおける第1の抽出(摘出)シーンSv(編集映像+音情報)となる(図5参照)。
【0266】
その後、ステップF13に移行して第1の実施例と同様にして、当該発汗量判定閾値曲線における監視時間が終了したか否かを判別する。この際の判別基準はタイマのカウントアップを以て終了する。監視時間が終了していない場合は、ステップF9に戻ってCPU32は、生体センサ部45から出力される感情データD45と当該感情データD45の判別基準となる発汗量判定閾値Hthとを比較してHx>Hthの判別処理を実行する。
【0267】
この動画像抽出記録制御によって、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を、シャッタースイッチ12aのON操作に関係なく、自動抽出できるようになる。上述の監視時間が終了した場合は、ステップF15に移行する。
【0268】
なお、上述のステップF2で他の処理モードが設定されている場合は、ステップF14に移行して、他の処理モードを実行する。他の処理モードでは、生体感情の検知処理等を実行することなく、電話機能モードや、特殊動画撮影モードを伴わない撮影記録モードを実行する。特殊動画撮影モードを伴わない撮影記録モードとは、第3の実施例で説明したようなノーマルモードによる静止画映像の撮影モードをいう。
【0269】
例えば、電話機能モードが選択されて、相手方に電話をする場合は、まず、相手方の電話番号をRAMに読み出して相手方の電話機を発呼する。相手方との電話回線が接続されると、送話器を構成するマイクロフォン13’は操作者の音声を収音して映像&音声処理部44に出力する。
【0270】
映像&音声処理部44は、操作者の話声を集音して得た音声信号Sinをアナログ・デジタル(A/D)変換する。A/D変換後の音声データD13は送信部22に出力される。送信部22は、相手方へ送るための音声データDoutを変調処理し、変調後の送信データをアンテナ共用器23を通じアンテナ16に供給するようになされる。アンテナ16は、アンテナ共用器23から供給される無線電波を基地局等に向けて輻射するようになされる。
【0271】
また、相手方からの無線電波をアンテナ16を介して基地局から受信する。アンテナ16から導かれる受信データは受信部21で復調処理され、復調後の音声データDinをCPU32を介して映像&音声処理部44に入力される。デジタルの音声データDinは映像&音声処理部44でデジタル/アナログ(D/A)変換される。D/A変換後の音声信号Soutはスピーカー36bへ出力される。スピーカー36bは、音声信号Soutを入力して相手方の話声等を拡大する。これにより、相手方と会話できるようになる。その後、電話回線を切断(オンフック)して電話機能モードを終了する。その後、ステップF15に移行する。
【0272】
ステップF15で、CPU32は終了判断をする。例えば、電源スイッチを構成する押しボタンスイッチ12が操作され、CPU32は電源オフ情報を検出した否かを判別する。電源スイッチを構成する押しボタンスイッチ12が操作され、電源オフ情報が検出された場合は、電話機能モード及び撮影記録モード等を終了する。電源スイッチを構成する押しボタンスイッチ12が操作されず、電源オフ情報が検出されていない場合は、ステップF2に戻って上述した処理を繰り返したり、待ち受け状態となされる。これにより、第3の実施例と同様にして、シャッタースイッチ12aのON操作とは独立して生体センサ部45から得られた感情データD45と撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて記憶装置35へ動画記録処理できるようになる。
【0273】
このように第4の実施例に係るカメラ付き携帯電話機及びその情報処理方法によれば、デジタルカメラ機能を利用して、被写体の映像を撮影して得られる静止画情報及び感動シーンの動画情報、及び、当該被写体の周囲の音を集音して得られる情報を処理する場合に、静止画取得時、撮像部34は、シャッタースイッチ12aのON操作に対応して被写体の映像を撮影して得た映像データD34を映像&音声処理部44へ出力する。生体センサ部45は、シャッタースイッチ12aのON操作に無関係に映像&音収録部31を操作する操作者30の生体感情を検出して感情データD45を出力する。これを前提にして、CPU32は、生体センサ部45から出力される感情データD45と映像&音収録部31から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けて動画像を自動抽出処理するようになされる。
【0274】
従って、操作者30が被写体静止画映像の撮影中に手に汗握って生体感情が高まった時点の映像データD34及び音声データD13を第3の実施例と同様にして、自動抽出することができ、ここで自動抽出された映像データD34及び音声データD13を編集した操作者固有の動画取得映像及び音声データファイルを容易かつ簡単に作成できるようになる。
【0275】
しかも、シャッタースイッチ12aのON操作によって撮り損なった感動シーンの静止画を、第3の実施例と同様にして、感動シーンの動画像として自動抽出することができ、後日、感動シーンの動画像からその静止画を編集できるようになる。この結果、シャッタースイッチ12aのON操作によって得られた静止像の他に、自動抽出された感動シーンの動画像の中から、より特徴的な感動シーンのJPEG静止画を編集(取得)できるようになった。
【実施例5】
【0276】
図26は、第5の実施例としての記録編集再生装置500の構成例を示す斜視図である。この例では、ヘッドマウント型のビデオカメラ200等から出力される被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するようになされる。
【0277】
図26に示す記録編集再生装置500は、情報再生装置の機能の一例を構成し、編集起点及び編集終点の各々の情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点及び編集終点に係るタイムコードを付加した区間部分の映像データD34’及び音声データD13’を自動抽出して繋ぎ合わせるように編集処理を実行するものである。記録編集再生装置500は例えば、ヘッドマウント型のビデオカメラ200のベースステーションを構成する。
【0278】
記録編集再生装置500は矩形状の本体ケース80を有している。本体ケース80の前面は操作パネル80aとなされている。操作パネル80aには電源スイッチ81、複数の操作用のスイッチ82、リモートコントロール用の受光部(以下リモコン受光部83という)、外部記録メディア用のスロット86が設けられる。電源スイッチ81は当該記録編集再生装置500に電源を供給する際にON操作される。
【0279】
リモコン受光部83は、図示しないリモートコントローラからの操作用の赤外光を受光して操作データを情報処理部85へ出力するようになされる。操作部82(スイッチ類)には、編集スタート・ストップスイッチ、再生スタート・ストップスイッチ、編集長さ設定スイッチ等が含まれる。編集長さ設定スイッチには、例えば、編集短目モード設定用のスイッチ、編集中程モード設定用のスイッチ、編集長目モード設定用のスイッチが準備されている。
【0280】
外部記録メディア用のスロット86にはCD−ROMや、MD、メモリスティック等の記録媒体が装着可能になされ、自動編集された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13をこれらの記録媒体に書き込み可能なようになされている。これらの記録媒体から自動編集に供される被写体の映像データD34及び当該被写体周囲収録時の音声データD13を読み出し可能となされている。
【0281】
本体ケース80の背面には、映像&音声入出力端子89が設けられ、ヘッドマウント型のビデオカメラ200や、映像&音声モニタ装置等の外部機器に接続可能なようになされている。この例では映像&音声入出力端子89を使用して、自動編集された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を外部機器に送信したり、外部機器から自動編集に供される被写体の映像データD34及び当該被写体周囲収録時の音声データD13を受信したりするようになされる。
【0282】
本体ケース80の内部には回路基板87が設けられる。回路基板87には、電源回路84や、情報処理部85及び無線通信部91を構成する半導体集積回路装置(LSI装置)、内蔵記憶装置92、装置放熱部93等が実装されている。無線通信部91は、例えば、ヘッドマウント型のビデオカメラ200と無線通信をする際に使用される。この無線通信処理には、ビデオカメラ200で撮影している、又は、撮影を終了した被写体の映像データD34及び当該被写体周囲収録時の音声データD13の転送処理が含まれる。
【0283】
内蔵記憶装置92には、固定ディスク装置(HDD)が使用され、自動編集された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を格納する際に使用される。もちろん、自動編集前の被写体の映像データD34及び当該被写体周囲収録時の音声データD13を格納するようにしてもよい。固定ディスク装置には磁気ディスク及び光ディスクが含まれる。
【0284】
情報処理部85は、編集依頼が有った外部からの被写体の映像データD34及び当該被写体周囲収録時の音声データD13に関して、編集起点及び編集終点の各々の情報を抽出して自動編集処理を実行する。例えば、情報処理部85は、編集長さ設定モードに対応して、当該編集起点及び編集終点の各々の情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点及び編集終点に係るタイムコードを付加した区間部分の映像データD34及び音声データD13を自動抽出して繋ぎ合わせるようになされる。
【0285】
上述の情報処理部85や、無線通信部91、内蔵記憶装置92、装置放熱部93等には電源回路84が接続され、これらの部品に直流電源を供給するようになされる。装置放熱部93は例えば、CPU冷却用のファンである。電源回路84には所定の長さの電源コード94が接続され、その終端部には電源プラグ95が取り付けられている。当該記録編集再生装置500は電源プラグ95を商用電源(AC100等)に接続して使用される。
【0286】
続いて、記録編集再生装置500の制御系の構成例について説明する。図27は、記録編集再生装置500の制御系の構成例を示すブロック図である。図27に示す記録編集再生装置500は、図26に示した本体ケース80内の回路基板87に各機能ブロックを実装して構成される。なお、図27に示した各部と対応する部分は、同一符号で示している。
【0287】
記録編集再生装置500は、アンテナ66、リモコン受光部83、電源回路84、情報処理部85、操作部82、映像&音声入出力端子89、無線&有線通信部91、内蔵記憶装置92及びメディアスロット用のドライバ96を有して構成される。情報処理部85はCPU62、メモリ部67及び映像&音声処理部64を有している。
【0288】
操作部82はCPU62に接続され、図26に示した電源スイッチ81、編集スタート・ストップスイッチ、再生スタート・ストップスイッチ、編集長さ設定スイッチ等の押しボタンが押下されることで発生した操作データD82をCPU62に出力する。CPU62には操作部82の他にリモコン受光部83が接続され、図示しないリモートコントローラからの操作用の赤外光を受光して操作データD83をCPU62へ出力するようになされる。
【0289】
CPU62は電源スイッチ81がON操作されると、システムプログラムに基づいて当該記録編集再生装置全体を制御するようになされる。メモリ部67は図示しないROM、RAM及びEEPROM等を有している。メモリ部67のROM又はEEPROMには当該記録編集再生装置全体を制御するためのシステムプログラムを成すデータPDが格納される。図示しないRAMはワークメモリとして使用される。CPU62は電源オンと共に、ROM又はEEPROMからシステムプログラムを成すデータPDを読み出してRAMに展開し、当該システムを立ち上げて記録編集再生装置全体を制御するようになされる。
【0290】
メモリ部67のROM又はEEPROMにはシステムプログラムの他に自動編集モードを実行するためのプログラムが記述されている。この自動編集モード用のプログラムは、コンピュータが読み取り可能なプログラムであって、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせるためのプログラムである。
【0291】
その内容は、編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を入力するステップと、入力された被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するか否かを判別するステップと、自動編集すると判別された被写体の映像データD34及び当該被写体周囲収録時の音声データD13から編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせるステップとを記述したものである。
【0292】
このようなプログラムを成すデータPD”をROM又はEEPROMから読み出して実行すると、CPU62は、操作者30の生体感情を検出して生成された感情データD45と、撮影集音された被写体の映像情報及び当該被写体の周囲の音情報とを対応付けた編集処理等を実行できるようになる。このような編集処理を実行すると、操作者30が被写体の映像を撮影して得た映像データD34及び、その周辺の音を集音して得た音声データD13から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を抽出することができ、操作者固有の映像及び音声データファイルを作成できるようになる。
【0293】
CPU62が判別部の機能の一例を構成し、外部機器から映像&音声入出力端子89等を介して映像&音声処理部64へ入力された被写体の映像情報及び当該被写体周囲収録時の音声情報を操作部82(外部)からの指示に基づいて自動編集するか否かを判別する。外部から自動編集指示が有った場合は、映像&音声処理部64へ自動編集実行の制御コマンドを出力する。外部からの自動編集指示が無い場合は、映像&音声処理部64へ自動編集を実行しない旨のコマンドを出力する。
【0294】
CPU62には映像&音声処理部64が接続され、CPU62の制御コマンドを受けて、記録時間情報に対してタイムコードとして設定された編集起点情報及び編集終点情報を検出し、この編集起点情報及び編集終点情報が付加された区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせる。映像&音声処理部64は、例えば、MPEG−1規格に準拠して映像データD34’を圧縮処理して内蔵記憶装置92に新設される編集後データ格納用のメモリ領域に記録するようになされる。新設のメモリ領域に編集データを移行するようにしたのは、データ配信や、メディア記録処理、再生処理に対して、編集後の映像データD34’及び音声データD13’の出力を円滑に実行するための出力準備である。
【0295】
映像&音声処理部64は編集後のデータをMPEG−1規格に準拠した圧縮処理により実行する。この圧縮処理によれば、映像の中の動く部分だけを検出し保存するようにデータを圧縮する。圧縮処理はMPEG−1に限られることはなく、ハイビジョン対応のMPEG2からMPEG−4までの各規格や、現在標準化進行中のMPEG−7規格であってもよい。これにより、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を自動抽出できるようになり、操作者30の指の発汗量に対応して固有の映像及び音声を編集できるようになる。
【0296】
上述のCPU62には映像&音声処理部64を介して内蔵記憶装置92が接続されている。内蔵記憶装置92には、未編集の映像データD34及び音声データD13を格納するメモリ領域(以下未編集のデータ領域という)、編集後の映像データD34’及び音声データD13’を格納するメモリ領域が新設されている。新設されたメモリ領域には、メモリ部67から読み出された抽出シーンf(SIII)や、抽出シーンf(SIII+SII)、抽出シーンf(SIII+SII+SI)等に係る映像データD34’及び音声データD13’が格納される。
【0297】
未編集のデータメモリ領域には、データを自動編集しない旨の指示が設定された場合に、編集終点情報や編集終点情報等の付加有無に関係無く、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とをそのまま順次格納するようになされる。内蔵記憶装置92には光ディスクや磁気ディスク等の固定ディスク装置が使用される。
【0298】
上述の映像&音声処理部64にはメディアスロット用のドライバ96が接続され、映像表示信号S29に基づいて編集後の映像を記録媒体97に書き込んだり、編集時、未編集の映像に係る映像表示信号S29を記録媒体97から読み出すようになされる。もちろん、編集後の音声を音声信号S36に基づいて映像と共に記録媒体97に書き込んだり、編集時、未編集の映像に係る音声信号S36を記録媒体97から読み出すようになされる。
【0299】
このようにすると、所定の記録媒体97に生体感情報に基づく動画記録処理する記録制御機能をCPU62に持たせることができる。記録媒体97はドライバ96に装着して使用される。記録媒体97にはCD−ROMやMD等の記録メディア、メモリスティック等のメディアスロットが使用される。このような動画記録処理を実行すると、編集後の操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを配布できるようになる。CD−ROMや、MD等の記録媒体97から、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を再生して楽しむことができる。
【0300】
映像&音声処理部64には入力部の機能の一例を構成する映像&音声入出力端子89が接続され、編集後の映像表示信号S29を外部機器に送信したり、編集時、未編集の映像に係る映像表示信号S29を外部機器から受信するようになされる。この例で映像&音声入出力端子89は、外部機器から映像&音声処理部64又は内蔵記憶装置92へ編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力するようになる。もちろん、編集後の音声信号S36を映像表示信号S36と共に外部機器に送信したり、編集時、未編集の映像に係る音声信号S36を外部機器から受信するようになされる。
【0301】
上述のCPU62には入力部の機能の一例を構成する無線&有線通信部91が接続され、外部機器と通信するようになされる。この例で無線&有線通信部91は、外部機器から映像&音声処理部64又は内蔵記憶装置92へ編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力するようになる。無線&有線通信部91にはアンテナ66が接続される。例えば、CPU62は、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を無線&有線通信部91の無線機能及びアンテナ66を使用してヘッドマウント型のビデオカメラ200へ送信するようになされる。
【0302】
更に、無線&有線通信部91は電話回線に接続可能となされ、電話回線を通じてインターネットに接続される。無線&有線通信部91はCPU62の制御を受けて配信処理を実行する。例えば、無線&有線通信部91は、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を配信する。これにより、操作者固有の映像データD34’及び音声データD13’を記録したファイル(アルゴリズム)をインターネット等を介して他のユーザにダウンロードできるようになる。
【0303】
なお、CPU62に再生制御機能を持たせて、編集処理に基づいて抽出し繋ぎ合わせた被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を編集長さ設定モードに基づいて再生するようにしてもよい。このような再生処理を実行すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’を短目、中程又は長目編集モードに基づいて再生することができ、操作者固有の映像データD34’及び音声データD13’を適度な長さに記録したメモリアルファイルを視聴できるようになる。
【0304】
また、電源回路84は商用電源から変換された直流電源をリモコン受光部83や、情報処理部85、操作部82、無線&有線通信部91、内蔵記憶装置92、ドライバ96等に供給するようになされる。
【0305】
続いて、記録編集再生装置500における情報処理例について説明する。図28は、記録編集再生装置500における情報処理例を示すフローチャートである。この例では、情報編集処理に関して自動編集モードが備えられ、当該自動編集モードが選択された場合は、被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点情報及び編集終点情報を付加した区間部分の映像データD34及び音声データD13を抽出して繋ぎ合わせるようになされる。自動編集モードには、短目編集モード、中程編集モード及び長目編集モードの3種類が準備される場合を例に挙げる。もちろん、記録編集再生装置500の電源プラグ95は、商用電源に接続されており、電源がオンされている。
【0306】
これらを編集処理条件にして、図28に示すフローチャートのステップG1でCPU62は入力操作指示に基づいてデータ入力処理を実行する。このとき、ユーザは操作部82を操作して、データを入力する旨をCPU62に指示する。この操作によって、操作部82からCPU62へデータを入力する旨の操作データD82を出力するようになる。更に、ユーザは操作部82を操作して、データを自動編集するか否かをCPU62に指示する。この操作によって、操作部82からCPU62へデータを自動編集する又は編集しない旨の操作データD82を出力するようになる。
【0307】
このときの入力先は第1の実施例で説明したようなビデオカメラ100、第2の実施例で説明したようなヘッドマウント型のビデオカメラ200、第3の実施例で説明したようなデジタルカメラ300、第4の実施例で説明したカメラ付き携帯電話機400である。ビデオカメラ100、デジタルカメラ300及び携帯電話機400は、例えば有線形態で、編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13が入力される。ビデオカメラ200は、例えば無線形態で、編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13が入力される。このときの映像データD34及び音声データD13はメモリ部67のRAM等に一時記憶される。
【0308】
なお、この時点で操作部82を操作して、データ自動編集後の出力形態をCPU62に指示するようにしてもよい。例えば、操作部82を操作して、CPU62にデータ自動編集後の出力先を指示する旨の操作データD82を出力するようにする。出力先は、ビデオカメラ100、デジタルカメラ300、携帯電話機400及び不図示の映像表示モニタは有線形態で、自動編集後の被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を出力するようになる。映像表示モニタにはパーソナルコンピュータ(以下パソコンという)が含まれる。ビデオカメラ200は無線形態で、自動編集後の被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を出力するようになる。
【0309】
次に、ステップG2でCPU62はデータを自動編集するか否かを判別し、この判別結果に基づいて制御を分岐する。この例で、データを自動編集する指示が設定されている場合は、ステップG3に移行して、CPU62はモード設定入力処理を実行する。例えば、操作部82の編集長さ設定スイッチを操作して、編集長さ設定モードに関する操作データD82をCPU62に入力する。このとき、操作部82の短目編集モードスイッチ、中程編集モードスイッチ又は長目編集モードスイッチの中から1つのスイッチを選択するようになされる。
【0310】
例えば、短目編集モードスイッチを選択すると、操作部82からCPU62には短目編集モードを示す操作データD82が出力される。短目編集モードとは、編集起点情報及び編集終点情報を付加した複数の区間部分の中から最も短い編集起点情報及び編集終点情報を付加した1つの区間部分の映像データD34及び音声データD13を抽出する動作をいう。
【0311】
また、中程編集モードスイッチを選択すると、操作部82からCPU62には中程編集モードを示す操作データD82が出力される。中程編集モードとは、短目編集モードによって抽出された区間部分の映像データD34’及び音声データD13’を除く、他の区間部分の映像データD34’及び音声データD13’を繋ぎ合わせた編集動作をいう。
【0312】
更に長目編集モードスイッチを選択すると、操作部82からCPU62には長目編集モードを示す操作データD82が出力される。長目編集モードとは、短目編集モードと中程編集モードとを合わせた編集動作をいい、例えば、編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を全部繋ぎ合わせた編集動作をいう。
【0313】
次に、ステップG4でCPU62は編集スタートを待機する。このとき、ユーザは編集スタートを構成する操作部82の押しボタンスイッチを操作して、CPU62に編集処理開始を指示するようになされる。操作部82はCPU62に編集処理開始を指示する操作データD82を出力する。
【0314】
操作部82からCPU62へ編集処理開始が指示されると、ステップG5に移行してCPU62は、更に、先に設定された短目編集モード、中程編集モード又は長目編集モードに基づいて制御を分岐する。上述のステップG3で短目編集モードが設定されている場合は、ステップG5からステップG6へ移行して、CPU62は、アルゴリズムIIIを演算して短目編集モードを実行する。このとき、記録時間情報Tからタイムコードts,teが付加された映像データD34’及び音声データD13’の区間部分を抽出する演算をfとし、アルゴリズムIIIを演算して編集される抽出シーンをSIIIとする。
【0315】
次に、ステップG7でCPU62は抽出シーンf(SIII)に係る映像データD34’及び音声データD13’をメモリ部67のRAMから読み出す。その後、ステップG8に移行して、内蔵記憶装置92で新設されたメモリ領域に、RAMから読み出した抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を格納する。その後、ステップG16に移行する。
【0316】
また、上述のステップG3で中程編集モードが設定されている場合は、ステップG5からステップG9へ移行して、CPU62は、アルゴリズムIIを演算して中程編集モードを実行する。このとき、アルゴリズムIIを演算して編集される抽出シーンをSIII+SIIとする。
【0317】
次に、ステップG10でCPU62は抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’をメモリ部67のRAMから読み出す。その後、ステップG11に移行して、内蔵記憶装置92で新設されたメモリ領域に、RAMから読み出した抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’を格納する。その後、ステップG16に移行する。
【0318】
更に、上述のステップG3で長目編集モードが設定されている場合は、ステップG5からステップG12へ移行して、CPU62は、アルゴリズムIを演算して長目編集モードを実行する。このとき、アルゴリズムIを演算して編集される抽出シーンをSIII+SII+SIとする。
【0319】
次に、ステップG13でCPU62は抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’をメモリ部67のRAMから読み出す。その後、ステップG14に移行して、内蔵記憶装置92で新設されたメモリ領域に、RAMから読み出した抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を格納する。その後、ステップG16に移行する。
【0320】
なお、上述のステップG2でデータを自動編集しない旨の指示が設定されている場合はステップG15に移行する。ステップG15で、CPU62は未編集のデータ格納処理を実行する。このデータ格納処理では、編集終点情報や編集終点情報等の付加有無に関係無く、被写体の映像データD34及び当該被写体周囲収録時の音声データD13とをそのまま内蔵記録装置85の所定のメモリ領域へ順次格納される。これは編集依頼が殺到して、後日、編集処理に移行する場合が考えられるためである。その後、ステップG16に移行する。
【0321】
ステップG16で、CPU62は編集後の映像データD34’及び音声データD13’を出力する否かを判別する。このとき、ユーザは操作部82を操作して、データを出力する旨をCPU62に指示する。この操作によって、操作部82は、CPU62へデータを出力する旨の操作データD82を出力するようになる。更に、ユーザは操作部82を操作して、短目編集モード、中程編集モード又は長目編集モードのいずれかを選択する旨をCPU62に指示する。この操作によって、操作部82は、CPU62へ短目編集モード、中程編集モード又は長目編集モードのいずれかを選択する旨の操作データD82を出力するようになる。
【0322】
次にステップG17でCPU62は、先に設定された出力形態と、短目編集モード、中程編集モード又は長目編集モードのいずれかとに基づいてデータ出力処理を実行する。例えば、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の入力先がビデオカメラ200で、そのデータ編集後の出力先に関して当該ビデオカメラ200が設定されている場合であって、短目編集モードが設定されている場合、内蔵記憶装置92から読み出した抽出シーンf(SIII)に係る映像データD34’及び音声データD13’を無線&有線通信部91を介してビデオカメラ200へ送信する。
【0323】
ビデオカメラ200の情報処理&通信部50では、抽出シーンf(SIII)に係る映像データD34’及び音声データD13’が再生され、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’に基づく感動シーンを表示部29a,29bに表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。出力先はビデオカメラ200に限られることなく、映像再生表示専用のモニタであってもよい。
【0324】
また、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の入力先がデジタルカメラ300で、そのデータ編集後の出力先に関して当該デジタルカメラ300が設定されている場合であって、中程編集モードが設定されている場合に、内蔵記憶装置92から読み出した抽出シーンf(SIII+SII)に係る映像データD34’及び音声データD13’をデジタルカメラ300の情報処理部15で再生すると、この再生によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’に基づく感動シーンを表示部29に表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。出力先はデジタルカメラ300に限られることなく、TV受像機等の映像表示モニタであってもよい。
【0325】
更に、被写体の映像データD34及び当該被写体周囲収録時の音声データD13の入力先がビデオカメラ100で、そのデータ編集後の出力先に関して映像表示モニタが設定されている場合であって、長目編集モードが設定されている場合、内蔵記憶装置92から読み出した抽出シーンf(SIII+SII+SI)に係る映像データD34’及び音声データD13’を映像表示モニタに転送して再生する。
【0326】
この再生によって、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点と、次に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’と、更に、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点・・・等の抽出された全ての映像データD34’及び音声データD13’に基づく感動シーンをモニタ表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを視聴できるようになる。出力先は映像表示モニタに限られることなく、ビデオカメラ100であってもよい。
【0327】
その後、ステップG18で、CPU62は終了判断をする。例えば、操作部82の編集ストップスイッチが操作されたか否かを判別する。あるいは、電源スイッチ81が操作されて、電源オフ情報を検出した否かを判別する。操作部82の編集ストップスイッチが操作された場合、又は、電源オフ情報が検出された場合は、編集処理を終了する。操作部82の編集ストップスイッチが操作されていない場合及び、電源オフ情報が検出されていない場合は、ステップG1に戻って上述した処理を繰り返すようになされる。
【0328】
このように第5の実施例としての記録編集再生装置500によれば、ヘッドマウント型のビデオカメラ200等から得られる被写体の映像データD34’及び当該被写体周囲収録時の音声データD13を自動編集して再生するようになされる。記録編集再生装置500は、編集起点及び編集終点の各々の情報に基づいて被写体の映像データD34及び当該被写体周囲収録時の音声データD13から当該編集起点及び編集終点に係るタイムコードを付加した区間部分の映像データD34’及び音声データD13’を自動抽出して繋ぎ合わせるように編集処理を実行する。
【0329】
従って、抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’を再生すると、操作者30が被写体映像撮影中に手に汗握って生体感情が高まった時点の映像データD34’及び音声データD13’に基づく感動シーンをモニタ表示することができ、操作者固有の映像データD34’及び音声データD13’を記録したメモリアルファイルを再現性良く視聴できるようになる。
【実施例6】
【0330】
図29は第6の実施例としての編集サービスシステム#1の構成例を示すブロック図である。図29に示す編集サービスシステム#1は本発明に係る情報処理システムの一例を構成し、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、これらの情報の編集処理を提供するシステムである。編集処理は無料でも有料でもどちらであってもよい。有料システムを構成する場合は編集処理が課金対象となり、ビジネスモデルを構成するようになる。
【0331】
編集サービスシステム#1ではユーザの情報通信処理装置601と編集処理提供者の情報端末装置603とがインターネット602(www)を介して接続するようになされる。情報通信処理装置601には、デスクトップ型のパソコンや、ノート型のパソコンが含まれる。
【0332】
情報通信処理装置601には映像取得機器604が接続され、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するようになされる。映像取得機器604には第1の実施例で説明したようなビデオカメラ100、第2の実施例で説明したようなヘッドマウント型のビデオカメラ200、第3の実施例で説明したようなデジタルカメラ300、第4の実施例で説明したカメラ付き携帯電話機400が含まれる。
【0333】
この例で情報通信処理装置601は、映像取得機器604から得られる被写体の映像データD34及び当該被写体周囲収録時の音声データD13を再生する機能を有しているが、第5の実施例で説明したような記録編集再生装置500の機能を有していない場合である。
【0334】
当該システム#1で編集サービスを受ける場合、情報通信処理装置601は、インターネット602を介して編集処理提供者の情報端末装置603に接続して、編集起点及び編集終点の各々の情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を送信するようになされる。情報端末装置603は、情報通信処理装置601から送信されてきた被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集する機能を有している。
【0335】
情報端末装置603には第5の実施例で説明した記録編集再生装置500が使用される。もちろん、情報端末装置603には、図27で説明したような編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を入力するステップと、入力された被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するか否かを判別するステップと、自動編集すると判別された被写体の映像データD34及び当該被写体周囲収録時の音声データD13から編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して繋ぎ合わせるステップとを記述したプログラムが実装されている。
【0336】
これにより、編集処理提供者で自動編集した抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’をユーザに、例えば、課金対象として返信できるようになる。
【0337】
続いて、編集サービスシステム#1における情報処理例について説明する。図30は編集サービスシステム#1における情報処理例を示すフローチャートである。この例では、情報編集業者には情報端末装置603が備えられ、編集後の抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’をダウンロード形式でユーザの情報通信処理装置601に提供する場合を例に挙げる。
【0338】
これを編集処理条件にして、ユーザは、図30に示すステップQ1で編集サービスを受けるために情報編集業者の情報端末装置603を呼び出す。このとき、情報通信処理装置601は情報端末装置603に発呼し、インターネット602を介して電話回線を接続する。
【0339】
次に、ステップQ2でインターネット602上のWeb画面で申し込み内容を確認し、情報編集業者との手続を実行する。例えば、情報通信処理装置601には編集サービスを受けるための申し込み内容が表示され、そのWeb画面上で内容を確認した後、手続OKボタンを操作する。その後、ステップQ3で情報通信処理装置601は情報端末装置603へのデータ送信処理を実行する。データは、編集起点情報及び編集終点情報が付加された被写体の映像データD34’及び当該被写体周囲収録時の音声データD13である。
【0340】
情報編集業者側ではステップQ4で情報端末装置603がデータ自動編集処理を実行する(図28参照)。この自動編集処理によって感動シーンが抽出され、残留した映像及び音声データはそのまま廃棄するか、また、一定期間だけ、情報編集業者側で保存しておいてもよい。情報編集業者側で保存される映像及び音声データに関しては秘密保持扱いとすればよい。
【0341】
そして、ステップQ5で情報端末装置603は情報通信処理装置601へ編集後の映像データD34’及び音声データD13’の返信処理を実行する。編集後の映像データD34’及び音声データD13’は、情報通信処理装置601の記憶装置等に格納される。その後、ユーザはステップQ6でWeb画面上で、編集後の映像データD34’及び音声データD13’の確認処理を実行する。
【0342】
確認終了後、ステップQ7で情報通信処理装置601をONフックして電話回線を切断する処理を実行する。そして、ステップQ8で情報通信処理装置601は終了判断する。例えば、電源スイッチが操作され、電源オフ情報を検出した否かを判別する。電源スイッチが操作され、電源オフ情報が検出された場合は、編集サービスモードを終了する。電源スイッチが操作されず、電源オフ情報が検出されていない場合は、ステップQ1に戻って上述した処理を繰り返すようになされる。
【0343】
このように第6の実施例としての編集サービスシステム#1によれば、本発明に係る情報処理装置、情報処理方法及びプログラムが応用されるので、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する際に、情報編集業者の情報端末装置603を呼び出すことで、当該情報端末装置603は、操作者30の生体感情を検出して生成された感情データ45等と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた編集処理等を実行する。
【0344】
従って、ユーザの情報処理装置に自動編集プログラムが無くても、編集処理提供者で自動編集した抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’を課金対象として取得できるようになる。編集後の抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’は、ダウンロード形式でも、記録媒体97のような搬送形態でもどちらでもよい。なお、情報編集業者への編集依頼は、インターネットのみならず、被写体の映像データD34及び当該被写体周囲収録時の音声データD13を記録したメモリスティク605や、CD−ROM606等の記録媒体を店頭渡しの形式で行ってもよい。
【実施例7】
【0345】
図31は第7の実施例としての編集ソフト提供システム#2の構成例を示すブロック図である。
【0346】
図31に示す編集ソフト提供システム#2は、本発明に係る情報処理システムの他の一例を構成し、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、これらの情報の編集処理に必要な編集プログラムPD”を記述した編集処理用のソフトウエア(以下編集ソフトという)を提供するシステムである。編集ソフトは無料でも有料でもどちらであってもよい。有料システムを構成する場合は編集ソフトが課金対象となり、ビジネスモデルを構成するようになる。
【0347】
編集ソフト提供システム#2ではユーザの情報通信処理装置701と編集処理提供者の情報配信装置703とがインターネット702(www)を介して接続するようになされる。情報通信処理装置701にはデスクトップ型のパソコンや、ノート型のパソコンに第5の実施例で説明したような記録編集再生機能を備えたものが使用される。もちろん、通信機能付きのパソコンと通常の記録編集再生装置とを組み合わせて使用してもよい。
【0348】
情報通信処理装置701には映像取得機器704が接続され、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するようになされる。映像取得機器704には第1の実施例で説明したようなビデオカメラ100、第2の実施例で説明したようなヘッドマウント型のビデオカメラ200、第3の実施例で説明したようなデジタルカメラ300、第4の実施例で説明したカメラ付き携帯電話機400が含まれる。
【0349】
この例で情報通信処理装置701は、映像取得機器704から得られる被写体の映像データD34及び当該被写体周囲収録時の音声データD13を再生する機能を有しており、第5の実施例で説明したような記録編集再生機能を有しているが、編集ソフトが実装されていない場合である。最初から情報通信処理装置701に編集ソフトを実装していないのは、オプション扱いとしたこと、及び、編集ソフトのバージョンアップに柔軟に対処できるようにしたためである。
【0350】
当該システム#2で編集ソフトの提供を受ける場合、情報通信処理装置701は、インターネット702を介して編集処理提供者の情報配信装置703に接続して、例えば、機器登録番号や、ユーザID等の登録情報を送信するようになされる。情報配信装置703は、情報通信処理装置701から送信されてきた登録情報を検証し、検証OKを得た場合に、被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するための編集ソフトを配信するようになされる。
【0351】
情報配信装置703には、デスクトップ型のパソコンや、ノート型のパソコンが使用される。情報配信装置703にはサーバシステムが導入され、図27で説明したような編集起点情報及び編集終点情報を付加した被写体の映像データD34及び当該被写体周囲収録時の音声データD13を入力するステップと、入力された被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するか否かを判別するステップと、自動編集すると判別された被写体の映像データD34及び当該被写体周囲収録時の音声データD13から編集起点情報及び編集終点情報を付加した区間部分の映像データD34’及び音声データD13’を抽出して繋ぎ合わせるステップとを記述したプログラムが実装されている。
【0352】
これにより、編集処理提供者は登録要求に応じて編集ソフトを配信することができ、ユーザは、手元の情報通信処理装置701で被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集し、編集後の抽出シーンf(SIII)や、f(SIII+SII)、f(SIII+SII+SI)等に係る映像データD34’及び音声データD13’をまとめた感動シーンの映像及び音声アルバムファイルを作成できるようになる。
【0353】
続いて、編集ソフト提供システム#2における情報処理例について説明する。図32は編集ソフト提供システム#2における情報処理例を示すフローチャートである。この例では、情報編集業者には情報配信装置703が備えられ、当該システム#2で編集ソフトの提供を受ける場合、情報通信処理装置701の機器登録番号や、ユーザID等の登録情報を送信し、検証OKを得た場合に、編集ソフトを配信する場合を例に挙げる。
【0354】
これを編集ソフト取得条件にして、ユーザは、図32に示すフローチャートのステップR1で編集ソフトを受けるために情報編集業者の情報配信装置703を呼び出す。このとき、情報通信処理装置701は情報配信装置703に発呼し、インターネット702を介して電話回線を接続する。
【0355】
次に、ステップR2でインターネット702上のWeb画面で登録内容を確認し、情報編集業者との登録手続を実行する。例えば、情報通信処理装置701には編集ソフトを受けるための登録内容が表示される。このとき、当該装置の機器登録番号や、ユーザID等の登録情報が情報通信処理装置701に入力される。そして、Web画面上で登録内容を確認した後、手続OKボタンを操作する。登録情報は情報通信処理装置701から情報配信装置703へ送信するようになされる。
【0356】
その後、ステップR3で情報配信装置703は、情報通信処理装置701から送信されてきた登録情報の検証処理をする。この際の検証処理では、例えば、情報通信処理装置701の販売時に控えてある機器登録番号と、登録時の機器登録番号とを比較照合する。両者の番号が一致した場合に検証OKとなされる。
【0357】
当該検証OKを得た場合に、ステップR4で被写体の映像データD34及び当該被写体周囲収録時の音声データD13を自動編集するための編集ソフトの配信処理をする。この編集ソフトは情報通信処理装置701内にダウンロードするようになされる。以後、ユーザ側ではデータ自動編集処理を実行できるようになる(図28参照)。そして、ステップR5で情報通信処理装置701をONフックして電話回線を切断する処理を実行する。
【0358】
このように第7の実施例としての編集ソフト提供システム#2によれば、本発明に係る情報処理装置、情報処理方法及びプログラムが応用されるので、被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報を処理する場合に、情報編集業者には情報配信装置703が備えられ、情報編集業者の情報配信装置703を呼び出し、情報通信処理装置701の機器登録番号や、ユーザID等の登録情報を送信し、検証OKを得た場合に、編集ソフトを配信を受けられるようになされる。
【0359】
従って、機器購入時、情報通信処理装置701内に自動編集プログラムが無くても、後日、編集処理提供者から提供を受けること、更に、編集ソフト内容に変更が生じた場合も、簡単に更新手続きを行うことができる。当該情報通信処理装置701で、操作者30の生体感情を検出して生成された感情データ45等と、撮影集音された被写体の映像データD34及び当該被写体周囲収録時の音声データD13とを対応付けた編集処理等を実行できるようになる。なお、編集ソフトの配信要求はインターネット形式でも、郵送や、店頭に出向く形態でもどちらでもよい。情報編集業者からユーザへの編集ソフトは、インターネットによるダウンロードのみならず、編集ソフトウエアを記述したメモリスティク705や、CD−ROM706等の記録媒体を店頭で渡す形式で行ってもよい。
【0360】
このように第1〜第7の実施例によれば、ユーザ主体の煩雑な操作を行うこと無しに、膨大な記録データの中から、ユーザが望むシーンのみを自動抽出及び自動編集することができるようになった。
【産業上の利用可能性】
【0361】
この発明は、動画を撮るビデオカメラや、静止画を撮るデジタルカメラ、カメラ付きの携帯電話機、カメラ付きの携帯端末装置、これら装置から得られる映像及び音情報を再生する情報再生装置、あるいは、データを保存する記録編集再生ディスク装置を備えたシステム等に適用して極めて好適である。
【図面の簡単な説明】
【0362】
【図1】本発明に係る第1の実施例としてのビデオカメラ100の構成例を示す斜視図である。
【図2】生体センサ部45に適用可能な発汗センサ45’の構成例を示すブロック図である。
【図3】ビデオカメラ100の制御系の構成例を示すブロック図である。
【図4】ビデオカメラ100における撮影フォーマット例(その1)を示すタイムチャートである。
【図5】ビデオカメラ100における撮影フォーマット例(その2)を示すタイムチャートである。
【図6】ビデオカメラ100における記録処理例(その1)を示すフローチャートである。
【図7】ビデオカメラ100における記録処理例(その2)を示すフローチャートである。
【図8】ビデオカメラ100における情報編集例を示すフローチャートである。
【図9】第2の実施例としてのヘッドマウント型のビデオカメラ200の構成例を示す斜視図である。
【図10】脈拍センサ27の構成例を示す断面図である。
【図11】脈拍センサ27の内部構成例を示すブロック図である。
【図12】血圧センサ28の構成例を示すブロック図である。
【図13】(A)及び(B)は、血圧検知例、脈拍検知例及び脈波伝達時間の算出例を示すグラフ図である。
【図14】ビデオカメラ200の制御系の構成例を示すブロック図である。
【図15】ビデオカメラ200における撮影フォーマット例(その1)を示す動作タイミングチャートである。
【図16】ビデオカメラ200における撮影フォーマット例(その2)を示す動作タイミングチャートである。
【図17】ビデオカメラ200における情報記録例を示すフローチャートである。
【図18】第3の実施例としてのデジタルカメラ300の構成例を示す斜視図である。
【図19】デジタルカメラ300の制御系の構成例を示すブロック図である。
【図20】デジタルカメラ300における記録処理例(その1)を示すフローチャートである。
【図21】デジタルカメラ300における記録処理例(その2)を示すフローチャートである。
【図22】第4の実施例としてのカメラ付き携帯電話機400の構成例を示す斜視図である。
【図23】携帯電話機400の制御系の構成例を示すブロック図である。
【図24】携帯電話機400における情報処理例(その1)を示すフローチャートである。
【図25】携帯電話機400における情報処理例(その2)を示すフローチャートである。
【図26】第5の実施例としての記録編集再生装置500の構成例を示す斜視図である。
【図27】記録編集再生装置500の制御系の構成例を示すブロック図である。
【図28】記録編集再生装置500における情報処理例を示すフローチャートである。
【図29】第6の実施例としての編集サービスシステム#1の構成例を示すブロック図である。
【図30】編集サービスシステム#1における情報処理例を示すフローチャートである。
【図31】第7の実施例としての編集ソフト提供システム#2の構成例を示すブロック図である。
【図32】編集ソフト提供システム#2における情報処理例を示すフローチャートである。
【符号の説明】
【0363】
#1・・・編集サービスシステム(情報処理システム)、#2・・・編集ソフト提供システム(情報処理システム)、10,40,60,80・・・本体ケース、11・・・ヒンジ機構、12・・・押しボタンスイッチ、13・・・集音部、13’・・・マイクロフォン(集音部)、14・・・バッテリー、15,85・・・情報処理部、16,66・・・アンテナ、17,87・・・回路基板、18,82・・・操作部、19・・・通信部、20・・・本体フレーム、21・・・受信部、22・・・送信部、24a・・・左メガネ吊る部、24b・・・右メガネ吊る部、25・・・圧電アクチュエータ、27・・・脈拍センサ(生体センサ部)、28・・・血圧センサ(生体センサ部)、29・・・表示部、31・・・映像&音声収録部、32,62・・・CPU(情報処理部)、33・・・電源ユニット、34・・・撮像部、35・・・記憶装置、36a,36b・・・スピーカー、37,67・・・メモリ部(情報処理部)、39・・・映像&音声出力端子、41・・・外部インターフェース、43・・・バッテリー&記憶部、44,64・・・映像&音声処理部(情報処理部)、45・・・生体センサ部(情報出力部)、45’・・・発汗センサ(生体センサ部)、50・・・情報処理&通信部、89・・・映像&音声入出力端子、100,200・・・ビデオカメラ(情報処理装置)、300・・・デジタルカメラ(情報処理装置)、400・・・携帯電話機(情報処理装置)、500・・・記録編集再生装置、601,701・・・情報通信処理装置、602,702・・・インターネット、603・・・情報端末装置、604・・・情報取得機器、703・・・情報配信装置、604,704・・・映像取得機器(情報処理装置)
【特許請求の範囲】
【請求項1】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置であって、
前記被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、
前記情報出力部から出力される前記生体感情報と前記映像及び音収録部から出力される前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理する情報処理部とを備えることを特徴とする情報処理装置。
【請求項2】
前記情報出力部は、
前記映像及び音収録部を操作する操作者の発汗量を時系列に検知して生体感情報を前記情報処理部へ出力する発汗センサを有していることを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記情報処理部は、
前記情報出力部から出力される生体感情報と当該生体感情報の判別基準となる判別基準情報とを比較し、前記判別基準情報を越える生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集起点情報を付加し、その後、前記判別基準情報以下の生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集終点情報を付加することを特徴とする請求項2に記載の情報処理装置。
【請求項4】
前記情報処理部は、
前記編集起点情報及び編集終点情報に基づいて前記被写体の映像情報及び当該被写体の周囲の音情報から当該編集起点情報及び編集終点情報を付加した区間部分の映像及び音情報を抽出して繋ぎ合わせる編集処理を実行することを特徴とする請求項3に記載の情報処理装置。
【請求項5】
前記情報処理部は、
前記編集処理に基づいて抽出し繋ぎ合わせた前記被写体の映像情報及び当該被写体の周囲の音情報を再生することを特徴とする請求項4に記載の情報処理装置。
【請求項6】
前記情報処理部は、
前記編集処理に基づいて抽出し繋ぎ合わせた前記被写体の映像情報及び当該被写体の周囲の音情報を配信することを特徴とする請求項4に記載の情報処理装置。
【請求項7】
前記情報処理部は、
前記編集処理に基づいて抽出し繋ぎ合わせた前記被写体の映像情報及び当該被写体の周囲の音情報を所定の記録媒体に記録することを特徴とする請求項4に記載の情報処理装置。
【請求項8】
前記情報出力部は、
前記映像及び音収録部を操作する操作者の脈拍数を時系列に検知して脈拍情報を発生する脈拍センサと、
前記映像及び音収録部を操作する操作者の血圧を時系列に検知して血圧情報を発生する血圧センサとを有し、
前記情報処理部は、
前記脈拍センサから得られる脈拍情報と前記血圧センサから得られる血圧情報とを演算して脈波伝達時間を求めることを特徴とする請求項1に記載の情報処理装置。
【請求項9】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報であって、操作者の生体感情を検出して作成された生体感情報と、撮影集音された当該被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて編集起点情報及び編集終点情報が付加された情報を処理する装置であって、
前記編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力する入力部と、
前記入力部によって入力された前記被写体の映像情報及び当該被写体周囲収録時の音声情報を外部からの指示に基づいて自動編集するか否かを判別する判別部と、
前記判別部によって編集すると判別された前記被写体の映像情報及び当該被写体周囲収録時の音声情報から前記編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせる映像及音声処理部とを備えることを特徴とする情報処理装置。
【請求項10】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する方法であって、
前記被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、
作成された前記生体感情報と撮影集音された前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを有することを特徴とする情報処理方法。
【請求項11】
前記生体感情報と当該生体感情報の判別基準となる判別基準情報とを比較するステップと、
前記判別基準情報を越える生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集起点情報を付加するステップと、
その後、前記判別基準情報以下の生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集終点情報を付加するステップとを有することを特徴とする請求項10に記載の情報処理方法。
【請求項12】
前記編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力するステップと、
入力された前記被写体の映像情報及び当該被写体周囲収録時の音声情報を自動編集するか否かを判別するステップと、
自動編集すると判別された前記被写体の映像情報及び当該被写体周囲収録時の音声情報から前記編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせるステップとを有することを特徴とする請求項10に記載の情報処理方法。
【請求項13】
前記被写体の映像情報及び当該被写体周囲収録時の音声情報を編集長さ設定モードに基づいて自動編集することを特徴とする請求項12に記載の情報処理方法。
【請求項14】
前記自動編集後の被写体の映像情報及び当該被写体周囲収録時の音声情報を編集長さ設定モードに基づいて出力処理することを特徴とする請求項13に記載の情報処理方法。
【請求項15】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムであって、
前記被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、
作成された前記生体感情報と撮影集音された前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したことを特徴とするプログラム。
【請求項16】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムを記述した記録媒体であって、
前記被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、
作成された前記生体感情報と撮影集音された前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したプログラムを有することを特徴とするコンピュータが読み取り可能な記録媒体。
【請求項17】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、
前記被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する情報処理装置と、
前記情報処理装置から得られる前記被写体の映像情報及び当該被写体の周囲の音情報を再生する情報再生装置とを備え、
前記情報処理装置は、
前記被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、
前記情報出力部から出力される前記生体感情報と前記映像及び音収録部から出力される前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理する情報処理部とを有することを特徴とする情報処理システム。
【請求項1】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する装置であって、
前記被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、
前記情報出力部から出力される前記生体感情報と前記映像及び音収録部から出力される前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けるように処理する情報処理部とを備えることを特徴とする情報処理装置。
【請求項2】
前記情報出力部は、
前記映像及び音収録部を操作する操作者の発汗量を時系列に検知して生体感情報を前記情報処理部へ出力する発汗センサを有していることを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記情報処理部は、
前記情報出力部から出力される生体感情報と当該生体感情報の判別基準となる判別基準情報とを比較し、前記判別基準情報を越える生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集起点情報を付加し、その後、前記判別基準情報以下の生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集終点情報を付加することを特徴とする請求項2に記載の情報処理装置。
【請求項4】
前記情報処理部は、
前記編集起点情報及び編集終点情報に基づいて前記被写体の映像情報及び当該被写体の周囲の音情報から当該編集起点情報及び編集終点情報を付加した区間部分の映像及び音情報を抽出して繋ぎ合わせる編集処理を実行することを特徴とする請求項3に記載の情報処理装置。
【請求項5】
前記情報処理部は、
前記編集処理に基づいて抽出し繋ぎ合わせた前記被写体の映像情報及び当該被写体の周囲の音情報を再生することを特徴とする請求項4に記載の情報処理装置。
【請求項6】
前記情報処理部は、
前記編集処理に基づいて抽出し繋ぎ合わせた前記被写体の映像情報及び当該被写体の周囲の音情報を配信することを特徴とする請求項4に記載の情報処理装置。
【請求項7】
前記情報処理部は、
前記編集処理に基づいて抽出し繋ぎ合わせた前記被写体の映像情報及び当該被写体の周囲の音情報を所定の記録媒体に記録することを特徴とする請求項4に記載の情報処理装置。
【請求項8】
前記情報出力部は、
前記映像及び音収録部を操作する操作者の脈拍数を時系列に検知して脈拍情報を発生する脈拍センサと、
前記映像及び音収録部を操作する操作者の血圧を時系列に検知して血圧情報を発生する血圧センサとを有し、
前記情報処理部は、
前記脈拍センサから得られる脈拍情報と前記血圧センサから得られる血圧情報とを演算して脈波伝達時間を求めることを特徴とする請求項1に記載の情報処理装置。
【請求項9】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られた情報であって、操作者の生体感情を検出して作成された生体感情報と、撮影集音された当該被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて編集起点情報及び編集終点情報が付加された情報を処理する装置であって、
前記編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力する入力部と、
前記入力部によって入力された前記被写体の映像情報及び当該被写体周囲収録時の音声情報を外部からの指示に基づいて自動編集するか否かを判別する判別部と、
前記判別部によって編集すると判別された前記被写体の映像情報及び当該被写体周囲収録時の音声情報から前記編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせる映像及音声処理部とを備えることを特徴とする情報処理装置。
【請求項10】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する方法であって、
前記被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、
作成された前記生体感情報と撮影集音された前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを有することを特徴とする情報処理方法。
【請求項11】
前記生体感情報と当該生体感情報の判別基準となる判別基準情報とを比較するステップと、
前記判別基準情報を越える生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集起点情報を付加するステップと、
その後、前記判別基準情報以下の生体感情報を検出したとき、前記被写体の映像情報及び当該被写体の周囲の音情報に編集終点情報を付加するステップとを有することを特徴とする請求項10に記載の情報処理方法。
【請求項12】
前記編集起点情報及び編集終点情報を付加した被写体の映像情報及び当該被写体周囲収録時の音声情報を入力するステップと、
入力された前記被写体の映像情報及び当該被写体周囲収録時の音声情報を自動編集するか否かを判別するステップと、
自動編集すると判別された前記被写体の映像情報及び当該被写体周囲収録時の音声情報から前記編集起点情報及び編集終点情報を付加した区間部分の映像情報及び音声情報を抽出して繋ぎ合わせるステップとを有することを特徴とする請求項10に記載の情報処理方法。
【請求項13】
前記被写体の映像情報及び当該被写体周囲収録時の音声情報を編集長さ設定モードに基づいて自動編集することを特徴とする請求項12に記載の情報処理方法。
【請求項14】
前記自動編集後の被写体の映像情報及び当該被写体周囲収録時の音声情報を編集長さ設定モードに基づいて出力処理することを特徴とする請求項13に記載の情報処理方法。
【請求項15】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムであって、
前記被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、
作成された前記生体感情報と撮影集音された前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したことを特徴とするプログラム。
【請求項16】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するためのプログラムを記述した記録媒体であって、
前記被写体の映像を撮影して映像情報を取得し、かつ、当該被写体の周囲の音を集音して音情報を取得するステップと、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を作成するステップと、
作成された前記生体感情報と撮影集音された前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理するステップとを記述したプログラムを有することを特徴とするコンピュータが読み取り可能な記録媒体。
【請求項17】
被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理するシステムであって、
前記被写体の映像を撮影し、及び、当該被写体の周囲の音を集音して得られる情報を処理する情報処理装置と、
前記情報処理装置から得られる前記被写体の映像情報及び当該被写体の周囲の音情報を再生する情報再生装置とを備え、
前記情報処理装置は、
前記被写体の映像を撮影して映像情報を出力し、かつ、当該被写体の周囲の音を集音して音情報を出力する映像及び音収録部と、
前記映像及び音収録部を操作する操作者の生体感情を検出して生体感情報を出力する情報出力部と、
前記情報出力部から出力される前記生体感情報と前記映像及び音収録部から出力される前記被写体の映像情報及び当該被写体の周囲の音情報とを対応付けて処理する情報処理部とを有することを特徴とする情報処理システム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図22】
【図23】
【図24】
【図25】
【図26】
【図27】
【図28】
【図29】
【図30】
【図31】
【図32】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図22】
【図23】
【図24】
【図25】
【図26】
【図27】
【図28】
【図29】
【図30】
【図31】
【図32】
【公開番号】特開2009−118420(P2009−118420A)
【公開日】平成21年5月28日(2009.5.28)
【国際特許分類】
【出願番号】特願2007−292296(P2007−292296)
【出願日】平成19年11月9日(2007.11.9)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】
【公開日】平成21年5月28日(2009.5.28)
【国際特許分類】
【出願日】平成19年11月9日(2007.11.9)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】
[ Back to top ]