説明

画像生成システムおよび画像生成方法

【課題】現在の画像に基づいて被写体の未来の行動を予測し、予測した被写体の未来の行動に関連する画像を生成することができる画像生成システムおよび画像生成方法を提供する。
【解決手段】被写体の撮影を行う撮影部と、撮像部が撮影した画像中の被写体として人物が写っているか否か判断し、被写体として人物が写っている場合には、画像中の人物の領域の画像データを人物画像として抽出する人物抽出部と、撮影したときの撮影場所を表す位置情報を取得する位置情報取得部と、撮影したときの時間を表す時間情報を取得する時間情報取得部と、人物抽出部によって抽出された人物の特徴を表す特徴情報を抽出する画像認識部と、位置情報と時間情報と特徴情報とに基づいて、所定の画像データベースを検索する画像検索部と、人物画像と検索された画像データとを合成した合成画像を生成する画像合成部と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、被写体に関連する情報に基づいた画像を生成する画像生成システムおよび画像生成方法に関する。
【背景技術】
【0002】
従来、画像を生成するシステムとして、例えば、特許文献1のように、顔画像を作成する顔画像作成装置が提案されている。特許文献1に開示された顔画像作成装置は、年齢を指定すると、その年齢に応じた顔画像を自動的に作成するものである。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平6−333005号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に開示された顔画像作成装置では、様々な顔のパーツを組み合わせることによって、入力した年齢に応じた未来の顔画像を作成することができる。しかしながら、生成することができる被写体は顔のみであり、例えば、被写体の未来の行動に関連する画像を作成することはできない。このため、より楽しい画像を生成するための画像生成システムの実現に対する余地が残されている。
【0005】
本発明は、上記の課題認識に基づいてなされたものであり、現在の画像に基づいて被写体の未来の行動を予測し、予測した被写体の未来の行動に関連する画像を生成することができる画像生成システムおよび画像生成方法を提供することを目的としている。
【課題を解決するための手段】
【0006】
上記の課題を解決するため、本発明の画像生成システムは、被写体の撮影を行う撮影部と、前記撮像部が撮影した画像中の被写体として人物が写っているか否か判断し、被写体として人物が写っている場合には、前記画像中の人物の領域の画像データを人物画像として抽出する人物抽出部と、前記撮像部が撮影したときの撮影場所を表す位置情報を取得する位置情報取得部と、前記撮像部が撮影したときの時間を表す時間情報を取得する時間情報取得部と、前記人物抽出部によって抽出された前記人物の特徴を表す特徴情報を抽出する画像認識部と、前記位置情報取得部が取得した前記位置情報と、前記時間情報取得部が取得した前記時間情報と、前記画像認識部が抽出した前記特徴情報とに基づいて、所定の画像データベースを検索する画像検索部と、前記人物画像と、前記画像検索部によって検索された画像データとを合成した合成画像を生成する画像合成部と、を備えることを特徴とする。
【0007】
また、本発明の前記画像認識部によって抽出される前記特徴情報は、前記撮像部が撮影した被写体である人物の服装および持ち物を表す情報である、ことを特徴とする。
【0008】
また、本発明の前記位置情報取得部は、前記撮影部が撮影する位置を認識する位置認識センサを具備する、ことを特徴とする。
【0009】
また、本発明の画像生成システムは、前記画像合成部によって生成された前記合成画像を記録する記録部、を、さらに備える、ことを特徴とする。
【0010】
また、本発明の画像生成システムは、前記画像合成部によって生成された前記合成画像を表示する表示部、を、さらに備える、ことを特徴とする。
【0011】
また、本発明の画像生成方法は、撮像部が被写体の撮影を行う撮影ステップと、前記撮像部が撮影した画像中の被写体として人物が写っているか否か判断し、被写体として人物が写っている場合には、前記画像中の人物の領域の画像データを人物画像として抽出する人物抽出ステップと、前記撮像部が撮影したときの撮影場所を表す位置情報を取得する位置情報取得ステップと、前記撮像部が撮影したときの時間を表す時間情報を取得する時間情報取得ステップと、前記人物抽出ステップによって抽出された前記人物の特徴を表す特徴情報を抽出する画像認識ステップと、前記位置情報取得ステップによって取得した前記位置情報と、前記時間情報取得ステップによって取得した前記時間情報と、前記画像認識ステップによって抽出した前記特徴情報とに基づいて、所定の画像データベースを検索する画像検索ステップと、前記人物画像と、前記画像検索ステップによって検索された画像データとを合成した合成画像を生成する画像合成ステップと、を含むことを特徴とする。
【発明の効果】
【0012】
本発明によれば、現在の画像に基づいて被写体の未来の行動を予測し、予測した被写体の未来の行動に関連する画像を生成することができるという効果が得られる。
【図面の簡単な説明】
【0013】
【図1】本発明の実施形態における画像生成システムの概略構成を示したブロック図である。
【図2】本実施形態の画像生成システムにおける画像合成処理の手順を示したフローチャートである。
【図3】本実施形態の画像生成システムに備えた関連画像データベースに記憶している画像のデータ構成を説明する図である。
【図4】本実施形態の画像生成システムによる画像合成によって生成される画像の一例を示した図である。
【図5】本実施形態の画像生成システムにおいて被写体の特徴を判断する第1の画像認識処理の手順を示したフローチャートである。
【図6】本実施形態の画像生成システムの第1の画像認識処理によって判断される被写体の状態の一例を示した図である。
【図7】本実施形態の画像生成システムにおいて被写体の特徴を判断する第2の画像認識処理の手順を示したフローチャートである。
【図8】本実施形態の画像生成システムの第2の画像認識処理によって認識される被写体の状態の一例を示した図である。
【発明を実施するための形態】
【0014】
以下、本発明の実施形態について、図面を参照して説明する。図1は、本実施形態における画像生成システムの概略構成を示したブロック図である。図1は、例えば、デジタルスチルカメラなどの撮像装置に、本実施形態の画像生成システムを適用した場合の一例を示している。図1に示した画像生成システム100は、制御部1と、撮影部2と、画像信号処理部3と、人物判断部4と、人物抽出部5と、位置情報取得部6と、時間情報取得部7と、画像認識部8と、関連画像データベース9と、画像合成部10と、記録部11と、出力部12と、表示部13とから構成されている。
【0015】
制御部1は、画像生成システム100のユーザーによる図示しない操作部の操作に応じて、画像生成システム100全体の制御を行う。撮影部2は、撮影を行い、撮影した画像信号を画像信号処理部3に出力する。画像信号処理部3は、撮影部2から入力された画像信号に対して、予め定めた画像処理を行い、画像生成システム100によって処理する元画像を生成する。画像信号処理部3は、生成した元画像を、人物判断部4、画像認識部8、および画像合成部10に出力する。
【0016】
人物判断部4は、画像信号処理部3から入力された元画像内に人物が写っているか否かを判断する。そして、画像信号処理部3から入力された元画像に判断結果を付加して人物抽出部5に出力する。
【0017】
人物抽出部5は、人物判断部4から入力された人物が写っているか否かの判断結果が付加された元画像に、人物が写っていると判断された情報が含まれている場合に、元画像から人物の領域のデータを抽出する。そして、抽出した人物のみの画像データ(以下、「人物画像」という)を、画像認識部8および画像合成部10に出力する。
【0018】
画像認識部8は、画像信号処理部3から入力された元画像と、人物抽出部5から入力された人物画像とに基づいて画像認識を行い、人物の特徴(例えば、服装や持ち物)を抽出する。そして、抽出した人物の特徴を表す情報(以下、「人物特徴情報」という)を、関連画像データベース9に出力する。なお、画像認識部8による画像認識に関する詳細な説明は、後述する。
【0019】
位置情報取得部6は、例えば、GPS(Global Positioning System)センサを備え、撮影部2が撮影したときの位置情報、すなわち、元画像が撮影された場所の情報を取得する。そして、取得した元画像が撮影された場所の情報(以下、「撮影場所情報」という)を、関連画像データベース9に出力する。
【0020】
時間情報取得部7は、画像生成システム100が適用されたデジタルスチルカメラなどの電子機器の時計部などから、撮影部2が撮影したときの時間情報、すなわち、元画像が撮影された時間の情報を取得する。そして、取得した元画像が撮影された時間の情報(以下、「撮影時間情報」という)を、関連画像データベース9に出力する。
【0021】
関連画像データベース9は、画像データを記憶している。また、関連画像データベース9は、位置情報取得部6から入力された撮影場所情報と、時間情報取得部7から入力された撮影時間情報と、画像認識部8から入力された人物特徴情報とに基づいて、記憶している画像データの検索を行い、元画像に関連する画像データ(以下「関連画像」という)を選択する。関連画像データベース9は、選択した関連画像を、画像合成部10に出力する。
【0022】
画像合成部10は、人物抽出部5から入力された人物画像と、関連画像データベース9から入力された関連画像とに基づいて画像合成処理を行い、合成画像を生成する。画像合成部10は、生成した合成画像を、記録部11および出力部12に出力する。なお、画像合成部10は、ユーザーの操作に応じた制御部1から合成画像を生成しない指示が入力されている場合には、合成画像を生成せず、画像信号処理部3から入力された元画像を、記録部11および出力部12に出力する。
【0023】
記録部11は、画像合成部10から入力された合成画像を、例えば、メモリカードなどの画像記録媒体に記録する。また、記録部11は、画像記録媒体から読み出した画像を、出力部12に出力する。出力部12は、画像合成部10から入力された合成画像、または記録部11から入力された画像を、表示部13に出力する。表示部13は、例えば、液晶などの表示装置であり、出力部12から入力された合成画像を表示する。
【0024】
次に、本実施形態の画像生成システム100における画像合成処理について説明する。図2は、本実施形態の画像生成システム100における画像合成処理の手順を示したフローチャートである。なお、画像生成システム100では、ユーザーによる操作に応じた制御部1が、それぞれの構成要素を制御することによって画像合成処理を行うが、以下の説明においては、説明を容易にするため、ユーザーの操作に応じた制御部1が各構成要素を制御するための制御方法に関する詳細な説明を省略して説明を行う。
【0025】
まず、ステップS20において、撮影部2が撮影を行い、その後、画像信号処理部3が予め定めた画像処理を行って元画像を生成する。また、位置情報取得部6は、撮影場所情報を取得する。また、時間情報取得部7は、撮影時間情報を取得する。
【0026】
続いて、ステップS21において、人物判断部4は、元画像内に人物が写っているか否かを判断する。そして、元画像内に人物が写っていると判断した場合、人物判断部4が、元画像に人物が写っていることを表す情報を付加して、ステップS22に進む。また、元画像内に人物が写っていないと判断した場合は、画像合成処理を終了する。
【0027】
続いて、ステップS22において、人物抽出部5は、元画像から人物画像を抽出する。続いて、ステップS23において、画像認識部8は、元画像と人物画像とに基づいて、人物の特徴を抽出し、人物特徴情報を関連画像データベース9に出力する。
【0028】
続いて、ステップS24において、関連画像データベース9は、位置情報取得部6が取得した撮影場所情報と、時間情報取得部7が取得した撮影時間情報と、画像認識部8から入力された人物特徴情報とに基づいて、元画像の画像合成処理に最適な関連画像の検索を行う。
【0029】
続いて、ステップS25において、制御部1は、ユーザーの操作に応じて、検索した関連画像と人物画像との画像合成処理を行うか否かの決定結果を受け付ける。そして、ユーザーによって関連画像と人物画像との画像合成処理を行わない決定結果が指示された場合には、画像合成部10は、画像信号処理部3から入力された元画像を、画像記録媒体に記録、または表示部13に表示し、画像合成処理を終了する。
【0030】
また、ステップS25において、ユーザーによって関連画像と人物画像との画像合成処理を行う決定結果が指示された場合には、ステップS26に進む。そして、ステップS26において、画像合成部10は、人物抽出部5から入力された人物画像と、関連画像データベース9から入力された関連画像とに基づいて画像合成処理を行い、合成画像を生成する。そして、生成した合成画像を、画像記録媒体に記録、または表示部13に表示し、画像合成処理を終了する。
【0031】
次に、本実施形態の画像生成システム100における関連画像データベース9に記憶している関連画像のデータ構成について説明する。図3は、本実施形態の画像生成システム100に備えた関連画像データベース9に記憶している関連画像のデータ構成を説明する図である。
【0032】
関連画像データベース9に記憶されている画像データは、元画像の撮影場所情報および撮影時間情報や、元画像から抽出された人物画像の人物特徴情報から、被写体である人物の未来の行動を予測し、予測した人物の未来の行動に関連する関連画像が選択できるように構成されている。例えば、図3に示したように、関連画像データベース9には、位置(場所)、時間、服装、および持ち物の情報に基づいた多数の画像データが登録されている。
【0033】
なお、関連画像データベース9は、撮影場所、人物の服装、人物の持ち物が同じ場合であっても、撮影時間が異なる場合には、別の画像を選択する。図3に示した例では、例えば、撮影場所が登山口、服装がズボン、持ち物がバックパックであり、撮影時間が9時であるため、山頂の写真(画像データ)が選択される。しかし、同様に、撮影場所が登山口、服装がズボン、持ち物がバックパックであっても、撮影時間が12時である場合には、下山している画像、すなわち、撮影時間が9時であるときに選択された山頂とは別の画像データが選択される。
【0034】
そして、画像合成部10は、関連画像データベース9によって選択された画像に、人物抽出部5から入力された人物画像を画像合成処理する。ここで、画像合成部10が画像合成処理する場合の一例について説明する。図4は、本実施形態の画像生成システム100による画像合成によって生成される画像の一例を示した図である。
【0035】
元画像が、図4(a)に示したような、登山口で午前9時に撮影され、被写体の人物の服装がズボンで、バックパックを持っている場合を想定する。図4(a)に示した元画像から、人物判断部4は、人物が写っていると判断し、人物抽出部5によって、図4(b)に示したように人物画像が抽出される。そして、画像認識部8は、図4(b)に示した人物画像に基づいて画像認識を行い、「服装がズボン、持ち物がバックパック」という人物特徴情報を関連画像データベース9に出力する。なお、元画像に人物が2人以上写っている場合には、ユーザーの操作によって注目する人物を選択し、画像認識部8は、選択した人物の服装や持ち物などの人物特徴情報を関連画像データベース9に出力する構成とすることもできる。
【0036】
また、位置情報取得部6は、「撮影場所が登山口」という撮影場所情報を関連画像データベース9に出力する。また、時間情報取得部7は、「撮影時間が午前9時」という撮影時間情報を関連画像データベース9に出力する。
【0037】
関連画像データベース9は、位置情報取得部6から入力された撮影場所情報と、時間情報取得部7から入力された撮影時間情報と、画像認識部8から入力された人物特徴情報(服装および持ち物の情報)とに基づいて、図4(c)に示したような山頂の写真(画像データ)を関連画像として選択する。なお、撮影場所情報と、撮影時間情報と、服装および持ち物の4つの情報を用いて、関連画像データベース9が被写体である人物の未来の行動を予測した1枚の関連画像を選択する場合について説明したが、関連画像を選択するための情報が少ない(例えば、上記の4つの情報の内、3つ以下の情報しか得ることができなかった)場合には、複数の関連画像の候補を選択し、ユーザーが画像合成処理に用いる関連画像を選択する構成とすることもできる。このようにすることによって、元画像から得られた情報に基づいて、容易に合成画像を生成することができる。
【0038】
画像合成部10は、関連画像データベース9によって選択された山頂の画像データと、人物抽出部5によって抽出された人物画像とを画像合成処理し、図4(d)に示したような合成画像を生成する。なお、関連画像データベース9によって選択された関連画像に、すでに人物が写っている場合には、人物抽出部5によって抽出された人物画像の顔の部分を、関連画像に写っている人物の顔と差し替えた合成画像を生成することもできる。
【0039】
なお、画像合成部10による画像合成処理においては、合成する人物画像の大きさや位置を、ユーザーの操作に応じて変更することができる。例えば、図4(e)に示したように、人物画像の大きさを好みの大きさに変更して画像合成することや、図4(f)に示したように、人物画像の位置を好みの位置に移動して画像合成することができる。なお、人物画像の大きさや位置の変更は、例えば、図示しない操作部に備えた十字キーやタッチパネルなどを、ユーザーが操作することによって行うことができる。
【0040】
次に、本実施形態の画像生成システム100における人物特徴情報の抽出処理について説明する。画像生成システム100による人物特徴情報の抽出処理では、画像認識部8が、様々な画像認識を行うことによって、様々な人物特徴情報が抽出される。そして、人物特徴情報を抽出するための画像認識の処理は、それぞれ別々の処理として行われる。例えば、人物の服装を判断する画像認識の処理と、人物の持ち物を認識する画像認識の処理とは、画像認識部8によって、それぞれ別々の処理として行われる。
【0041】
まず、画像認識部8が被写体である人物の服装を判断する場合の一例について説明する。図5は、本実施形態の画像生成システム100において被写体の特徴を判断する第1の画像認識処理(服装判断処理)の手順を示したフローチャートである。図6は、本実施形態の画像生成システム100の第1の画像認識処理(服装判断処理)によって判断される被写体の状態の一例を示した図である。図5に示した画像生成システム100における服装判断処理の手順の説明においては、図6に示した人物の状態を参照する。
【0042】
まず、ステップS41において、人物抽出部5は、元画像から人物の輪郭を抽出する。そして、抽出した人物の輪郭の情報を画像認識部8に出力する。
【0043】
続いて、ステップS42において、画像認識部8は、人物抽出部5から入力された人物の輪郭の情報に基づいて、人物の高さaを設定する。これにより、図6に示した人物の高さaが設定される。
【0044】
続いて、ステップS43において、画像認識部8は、設定した高さaの上から3/5の位置を、人物の横幅xに設定する。これにより、図6に示した人物の横幅xが設定される。続いて、ステップS44において、画像認識部8は、設定した高さaの上から4/5の位置を、人物の横幅yに設定する。これにより、図6に示した人物の横幅yが設定される。
【0045】
続いて、ステップS45において、画像認識部8は、設定した高さaと横幅xとに基づいて、人物が立っている状態であるか、座っている状態であるかを判断する。例えば、a−3x>0である場合、画像認識部8は、人物が立っていると判断し、a−3x>0でない、すなわち、a−3x≦0である場合に、人物が座っていると判断する。図6に示した例では、a−3x>0であるため、人物が立っていると判断される。そして、人物が立っていると判断した場合には、ステップS46に進み、人物が座っていると判断した場合には、ステップS49に進む。
【0046】
続いて、ステップS45において、人物が立っていると判断した場合、ステップS46において、画像認識部8は、設定した横幅xと横幅yとに基づいて、その人物の服装に、スカート特有の広がりがあるか否かを判断する。例えば、y−x>0である場合、スカート特有の広がりがあると判断し、y−x>0でない、すなわち、y−x≦0である場合には、スカート特有の広がりがないと判断する。そして、スカート特有の広がりがあると判断した場合には、ステップS47に進み、スカート特有の広がりがないと判断した場合には、ステップS48に進む。
【0047】
ステップS46において、スカート特有の広がりがあると判断した場合、画像認識部8は、ステップS47において、人物の「服装がスカート」であるという情報を人物特徴情報に加える。また、ステップS46において、スカート特有の広がりがないと判断した場合、画像認識部8は、ステップS48において、人物の「服装がズボン」であるという情報を人物特徴情報に加え、ステップS49に進む。
【0048】
ステップS45において人物が座っていると判断した場合、またはステップS48において「服装がズボン」であるという情報を人物特徴情報に加えた後、ステップS49において、画像認識部8は、人物の性別(男性であるか女性であるか)を判断する。ステップS49においては、例えば、人物の顔認識の処理を行い、認識された顔の特徴量に基づいて、人物の性別を判断する。
【0049】
ステップS49において、人物が女性である(ステップS49において“NO”である)と判断した場合、画像認識部8は、ステップS50において、人物は「女性」であるという情報を人物特徴情報に加え、被写体の特徴判断の処理を終了する。ステップS49において、人物が男性である(ステップS49において“YES”である)と判断した場合、画像認識部8は、ステップS51において、人物は「男性」であるという情報を人物特徴情報に加ええ、被写体の特徴判断の処理を終了する。図6に示した例では、ステップS46における判断が、y−x>0であるため、スカート特有の広がりがあると判断される。そして、ステップS47において人物の「服装がスカート」であるという情報が人物特徴情報に加えられ、さらに、ステップS50において人物は「女性」であるという情報が人物特徴情報に加えられる。
【0050】
図5に示した被写体の特徴判断の処理において、被写体である人物が男性であるか女性であるかを判断した結果は、関連画像データベース9によって選択された関連画像の中に人物が写っている場合に使用される。例えば、関連画像データベース9は、被写体である人物が男性である場合には、男性が写っている関連画像を選択し、被写体である人物が女性である場合には、男性が写っている関連画像を選択する。
【0051】
次に、画像認識部8が被写体である人物の持ち物を認識する場合の一例について説明する。図7は、本実施形態の画像生成システム100において被写体の特徴を判断する第2の画像認識処理(持ち物認識処理)の手順を示したフローチャートである。図8は、本実施形態の画像生成システム100の第2の画像認識処理(持ち物認識処理)によって認識される被写体の状態の一例を示した図である。図7に示した画像生成システム100における持ち物認識処理の手順の説明においては、図8に示した人物の状態を参照し、人物が背負っているバックパック、および人物が手に持っている持ち物を認識する場合の例を説明する。
【0052】
まず、ステップS61において、画像認識部8は、人物抽出部5から入力された人物画像に基づいて、人物の向きを検出し、物が正面を向いている場合に、ステップS62に進む。これは、人物が背負っているバックパックの検出は、被写体が正面を向いている場合に行うためである。
【0053】
続いて、ステップS62において、画像認識部8は、人物の体の前面に、図8に示したような2本のバックパックの線bがあるか否かを判断する。そして、バックパックの線bがあると判断した場合には、ステップS63に進み、バックパックの線bがないと判断した場合には、ステップS64に進む。
【0054】
続いて、ステップS62において、バックパックの線bがあると判断した場合、ステップS63において、画像認識部8は、被写体である人物がバックパックを持っていると判断し、人物の持ち物に「バックパックあり」という情報を人物特徴情報に加える。また、ステップS62において、バックパックの線bがないと判断した場合、ステップS64において、画像認識部8は、被写体である人物がバックパックを持っていないと判断し、人物の持ち物に「バックパックなし」という情報を人物特徴情報に加える。
【0055】
続いて、ステップS65において、画像認識部8は、被写体である人物の持ち物のテンプレートマッチング(照合)の処理を行い、人物の持ち物を検出する。ステップS65におけるテンプレートマッチングの処理では、まず、人物の手の部分を検出し、検出した手に接する部分に、例えば、ラケット、ボール、またはカバンなどのテンプレートに類似する形状があるか否かを検出する。そして、テンプレートに類似する形状がある場合に、人物がテンプレートと同じものを持っていると判断する。
【0056】
より具体的には、例えば、人の肌色特性に基づいて手の領域の候補を、人物抽出部5から入力された人物画像から抽出し、抽出された手の領域の候補の形状複雑度を算出する。そして、算出した形状複雑度に基づいて、手の領域の候補から手の領域を検出する。そして、検出した手の領域に接する部分の輪郭(以下、「持ち物輪郭」という)を抽出し、抽出した持ち物輪郭にテンプレートに類似する形状が含まれているか否かを比較する。なお、持ち物輪郭とテンプレートとの比較を行う際には、例えば、テンプレートの大きさと同じ大きさになるように、持ち物輪郭を拡大処理または縮小処理を行って、一致率を算出する。そして、例えば、持ち物輪郭とテンプレートとの一致率が70%以上である場合に、その持ち物輪郭のものは、テンプレートと同じものであると判断する。なお、この一致率は、ユーザーによって設定可能な構成とすることもできる。
【0057】
続いて、ステップS65において、テンプレートと同じものを被写体である人物が持っていると判断した場合、ステップS66において、画像認識部8は、一致したテンプレートの情報に基づいて、人物の持ち物が何であるかを表す情報を人物特徴情報に加え、被写体の特徴判断の処理(持ち物認識処理)を終了する。
【0058】
このように、画像認識部8が、様々な画像認識を行うことによって、様々な人物特徴情報を抽出することができる。そして、抽出した人物特徴情報に基づいて関連画像データベース9が関連画像を検出することによって、より現実味がある画像合成処理に最適な関連画像を容易に検索することができる。
【0059】
上記に述べたとおり、本発明を実施するための形態によれば、撮影した元画像に基づいて被写体である人物の未来の行動を予測し、予測した人物の未来の行動に関連する関連画像を容易に検索することができる。そして、検索した関連画像と、元画像に含まれる人物の画像とを画像合成処理した合成画像を生成することができる。これにより、被写体である人物の未来の行動に関連した画像を楽しむことができる。
【0060】
また、本発明を実施するための形態によれば、生成した合成画像を表示部に表示することにより、すぐに確認することができる。これにより、現在の画像のみではなく、合成画像をすぐに楽しむことができる。
【0061】
なお、本実施形態においては、関連画像を検出するための人物特徴情報として、服装や持ち物の情報を抽出する場合の例について説明したが、人物特徴情報として抽出する情報は、本実施形態に限定されるものではなく、関連画像データベース9に記憶している画像を検索するために用いられる情報であれば、どのような情報でもよく、その情報を抽出するための方法も本実施形態に限定されるものではない。
【0062】
また、本実施形態においては、画像生成システムをデジタルスチルカメラなどの撮像装置に適用した場合について説明したが、画像生成システムを適用するシステムは、本実施形態に限定されるものではなく、どのようなシステムも適用することができる。また、画像生成システムのみを単独で構成し、すでに用意してある元画像に含まれる被写体と、関連画像とを合成した合成画像を生成する構成とすることもできる。
【0063】
以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。
【符号の説明】
【0064】
100・・・画像生成システム
1・・・制御部(画像生成システム)
2・・・撮影部
3・・・画像信号処理部(撮影部)
4・・・人物判断部(人物抽出部)
5・・・人物抽出部(人物抽出部)
6・・・位置情報取得部
7・・・時間情報取得部
8・・・画像認識部
9・・・関連画像データベース(画像検索部)
10・・・画像合成部
11・・・記録部
12・・・出力部(表示部)
13・・・表示部(表示部)

【特許請求の範囲】
【請求項1】
被写体の撮影を行う撮影部と、
前記撮像部が撮影した画像中の被写体として人物が写っているか否か判断し、被写体として人物が写っている場合には、前記画像中の人物の領域の画像データを人物画像として抽出する人物抽出部と、
前記撮像部が撮影したときの撮影場所を表す位置情報を取得する位置情報取得部と、
前記撮像部が撮影したときの時間を表す時間情報を取得する時間情報取得部と、
前記人物抽出部によって抽出された前記人物の特徴を表す特徴情報を抽出する画像認識部と、
前記位置情報取得部が取得した前記位置情報と、前記時間情報取得部が取得した前記時間情報と、前記画像認識部が抽出した前記特徴情報とに基づいて、所定の画像データベースを検索する画像検索部と、
前記人物画像と、前記画像検索部によって検索された画像データとを合成した合成画像を生成する画像合成部と、
を備えることを特徴とする画像生成システム。
【請求項2】
前記画像認識部によって抽出される前記特徴情報は、
前記撮像部が撮影した被写体である人物の服装および持ち物を表す情報である、
ことを特徴とする請求項1に記載の画像生成システム。
【請求項3】
前記位置情報取得部は、
前記撮影部が撮影する位置を認識する位置認識センサを具備する、
ことを特徴とする請求項2に記載の画像生成システム。
【請求項4】
前記画像合成部によって生成された前記合成画像を記録する記録部、
を、さらに備える、
ことを特徴とする請求項3に記載の画像生成システム。
【請求項5】
前記画像合成部によって生成された前記合成画像を表示する表示部、
を、さらに備える、
ことを特徴とする請求項4に記載の画像生成システム。
【請求項6】
撮像部が被写体の撮影を行う撮影ステップと、
前記撮像部が撮影した画像中の被写体として人物が写っているか否か判断し、被写体として人物が写っている場合には、前記画像中の人物の領域の画像データを人物画像として抽出する人物抽出ステップと、
前記撮像部が撮影したときの撮影場所を表す位置情報を取得する位置情報取得ステップと、
前記撮像部が撮影したときの時間を表す時間情報を取得する時間情報取得ステップと、
前記人物抽出ステップによって抽出された前記人物の特徴を表す特徴情報を抽出する画像認識ステップと、
前記位置情報取得ステップによって取得した前記位置情報と、前記時間情報取得ステップによって取得した前記時間情報と、前記画像認識ステップによって抽出した前記特徴情報とに基づいて、所定の画像データベースを検索する画像検索ステップと、
前記人物画像と、前記画像検索ステップによって検索された画像データとを合成した合成画像を生成する画像合成ステップと、
を含むことを特徴とする画像生成方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2012−118620(P2012−118620A)
【公開日】平成24年6月21日(2012.6.21)
【国際特許分類】
【出願番号】特願2010−265540(P2010−265540)
【出願日】平成22年11月29日(2010.11.29)
【出願人】(000000376)オリンパス株式会社 (11,466)
【Fターム(参考)】