説明

画像処理装置、画像処理方法、および画像処理プログラム

【課題】ユーザが文章を入力するだけで、ユーザ自身が訪問した場所の適切な画像を抽出して、文章と共に出力する。
【解決手段】本発明に係る画像処理装置は、ユーザの行動履歴を格納する行動履歴格納部と、ユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像を格納する画像格納部と、入力された文章から時間を示すキーワードを抽出する時間キーワード抽出部と、抽出したキーワードが示す時間における、ユーザの場所を示すキーワードを場所キーワード格納部から抽出する行動キーワード抽出部と、抽出したキーワードに対応づけて画像格納部が格納している画像を抽出する画像抽出部と、出した画像を入力された文章とともに出力する画像出力部とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理方法、および画像処理プログラムに関する。特に、本発明は、入力された文章と共に画像を出力する画像処理装置、画像処理方法、および画像処理プログラムに関する。
【背景技術】
【0002】
文書の文字列に適合した画像を容易に選択することを目的とした文書作成装置が提案されている(例えば、特許文献1参照。)。特許文献1に記載の発明では、画像を挿入した文章を作成する場合に、まず、使用者が入力した文字列の属性を決定する。そして、予め文字列の属性に対応付けられた画像の中から、使用者が入力した文字列の属性と一致する複数の画像を抽出する。続いて、抽出した複数の画像を一覧表示してユーザにユーザが使用を所望する画像を選択させる。
【特許文献1】特開2000−172688号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
特許文献1に記載の発明においては、文章に含まれる文字列の属性に対応付けられた画像を抽出する。しかしながら、特許文献1に記載の発明では、ユーザ自身が訪問した場所の画像を抽出することを所望した場合には、ユーザ自身が、訪問した時期および場所を正確に特定できる文章を入力しなければならないので、ユーザが入力する文章の自由度が制限され、ユーザが真に表現を欲する文章が記載できない場合がある。
【0004】
そこで本発明は、上記課題を解決することができる画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
【課題を解決するための手段】
【0005】
上記課題を解決するために、本発明の第1の形態においては、画像処理装置であって、ユーザの行動履歴を格納する行動履歴格納部と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像を格納する画像格納部と、入力された文章から時間を示すキーワードを抽出する時間キーワード抽出部と、時間キーワード抽出部が抽出したキーワードが示す時間における、ユーザの場所を示すキーワードを場所キーワード格納部から抽出する行動キーワード抽出部と、行動キーワード抽出部が抽出したキーワードに対応づけて画像格納部が格納している画像を抽出する画像抽出部と、画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部とを備える。
【0006】
また、画像格納部が格納している画像の付帯情報に基づいて画像内のオブジェクト又は背景の場所を示すキーワードを生成するキーワード生成部と、キーワード生成部が生成したキーワードを、画像に対応づけて画像格納部に格納させるキーワード付与部とをさらに備えてもよい。また、時刻に対応づけて当該時刻にユーザが所在した位置を格納する行動履歴格納部が格納しているユーザが所在した位置を含む領域ごとに、当該領域にユーザが訪問した回数を算出する訪問回数算出部と、訪問回数算出部が算出した訪問回数がより多い領域に、より大きい重み付けする訪問位置重み付け部とをさらに備え、行動キーワード抽出部は、時間キーワード抽出部が抽出したキーワードが示す時間に対応づけて場所キーワード格納部が格納しているユーザの場所を示すキーワードのうち、訪問位置重み付け部が重み付けした重みが最も大きい領域に含まれる場所を示すキーワードを、場所キーワード格納部から抽出してもよい。
【0007】
更に、行動履歴格納部が格納しているユーザの行動履歴から、ユーザが所在した位置を含む領域ごとの滞在時間を算出する滞在時間算出部をさらに備え、行動キーワード抽出部は、時間キーワード抽出部が抽出した時間を示すキーワードに対応づけて場所キーワード格納部が格納しているユーザの場所を示すキーワードのうち、滞在時間算出部が算出した滞在時間が最も長い領域に含まれる場所を示すキーワードを、場所キーワード格納部から抽出してもよい。そして、時間キーワード抽出部が抽出したキーワードが示す時間を含む所定の時間間隔におけるユーザの行動範囲を求める行動範囲算出部をさらに備え、行動キーワード抽出部は、行動範囲算出部が算出したユーザの行動範囲がより広いほど、場所キーワード格納部からより広い場所を示すキーワードを抽出してもよい。
【0008】
また、入力された文章から場所を示すキーワードを抽出する場所キーワード抽出部と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する時間キーワード格納部とを更に備え、画像格納部は、時間を示すキーワードに更に対応づけて画像を格納し、行動キーワード抽出部は、場所キーワード抽出部が抽出した場所を示すキーワードに対応づけられて場所キーワード格納部が格納している時刻に対応づけて時間キーワード格納部が格納している時間を示すキーワードを更に抽出し、画像抽出部は、行動キーワード抽出部が抽出した時間を示すキーワード、および場所キーワード抽出部が抽出した場所を示すキーワードに対応づけて画像格納部が格納している画像を抽出してもよい。そして、画像格納部が格納している画像の付帯情報に基づいて画像の時間を示すキーワードを生成するキーワード生成部と、キーワード生成部が生成したキーワードを、画像に対応づけて画像格納部に格納させるキーワード付与部とをさらに備えてもよい。
【0009】
また、本発明の第2の形態においては、画像処理方法であって、ユーザの行動履歴を行動履歴格納部に格納する行動履歴格納段階と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを場所キーワード格納部に格納する場所キーワード格納段階と、画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像を画像格納部に格納する画像格納段階と、入力された文章から時間を示すキーワードを抽出する時間キーワード抽出段階と、時間キーワード抽出段階が抽出したキーワードが示す時間における、ユーザの場所を示すキーワードを場所キーワード格納部から抽出する行動キーワード抽出段階と、行動キーワード抽出段階が抽出したキーワードに対応づけて画像格納部が格納している画像を抽出する画像抽出段階と、画像抽出段階が抽出した画像を、入力された文章とともに出力する画像出力段階とを備える。
【0010】
また、本発明の第3の形態においては、入力された文章と共に画像を出力する画像処理装置用の画像処理プログラムであって、画像処理装置を、ユーザの行動履歴を格納する行動履歴格納部と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像を格納する画像格納部と、入力された文章から時間を示すキーワードを抽出する時間キーワード抽出部と、時間キーワード抽出部が抽出したキーワードが示す時間における、ユーザの場所を示すキーワードを場所キーワード格納部から抽出する行動キーワード抽出部と、行動キーワード抽出部が抽出したキーワードに対応づけて画像格納部が格納している画像を抽出する画像抽出部と、画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部として機能させる。
【0011】
また、本発明の第4の形態においては、画像処理装置であって、ユーザの行動履歴を格納する行動履歴格納部と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する時間キーワード格納部と、場所を示すキーワードおよび時間を示すキーワードに対応づけて、画像を格納する画像格納部と、入力された文章から場所を示すキーワードを抽出する場所キーワード抽出部と、場所キーワード抽出部が抽出した場所を示すキーワードに対応づけられて場所キーワード格納部が格納している時刻に対応づけて時間キーワード格納部が格納している時間を示すキーワードを抽出する行動キーワード抽出部と、行動キーワード抽出部が抽出した時間を示すキーワードおよび場所キーワード抽出部が抽出した場所を示すキーワードに対応づけて画像格納部が格納している画像を抽出する画像抽出部と、画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部とを備える。
【0012】
また、本発明の第5の形態においては、画像処理方法であって、ユーザの行動履歴を行動履歴格納部に格納する行動履歴格納段階と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを場所キーワード格納部に格納する場所キーワード格納段階と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを時間キーワード格納部に格納する時間キーワード格納段階と、場所を示すキーワードおよび時間を示すキーワードに対応づけて、画像を画像格納部に格納する画像格納段階と、入力された文章から場所を示すキーワードを抽出する場所キーワード抽出段階と、場所キーワード抽出段階が抽出した場所を示すキーワードに対応づけられて場所キーワード格納部が格納している時刻に対応づけて時間キーワード格納部が格納している時間を示すキーワードを抽出する行動キーワード抽出段階と、行動キーワード抽出段階が抽出した時間を示すキーワードおよび場所キーワード抽出段階が抽出した場所を示すキーワードに対応づけて画像格納部が格納している画像を抽出する画像抽出段階と、画像抽出段階が抽出した画像を、入力された文章とともに出力する画像出力段階とを備える。
【0013】
また、本発明の第6の形態においては、入力された文章と共に画像を出力する画像処理装置用の画像処理プログラムであって、画像処理装置を、ユーザの行動履歴を格納する行動履歴格納部と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する時間キーワード格納部と、場所を示すキーワードおよび時間を示すキーワードに対応づけて、画像を格納する画像格納部と、入力された文章から場所を示すキーワードを抽出する場所キーワード抽出部と、場所キーワード抽出部が抽出した場所を示すキーワードに対応づけられて場所キーワード格納部が格納している時刻に対応づけて時間キーワード格納部が格納している時間を示すキーワードを抽出する行動キーワード抽出部と、行動キーワード抽出部が抽出した時間を示すキーワードおよび場所キーワード抽出部が抽出した場所を示すキーワードに対応づけて画像格納部が格納している画像を抽出する画像抽出部と、画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部として機能させる。
【0014】
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。
【発明の効果】
【0015】
本発明は、ユーザの行動履歴を予め格納する。そして、ユーザが入力した文章から時間を示すキーワードを抽出して、抽出した時間を示すキーワードに対応する時間においてユーザが所在した場所の画像を自動的に抽出して出力することができる。これにより、ユーザが文章を入力するだけで、ユーザ自身が訪問等した時期における、ユーザが訪問した場所の適切な画像を的確に抽出して、文章とともに出力することができる。
【発明を実施するための最良の形態】
【0016】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0017】
図1は、本発明の一実施形態に係る画像処理装置10の機能構成の一例を示す。画像処理装置10は、文章入力部100、画像入力部102、行動履歴格納部110、訪問回数算出部112、訪問位置重み付け部114、滞在時間算出部116、行動範囲算出部118、時間キーワード抽出部120、場所キーワード抽出部122、場所キーワード格納部130、時間キーワード格納部132、行動キーワード抽出部140、画像抽出部150、画像格納部160、キーワード生成部170、キーワード付与部172、および画像出力部180を備える。本実施形態に係る画像処理装置10は、ユーザの行動履歴を予め格納する。そして、ユーザが入力した文章から時間を示すキーワードを抽出して、抽出した時間においてユーザが所在した場所の画像を自動的に抽出して出力することにより、ユーザが文章を入力するだけで、ユーザ自身が訪問等した時期における、ユーザが訪問等した場所の適切な画像を的確に抽出して、文章とともに出力することを目的とする。
【0018】
文章入力部100は、画像処理装置10に文章を入力する。文章入力部100は、入力した文章を時間キーワード抽出部120、場所キーワード抽出部122、および画像出力部180に供給する。画像入力部102は、画像処理装置10に画像を入力する。画像入力部102は、入力した画像を画像格納部160に供給する。行動履歴格納部110は、ユーザの行動履歴を格納する。行動履歴格納部110は、ユーザの行動履歴として、時刻に対応づけて当該時刻にユーザが所在した位置を格納してよい。また、行動履歴格納部110は、ユーザを一意に識別できる識別子に対応づけて、ユーザごとの行動履歴を格納してもよい。行動履歴格納部110は、訪問回数算出部112の制御に基づいて、訪問回数算出部112に時刻および当該時刻に対応付けて行動履歴格納部110が格納している位置の情報を供給する。また、行動履歴格納部110は、時刻および当該時刻に対応付けた行動履歴格納部110が格納している位置の情報を、場所キーワード格納部130に供給する。更に、行動履歴格納部110は、ユーザの行動履歴の時刻を時間キーワード格納部132に供給する。
【0019】
場所キーワード格納部130は、行動履歴格納部110が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する。場所キーワード格納部130は、ユーザを一意に識別できる識別子を更に対応づけて、ユーザごとの場所を示すキーワードを格納してもよい。また、場所キーワード格納部130は、ユーザの行動履歴の時刻に対応づけて、当該時刻においてユーザが所在した場所を示すキーワードとして、当該場所を含む複数の場所を示すキーワードを格納してもよい。例えば、ユーザが所在した場所を含む国名、地域名、都市名、名勝地名、ランドマーク名、およびユーザが訪問した店名等の場所を示す複数のキーワードを格納してよい。場所キーワード格納部130は、行動キーワード抽出部140の制御に基づいて、ユーザの場所を示すキーワードを行動キーワード抽出部140に供給する。
【0020】
時間キーワード格納部132は、行動履歴格納部110から受け取ったユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する。時間キーワード格納部132は、行動キーワード抽出部140の制御に基づいて、時間を示すキーワードを行動キーワード抽出部140に供給する。また、時間キーワード抽出部120は、画像抽出部150の制御に基づいて、時間を示すキーワードを画像抽出部150に供給してもよい。画像格納部160は、画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像入力部102から受け取った画像を格納する。また、画像格納部160は、時間を示すキーワードに更に対応づけて画像を格納してよい。画像格納部160は、キーワード生成部170の制御に基づいて画像をキーワード生成部170に供給する。また、画像格納部160は、画像抽出部150の制御に基づいて、画像を画像抽出部150に供給する。
【0021】
キーワード生成部170は、画像格納部160が格納している画像の付帯情報に基づいて、画像内のオブジェクトまたは背景の場所を示すキーワードを生成する。なお、付帯情報は、例えば、画像が撮像画像の場合には、当該画像の撮像日時、撮像場所、撮像モード(接写モード、ポートレートモード、および夜景モード等)、および撮像条件(明度、彩度、および合焦距離等)等であってよい。また、撮像場所は、画像が撮像された位置の緯度経度を示す情報であってよい。また、付帯情報は、画像がユーザが作成した画像の場合には、当該画像に対応づけてユーザが付帯したファイル名、画像の内容を示すキーワード、および作成日時等であってよい。具体的には、キーワード生成部170は、画像格納部160が格納している画像に付帯されている付帯情報を抽出する。例えば、キーワード生成部170は画像に付帯されている画像の位置の情報を抽出する。そして、キーワード生成部170は、抽出した位置の情報に基づいて、当該位置を示すキーワードを生成する。なお、位置を示すキーワードは、当該画像に含まれるオブジェクトおよび背景等のが存在する国名、地域名、地方名、地名、都市名、名勝地の地名、ランドマーク名、およびユーザが訪問した店名等であってよい。
【0022】
また、キーワード生成部170は、画像格納部160が格納している画像の付帯情報に基づいて、画像の時間を示すキーワードを生成してもよい。具体的には、キーワード生成部170は、画像格納部160が格納している画像に付帯されている付帯情報を抽出して、抽出した付帯情報に含まれる、時間を示す情報を示すキーワードを生成してよい。例えば、キーワード生成部170は、画像にユーザが付帯した画像の内容を示す情報が「春の五稜郭」である場合には、「春」を時間を示すキーワードとして生成してよい。また、キーワード生成部170は、画像が撮像画像である場合には、撮像画像に付帯されている撮像日時から、当該日時を含む季節名を時間を示すキーワードとして生成してもよい。キーワード生成部170は、生成したキーワードをキーワード付与部172に供給する。キーワード付与部172は、キーワード生成部170から受け取ったキーワードを、画像に対応づけて画像格納部160に格納させる。また、キーワード付与部172は、ユーザが入力したキーワードを画像に対応づけて画像格納部160に格納させてもよい。
【0023】
訪問回数算出部112は、行動履歴格納部110が格納している、ユーザが所在した位置を含む領域ごとに、当該領域にユーザが訪問した回数を算出する。具体的には、まず、訪問回数算出部112は、所定の領域を設定する。なお、訪問回数算出部112が設定する所定の領域は、例えば、地方単位、都市単位、名勝地単位、ランドマーク単位、および店単位等の領域であってよい。そして、訪問回数算出部112は、設定した領域にユーザが訪問した回数を、例えば、年単位、月単位、週単位、日単位、および時間単位等の所定の時間間隔を設定して算出する。訪問回数算出部112は、算出した領域ごとの訪問回数を訪問位置重み付け部114に供給する。訪問位置重み付け部114は、訪問回数算出部112から受け取った訪問回数がより多い領域に、より大きい重みを対応付ける。そして、訪問位置重み付け部114は、領域ごとに重みを対応づけて、行動キーワード抽出部140に領域に対応付けた重みを供給する。これにより、訪問位置重み付け部114は、ユーザが訪問した回数がより多い領域に、より大きな重みを対応付けることができるので、画像処理装置10は、ユーザの関心が高い場所を示す画像を容易に検出することができる。
【0024】
滞在時間算出部116は、行動履歴格納部110が格納しているユーザの行動履歴から、ユーザが所在した位置を含む領域ごとの、ユーザの滞在時間を算出する。具体的には、滞在時間算出部116は、行動履歴格納部110が時刻に対応づけて格納しているユーザが所在した位置を検出する。そして、滞在時間算出部116は、検出した位置ごとにユーザが滞在した時間を、行動履歴格納部110がユーザが所在した位置に対応づけて格納している複数の時刻から算出してよい。なお、滞在時間算出部116は、ユーザが所在した位置を、当該位置の緯度経度から算出してよい。また、滞在時間算出部116は、ユーザが所在した位置を含む所定の範囲を有する領域をユーザが所在した領域として、当該領域にユーザが所在した時間を滞在時間として算出してよい。ユーザが所在した位置を含む領域は、例えば、国単位、地域単位、都市単位、名勝地単位、ランドマーク単位、および店単位であってよい。滞在時間算出部116は、ユーザが所在した位置を含む領域ごとのユーザの滞在時間を行動キーワード抽出部140に供給する。時間キーワード抽出部120は、文章入力部100から受け取った文章から時間を示すキーワードを抽出する。時間を示すキーワードは、画像の撮像年月日、時・分、所定の期間(朝、昼、夜、および夏休み等)、季節、過去の概念を表す単語(昨日、先月、去年、および一昨年等)であってよい。時間キーワード抽出部120は、文章から抽出した時間を示すキーワードを、行動キーワード抽出部140および行動範囲算出部118に供給する。場所キーワード抽出部122は、文章入力部100から受け取った文章から、場所を示すキーワードを抽出する。場所キーワード抽出部122は、抽出した場所を示すキーワードを行動キーワード抽出部140または画像抽出部150に供給する。
【0025】
行動範囲算出部118は、時間キーワード抽出部120が抽出したキーワードが示す時間を含む所定の時間間隔におけるユーザの行動範囲を求める。行動範囲は、所定の時間間隔においてユーザが訪問した位置を全て包含する範囲であってよい。具体的には、行動範囲算出部118は、時間キーワード抽出部120から受け取った時間を示すキーワードに対応する時間におけるユーザの所在位置を、行動履歴格納部110が当該時間に含まれる時刻ごとに対応づけて格納している位置から抽出する。係る場合において行動範囲算出部118は、当該時間間隔に含まれる時刻に対応づけて行動履歴格納部110が格納している位置を、複数抽出してよい。そして、行動範囲算出部118は、抽出したユーザの複数の位置から、ユーザの当該時間間隔における行動範囲を算出する。なお、行動範囲算出部118は、時間キーワード抽出部120が抽出したキーワードが示す時間に基づいて、ユーザの行動範囲を、年単位、月単位、日単位、および時間単位等の所定の時間間隔ごとに算出してよい。行動範囲算出部118は、算出したユーザの行動範囲を行動キーワード抽出部140に供給する。
【0026】
行動キーワード抽出部140は、時間キーワード抽出部120から受け取った、時間を示すキーワードに対応する時間においてユーザが所在した場所を示すキーワードを、場所キーワード格納部130から抽出する。行動キーワード抽出部140は、時間キーワード抽出部120が抽出したキーワードが示す時間に対応づけて場所キーワード格納部130が格納している、ユーザが所在した場所を示すキーワードを複数抽出してよい。例えば、行動キーワード抽出部140は、ユーザが訪問した場所を含む所定の領域内に複数の名勝地等がある場合には、当該複数の名勝地等の地名を示すキーワードを複数抽出してよい。そして、行動キーワード抽出部140は、訪問位置重み付け部114が重み付けした重みが最大の場所を示すキーワードを、場所キーワード格納部130から抽出してよい。これにより、ユーザが多く訪問している場所に対応する場所を示すキーワードを、行動キーワード抽出部140は抽出できるので、画像処理装置10は、ユーザに関心のある場所を容易に把握できる。
【0027】
また、行動キーワード抽出部140は、滞在時間算出部116が算出したユーザの滞在時間が最も長い領域に含まれる場所を示すキーワードを、場所キーワード格納部130から抽出してもよい。具体的には、行動キーワード抽出部140は、滞在時間算出部116から受け取った、ユーザが所在した位置を含む複数の領域ごとにおけるユーザの滞在時間を比較して、滞在時間が最も長い領域に含まれる場所を示すキーワードを、場所キーワード格納部130から抽出する。例えば、行動キーワード抽出部140は、ユーザの滞在時間が最も長い領域に含まれる名勝地およびランドマーク等の名称を、ユーザが所在した場所を示すキーワードとして場所キーワード格納部130から抽出してもよい。これにより、ユーザが興味を持って長時間滞在した場所の、当該場所を示すキーワードを行動キーワード抽出部140は場所キーワード格納部130から抽出することができる。
【0028】
更に、行動キーワード抽出部140は、行動範囲算出部118から受け取ったユーザの行動範囲がより広いほど、場所キーワード格納部130からより広い場所を示すキーワードを抽出してもよい。例えば、所定の時間間隔におけるユーザの移動範囲が広い場合には、当該ユーザは広範囲にわたって移動したと考えられる。係る場合には、行動キーワード抽出部140は、ユーザが移動した範囲を含む領域を示すキーワード、例えば、都市名、名勝地名、およびランドマーク名等の場所を示すキーワードの中から、より広い領域を示すキーワードを、当該範囲を示すキーワードとして抽出してよい。また、行動キーワード抽出部140は、場所キーワード抽出部122が抽出した場所を示すキーワードに対応づけられて場所キーワード格納部130が格納している時刻を抽出する。続いて、行動キーワード抽出部140は、抽出した時刻に対応づけて時間キーワード格納部132が格納している時間を示すキーワードを抽出してよい。行動キーワード抽出部140は、抽出したユーザの場所を示すキーワードおよび時間を示すキーワードを、画像抽出部150に供給する。
【0029】
画像抽出部150は、行動キーワード抽出部140から受け取ったユーザの場所を示すキーワードに対応づけて画像格納部160が格納している画像を抽出する。画像抽出部150は、ユーザの場所を示すキーワードに対応づけて画像格納部160が格納している複数の画像を抽出してもよい。また、画像抽出部150は、行動キーワード抽出部140から受け取った時間を示すキーワードおよび場所を示すキーワードに対応づけて画像格納部160が格納している画像を抽出してもよい。更に、画像抽出部150は、時間キーワード抽出部120および場所キーワード抽出部122から受け取った時間を示すキーワードおよび場所を示すキーワードに対応づけて画像格納部160が格納している画像を抽出してもよい。画像抽出部150は、抽出した画像を画像出力部180に供給する。画像出力部180は、画像抽出部150が抽出した画像を、文章入力部100から受け取った文章と共に出力する。具体的には、画像出力部180は、インターネット上のウェブサイトにおいてウェブページのURLとともに文章等を記録する、ブログ等においてユーザが文章を入力した場合に、ユーザが入力した文章に含まれるキーワードを用いて上記説明で抽出された画像を文章と共に出力する。
【0030】
本実施形態に係る画像処理装置10は、ユーザの行動履歴の時刻に対応づけて、当該時刻にユーザが所在した場所を示すキーワードを格納する。更に、画像処理装置10は、当該場所を示すキーワードに対応づけて画像を格納する。続いて、ユーザが入力した文章から時間を示すキーワードを抽出して、抽出した時間を示すキーワードに対応する時間における、ユーザが所在した場所を示すキーワードを抽出する。そして、抽出した場所を示すキーワードに対応づけられている画像を自動的に抽出して出力することができる。これにより、画像処理装置10は、抽出した画像をユーザが入力した文章とともに自動的に表示できるので、ユーザは、入力した文章に対して違和感を感じることのない適切な画像が挿入された文章を、ユーザ自身が画像を選択することなく作成することができる。
【0031】
図2は、本実施形態に係る行動履歴格納部110の一例を示す。行動履歴格納部110は、ユーザごとに当該ユーザの行動履歴を格納する。具体的には、行動履歴格納部110は、ユーザごとに、ユーザを一意に識別できる識別子および時刻に対応づけて、当該ユーザが当該時刻に所在した位置の緯度経度を格納する。なお、行動履歴格納部110が格納する時刻は、年月日を含む時刻であってよい。
【0032】
ユーザの行動履歴は、例えば、ユーザが携帯するGPS機能付の携帯電話およびGPS機能付の時計等から、時刻ごとにおける当該ユーザが所在する位置の緯度経度を行動履歴格納部110に格納してよい。係る場合においては、GPS機能付の携帯電話およびGPS機能付の時計等がユーザの行動履歴をメモリ等に格納する。そして、ユーザの行動履歴を格納したメモリ等から行動履歴格納部110に、ユーザの行動履歴を格納させてよい。また、ユーザが所有する携帯電話が発信する電波を受信した当該携帯電話の基地局の位置を示す緯度経度を、当該基地局が電波を受信した時刻に対応づけて行動履歴格納部110に格納してもよい。係る場合においては、ユーザの行動履歴を携帯電話の基地局から、インターネット等のネットワークを介して行動履歴格納部110に格納させてよい。なお、ユーザの位置を取得する時間間隔は、ユーザの行動履歴を適切に把握できる時間間隔であってよく、例えば、1時間または2時間等の時間単位、若しくは、10分または30分等の分単位等であってよい。
【0033】
更には、ユーザを一意に識別できる情報を格納したICチップを付帯した、カードおよびキーホルダー等のアクセサリーをユーザが携帯してもよい。そして、ユーザが当該カードおよびキーホルダー等のアクセサリーを、ICチップに格納された情報を読み取る情報読取装置から、当該情報を読み取ることができる所定の範囲内の場所を通過した場合に、ユーザが通過した時刻に対応づけて当該場所の位置を示す緯度経度を、情報読取装置がインターネット等のネットワークを介して行動履歴格納部110に格納させてもよい。また、ユーザが商品等の購入等をした場合に、クレジットカード等で決済した場合には、クレジットカード等の決済装置が、決済をした時刻および場所をインターネット等のネットワークを介して行動履歴格納部110に格納させてもよい。
【0034】
図3は、本実施形態に係る場所キーワード格納部130の一例を示す。場所キーワード格納部130は、行動履歴格納部110が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する。具体的には、場所キーワード格納部130は、行動履歴格納部110が格納している緯度経度に対応する場所を示すキーワードを、行動履歴格納部110が格納しているユーザの行動履歴の時刻に対応づけて格納する。また、場所キーワード格納部130は、所定の時刻に対応づけて、複数の場所を示すキーワードを格納してよい。なお、係る場合において、画像処理装置10は、行動履歴格納部110が格納している緯度経度に、当該緯度経度に対応する場所を示すキーワードを対応付ける、場所キーワード対応付け部を更に備えていてもよい。また、画像処理装置10は、緯度経度に対応づけて場所を示すキーワードを格納している、場所キーワード対応付け用データベースを更に備えてもよい。
【0035】
場所キーワード対応付け部は、行動履歴格納部110が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの位置の緯度経度を抽出する。続いて、場所キーワード対応付け部は、当該緯度経度に対応する場所を示すキーワードを場所キーワード対応付け用データベースから抽出してよい。場所キーワード対応付け部は、当該場所を示すキーワードとして、一または二以上のキーワードを抽出してよい。また、場所キーワード対応付け部は、抽出した緯度経度に対応する場所を示すキーワードを、インターネット等のネットワーク上に備えられているデータベースから抽出してもよい。場所を示すキーワードは、例えば、国単位、地方単位、都市単位、名勝地単位、ランドマーク名単位、および店名単位等ごとに規定されたキーワードであってよく、場所キーワード対応付け部は、所定の緯度経度に対応づけて、複数の場所を示すキーワードを対応づけてよい。そして、場所キーワード対応付け部は、行動履歴格納部110から抽出した緯度経度に対応する一または二以上の場所を示すキーワードを、ユーザの行動履歴の時刻に対応づけて、場所キーワード格納部130に格納させてよい。なお、場所キーワード格納部130は、ユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザが所在した位置を含む領域を示すキーワードとして、当該位置を含む様々な広さの領域を示すキーワードを複数格納してよい。
【0036】
例えば、ユーザが所定の時刻に「五稜郭」に所在した場合を考える。係る場合において、場所キーワード格納部130は、ユーザの行動履歴の所定の時刻に対応づけて、場所を示すキーワードである「五稜郭」、「函館」、「道南」、および「北海道」を格納してよい。また、ユーザが所定の時刻に「函館山」に所在した場合を考える。係る場合において、場所キーワード格納部130は、ユーザの行動履歴の所定の時刻に対応づけて、場所を示すキーワードである「函館山」、「函館」、「道南」、および「北海道」を格納してよい。そして、ユーザが所定の時刻に「大沼」に所在した場合を考える。係る場合において、場所キーワード格納部130は、ユーザの行動履歴の所定の時刻に対応づけて、場所を示すキーワードである「大沼」、「七飯」、「道南」、および「北海道」を格納してよい。更に、ユーザが所定の時刻に「札幌時計台」に所在した場合を考える。係る場合において、場所キーワード格納部130は、ユーザの行動履歴の所定の時刻に対応づけて、場所を示すキーワードである「札幌時計台」、「札幌」、「道央」、および「北海道」を格納してよい。すなわち、場所キーワード格納部130は、時刻に対応づけて、ユーザが所在した地点を示す名称、当該地点を包含する領域の名称、および当該領域を包含する領域であって、当該領域よりも広い範囲を示す名称を、場所を示すキーワードとして格納してよい。
【0037】
図4は、本実施形態に係る画像格納部160の一例を示す。画像格納部160は、画像内のオブジェクトまたは背景の場所を示すキーワードに対応づけて、画像を格納する。なお、画像格納部160は、画像内のオブジェクトまたは背景の場所を示すキーワードに対応づけて、複数の画像を格納してもよい。具体的には、画像格納部160は、キーワード付与部172から受け取ったキーワードを画像に対応づけて格納する。なお、画像格納部160が格納する画像は、ユーザが撮像した画像、画像入力部102を介してインターネット等のネットワークから受け取った画像、および画像処理を施した画像等であってよい。例えば、画像格納部160は、場所を示すキーワードである「五稜郭」に対応づけて、「五稜郭」が含まれる画像300を格納する。また、画像格納部160は、場所を示すキーワードである「函館」に対応づけて、「函館」の代表的な画像320を格納する。更に、画像格納部160は、場所を示すキーワードである「北海道」に対応づけて、「北海道」の代表的な画像340を格納してよい。
【0038】
図5は、本実施形態に係る行動キーワード抽出部140の処理の一例を示す。行動キーワード抽出部140は、行動範囲算出部118が算出したユーザの行動範囲がより広いほど、場所キーワード格納部130からより広い場所を示すキーワードを抽出する。具体的には、行動キーワード抽出部140は、行動範囲算出部118が算出したユーザの行動範囲の全てを包含する領域に対応づけて場所キーワード格納部130が格納する場所を示すキーワードの中から、最も広い領域に対応する場所を示すキーワードを抽出する。
【0039】
例えば、所定の時間間隔において、ユーザが位置910(例えば、函館駅)から位置920(例えば釧路駅)に移動した場合と、ユーザが前記所定の時間間隔と同一の時間間隔において、位置810(例えば、五稜郭)から位置820(例えば、函館山)まで移動した場合とを考える。係る場合において、行動範囲算出部118は、ユーザが位置910から位置920まで移動した場合には、位置910、位置920、及び位置910から位置920までユーザが移動した場合にユーザが訪問した各地点を含む領域を、ユーザの行動範囲900として算出してよい。同様に、行動範囲算出部118は、ユーザが位置810から位置820まで移動した場合には、位置810および位置820を含む領域を、ユーザの行動範囲800として算出してよい。
【0040】
係る場合において、行動キーワード抽出部140は、時間キーワード抽出部120が抽出したキーワードに対応する時間においてユーザが所在した場所を示すキーワードとして、ユーザが行動した領域が行動範囲800と比較してより広い行動範囲900に対して、より広い場所を示すキーワードを抽出する。例えば、行動キーワード抽出部140は、ユーザの行動範囲が行動範囲800よりも広い行動範囲900である場合には、「函館」等の都市を包含する地方名である「北海道」を、ユーザの場所を示すキーワードとして抽出してよい。一方、行動キーワード抽出部140は、ユーザの行動範囲が行動範囲900よりも狭い行動範囲800である場合には、所定の領域を示す地方名である「北海道」等の領域の一部に含まれる都市名の「函館」を、ユーザの場所を示すキーワードとして抽出してよい。そして、行動キーワード抽出部140は抽出したユーザの位置を示すキーワードを画像抽出部150に供給する。画像抽出部150は、行動キーワード抽出部140から受け取ったキーワードに対応づけて画像格納部160が格納する画像を抽出して、画像出力部180に出力させる。
【0041】
本実施形態に係る画像処理装置10によれば、ユーザの行動範囲の広狭に基づいて、当該行動範囲に対応する領域を示すキーワードを適切に抽出できる。これにより、ユーザの場所を示すキーワードとして、ユーザの行動範囲に適した場所を示すキーワードを適切に抽出して、抽出したキーワードに対応する画像を自動的に出力できるので、ユーザは文章を入力するだけで、ユーザ自身が画像の選択をせずに、ユーザが想起しているイメージに適切な画像を文章とともに出力することができる。例えば、ユーザが所定の時間間隔において北海道内を旅行した場合には、ユーザが前記所定の時間間隔と同一の時間間隔で函館を観光した場合に比べて、ユーザの行動範囲が広いので、画像処理装置10は、函館よりも北海道のイメージを的確に表す画像を自動的に抽出できる。
【0042】
図6は、本実施形態に係る時間キーワード格納部132のデータ構造の一例を示す。時間キーワード格納部132は、行動履歴格納部110が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する。なお、時刻とは、年月日を含む時刻であってよい。具体的には、時間キーワード格納部132は、行動履歴格納部110から受け取った時刻を含む時間を示すキーワードを格納する。例えば、時間キーワード格納部132は、行動履歴格納部110から受け取った時刻を含む季節名(春夏秋冬等)、当該時刻を含む所定の時間間隔を示す名(朝、昼、夕方、および晩等) 、および当該時刻を含む月等を、時間を示すキーワードとして格納してよい。また、時間キーワード格納部132は、ユーザごとに当該ユーザを一意に識別できる識別子および時刻に対応づけて、時間を示すキーワードを格納してもよい。
【0043】
図7は、本実施形態に係る画像格納部160のデータ構造の一例を示す。画像格納部160は、場所を示すキーワードおよび時間を示すキーワードに更に対応づけて、画像データを格納する。また、画像格納部160は、画像データに対応づけて更に複数の時間を示すキーワードを格納してもよい。更に、画像格納部160は、同一の場所を示すキーワードに対応づけて、複数の画像および複数の時間を示すキーワードを格納してもよい。例えば、画像格納部160は、画像300が「五稜郭」を含む画像である場合には、画像300に対応づけて、キーワード付与部172により付与された時間を示すキーワード、「○○○○年」、「春」、「4月」、および「朝」等を格納する。
【0044】
図8は、本実施形態に係る画像処理装置10の機能構成の一例を示す。画像処理装置10は、画像選択部152、文章格納部200、文章キーワード頻度算出部202、表現態様重み格納部204、文章キーワード重み決定部206、文章キーワード重み格納部208、画像キーワード抽出部210、重み算出部220、画像キーワード重み格納部230、組み合わせ重み格納部240、画像重み決定部250、頻度算出部252、頻度重み決定部254、位置重み決定部256、大きさ重み決定部258、オブジェクト抽出部270、オブジェクト名付与部272、およびトリミング部280を更に備えてよい。
【0045】
画像格納部160は、画像の内容を示すキーワードに更に対応づけて画像を格納する。画像格納部160は格納している画像を、画像抽出部150、キーワード生成部170、オブジェクト抽出部270、および画像重み決定部250供給する。また、画像格納部160は格納しているキーワードを、画像キーワード重み格納部230および組み合わせ重み格納部240に供給する。キーワード生成部170は、画像格納部160に格納されている画像の付帯情報に基づいて画像の内容を示すキーワードを生成する。具体的には、キーワード生成部170は、画像格納部160が格納している画像に付帯されている付帯情報を抽出する。例えば、夜景モードで撮像された画像に対しては、キーワード生成部170は当該画像に対して「夜」をキーワードとして生成する。また、キーワード生成部170は、画像の撮像日時から画像が撮像された年、または月、若しくは日をキーワードとして生成してよい。また、キーワード生成部170は、画像の撮像日時から、当該画像が撮像された季節をキーワードとして生成してもよい。例えば、キーワード生成部170は、3月から4月に撮像された画像には「春」を、6月から8月に撮像された画像には「夏」を、9月から11月に撮像された画像には「秋」を、そして12月から2月に撮像された画像には「冬」をそれぞれキーワードとして生成してよい。
【0046】
また、キーワード生成部170は、撮像時刻に基づいて「朝」、「昼」、「夕方」、および「夜」等のキーワードを生成してもよい。更に、キーワード生成部170は、撮像場所に基づいて、画像に対して当該画像が撮像された地域名、地名、および都市名等をキーワードとして生成してもよい。そして、キーワード生成部170は、撮像条件に基づいて、例えば、明度が高い場合には「明るい」等を、彩度が高い場合には「鮮やか」又は「派手」等をキーワードとして生成してもよい。更に、キーワード生成部170は、ユーザが作成した画像に付帯された付帯情報に基づいて、画像の内容を示すキーワードを生成してもよい。具体的には、キーワード生成部170は、ユーザが作成した画像に付帯された画像に含まれるオブジェクト名、画像の背景名、および画像の内容が示す時期等を抽出して、画像の内容を示すキーワードを生成してよい。例えば、キーワード生成部170は、ユーザが作成した画像に付帯された付帯情報が「夏の山」である場合には、画像の内容を示すキーワードとして「夏」、「7月」、および「山」等を生成してよい。また、キーワード生成部170は、ユーザが作成した画像に付帯された付帯情報が「紅葉」である場合には、「紅葉」、「秋」、および「10月」等を画像の内容を示すキーワードとして生成してよい。キーワード生成部170は、生成したキーワードをキーワード付与部172に供給する。キーワード付与部172は、キーワード生成部170が生成したキーワードを、画像に対応づけて画像格納部160に格納する。キーワード付与部172は、画像に複数のキーワードを対応づけて、画像格納部160に複数のキーワードを画像に対応づけて格納してもよい。
【0047】
オブジェクト抽出部270は、画像格納部160が格納している画像に含まれるオブジェクトを抽出する。例えば、オブジェクト抽出部270は、エッジ検出等の画像処理を用いてオブジェクトを抽出する。また、オブジェクト抽出部270は、画像の空間周波数成分が予め定められた周波数よりも大きい領域と、当該領域を除く領域とに分けてオブジェクトおよび背景を抽出してもよい。オブジェクト抽出部270は、抽出したオブジェクトをオブジェクト名付与部272に供給する。オブジェクト名付与部272は、オブジェクト抽出部270が抽出したオブジェクトのオブジェクト名を、画像の内容を示すキーワードとして画像に対応付ける。そして、オブジェクト名付与部272は、画像に対応付けたキーワードを画像格納部160に格納させる。
【0048】
例えば、オブジェクト名付与部272は、テンプレート画像に対応づけてオブジェクト名を格納するオブジェクトテンプレートデータベースを有していてもよい。オブジェクト名付与部272は、オブジェクト抽出部270から受け取ったオブジェクトとオブジェクトテンプレートデータベースが格納するテンプレート画像とをマッチングして、マッチしたテンプレート画像に対応づけてオブジェクトテンプレートデータベースが格納しているオブジェクト名を、画像の内容を示すキーワードとして画像に対応付けてよい。例えば、画像に含まれるオブジェクトが猫であることがテンプレート画像とのマッチングにより判明した場合には、オブジェクト名付与部272は、「猫」を画像の内容を示すキーワードとして画像に対応付けてよい。また、オブジェクト名付与部272は、ユーザが入力したキーワードを、画像に対応づけて画像格納部160に格納してもよい。
【0049】
文章格納部200は、複数の文章を予め格納している。具体的には、ユーザが過去に作成した複数の文章を格納する。文章格納部200は、文章を文章キーワード頻度算出部202および表現態様重み格納部204に供給する。文章キーワード頻度算出部202は、文章格納部200から受け取った複数の文章に含まれるキーワードごとに、当該キーワードの数を算出する。例えば、文章キーワード頻度算出部202は、キーワードが「A」である場合には、複数の文章に含まれる「A」というキーワードの数を算出する。文章キーワード頻度算出部202は、算出したキーワードごとのキーワードの数を、文章キーワード重み決定部206に供給する。なお、文章キーワード頻度算出部202が算出する場合のキーワードは、形態素解析等の自然言語処理を用いてキーワードを抽出して、抽出したキーワードごとにキーワードが文章中に出現する回数を算出してよい。
【0050】
表現態様重み格納部204は、文字の書体又は文字のサイズに対応づけて、文字の書体の重み又は文字サイズの重みを格納する。具体的には、表現態様重み格納部204は、明朝体、ゴシック体、および行書体等の書体ごとに対応付けられた重みを格納する。また、表現態様重み格納部204は、文字のサイズ、斜体であるか否か、および太字であるか否か等の文字の表現態様ごとに対応付けられた重みを格納する。ユーザが文字に対して文字の書体又はサイズ等を変更している場合には、ユーザは、当該文字を他の文字と比較してより強調して表示したいと考えている場合が多い。したがって、例えば、表現態様重み格納部204は、文字のサイズが大きい場合には、文字のサイズがより小さい文字のサイズよりも、大きな重みを格納してよい。表現態様重み格納部204は、所定のキーワードの書体又はサイズに対応づけて格納している重みを、文章キーワード重み決定部206に供給する。
【0051】
文章キーワード重み決定部206は、文章キーワード頻度算出部202から受け取ったキーワードごとに、キーワードの数がより多いキーワードにより大きい重みを対応づける。また、文章キーワード重み決定部206は、文章格納部200が格納している文章に含まれる所定のキーワードの書体又は文字サイズに対応づけて表現態様重み格納部204が格納している重みがより大きい場合に、より大きい重みを所定のキーワードに対応付ける。例えば、文章キーワード重み決定部206は、文章キーワード頻度算出部202が算出したキーワードの重みと、当該キーワードの書体およびサイズに対応づけて表現態様重み格納部204が格納している重みとを加算して、当該キーワードの重みを算出してもよい。また、文章キーワード重み決定部206は、キーワードの重みに、当該キーワードの書体等に対応づけて表現態様重み格納部204が格納している重みを係数として乗じて、当該キーワードの重みを算出してもよい。文章キーワード重み決定部206は、キーワードに対応づけて決定した重みを文章キーワード重み格納部208に供給する。文章キーワード重み格納部208は、文章格納部200が格納している文章に含まれるキーワードに対応づけてキーワードの重みを格納する。具体的には、文章キーワード重み格納部208は、文章キーワード重み決定部206が決定したキーワードごとの重みを受け取って格納する。文章キーワード重み格納部208は、画像選択部152にキーワードに対応づけて格納している重みを供給する。
【0052】
これにより、文章キーワード重み決定部206は、ユーザが入力することが多いキーワードに、ユーザが入力することが少ないキーワードに比べてより大きな重みを対応付けることができるので、本実施形態に係る画像処理装置10は、文章に含まれるキーワードに対応付けられた重みを参照することで、ユーザの関心が高く、ユーザが想起することの多いキーワードを的確に把握できる。また、文章キーワード重み決定部206は、ユーザが所定のキーワードに設定した文字の書体又はサイズ等に基づいて、所定のキーワードに重み付けできるので、ユーザが文章を入力している時の関心に応じて、適切な重みを文章に含まれるキーワードに対応付けることもできる。
【0053】
画像キーワード重み格納部230は、画像格納部160が格納しているキーワードに対応づけて、キーワードの重みを格納する。また、画像キーワード重み格納部230は、画像重み決定部250の制御に基づいて、キーワードの重みを格納してもよい。画像キーワード重み格納部230は、キーワードの重みを重み算出部220に供給する。組み合わせ重み格納部240は、画像の内容を示す複数のキーワードの組み合わせに対応づけて、複数のキーワードの組み合わせの重みを格納する。組み合わせ重み格納部240は、複数のキーワードの組み合わせの重みを重み算出部220に供給する。画像重み決定部250は、画像格納部160から受け取った複数の画像に対応付けられたキーワードのそれぞれについて重みを算出して、算出した重みを画像のキーワードに対応づけて画像キーワード重み格納部230に格納させる。具体的には、画像重み決定部250は、頻度算出部252、頻度重み決定部254、位置重み決定部256、および大きさ重み決定部258を有する。
【0054】
頻度算出部252は、画像格納部160が格納している複数の画像において、画像の内容を示すキーワードであるオブジェクト名のオブジェクトごとに、当該オブジェクトが含まれる画像の数を算出する。また、頻度算出部252は、画像格納部160が格納している複数の画像のそれぞれに対応づけられているキーワードについて、画像格納部160が格納している複数の画像に対応づけられている当該キーワードの数を、キーワードごとに算出してもよい。頻度算出部252は、算出したオブジェクトごとの当該オブジェクトが含まれる画像の数、および画像に対応づけられているキーワードごとの当該キーワードが複数の画像に含まれる数を、頻度重み決定部254に供給する。頻度重み決定部254は、頻度算出部252がオブジェクトごとに算出した画像の数がより多いオブジェクト名であるキーワードに対応づけて、より大きい重みを画像キーワード重み格納部230に格納させる。また、頻度重み決定部254は、頻度算出部252がキーワードごとに算出した当該キーワードが複数の画像に含まれる数がより多いキーワードに対応づけて、より大きい重みを画像キーワード重み格納部230に格納させてもよい。
【0055】
これにより、ユーザが所定のオブジェクトを含む画像をより多く所有している場合に、頻度重み決定部254は、当該オブジェクトを含む画像に対してより大きな重みをつけることができるので、ユーザの関心が高いオブジェクトを含む画像に、ユーザの関心が低いオブジェクトを含む画像よりもより大きな重みをつけることができる。
【0056】
位置重み決定部256は、画像格納部160が格納している画像の中心位置からより近いオブジェクトのオブジェクト名であるキーワードに対応づけて、より大きい重みを画像キーワード重み格納部230に格納させる。例えば、位置重み決定部256は、画像に含まれるオブジェクトが画像に対して占める位置を算出する。続いて、位置重み決定部256は、画像の中心位置からオブジェクトへの距離を算出する。そして、位置重み決定部256は、画像の中心位置からオブジェクトへの距離に対応づけて、距離がより近い場合により大きな重みを当該オブジェクトのオブジェクト名であるキーワードに対応づける。ここで、ユーザが画像を撮像もしくは作成する場合には、画像の中心位置に近い領域にユーザが撮像を所望するオブジェクト若しくは画像の作成を所望するオブジェクトが含まれる場合が多い。したがって、本実施形態に係る画像処理装置10は、位置重み決定部256を備えるので、ユーザの関心が高いオブジェクトを含む画像に対して、ユーザの関心が低いオブジェクトを含む画像よりも、より大きな重みを重み付けることができる。
【0057】
大きさ重み決定部258は、画像格納部160が格納している画像に対する大きさがより大きいオブジェクトのオブジェクト名であるキーワードに対応づけて、より大きい重みを画像キーワード重み格納部230に格納させる。例えば、大きさ重み決定部258は、画像の領域の面積と画像に含まれるオブジェクトの面積とを算出する。続いて、大きさ重み決定部258は、オブジェクトの面積が画像に占める割合を算出する。そして、大きさ重み決定部258は、オブジェクトの面積が画像に占める割合に対応づけて、当該割合がより大きい場合により大きな重みを当該オブジェクトのオブジェクト名であるキーワードに対応付けてよい。
【0058】
画像キーワード抽出部210は、ユーザが新たに入力した文章から画像格納部160が格納しているキーワードを抽出する。具体的には、画像キーワード抽出部210は、文章入力部100から受け取った文章を自然言語処理等の処理方法を用いて、文章から画像格納部160が格納しているキーワードを抽出する。画像キーワード抽出部210が抽出するキーワードは、時間を示すキーワードおよび位置を示すキーワードであってよい。画像キーワード抽出部210は、抽出したキーワードを画像抽出部150に供給する。画像抽出部150は、画像キーワード抽出部210が抽出した少なくとも一つのキーワードに対応づけて画像格納部160が格納している画像を抽出する。具体的には、画像抽出部150は、入力された文章に含まれるキーワードの少なくとも一つと同一のキーワードが対応づけられている画像を、画像格納部160から抽出する。画像抽出部150は抽出した画像を画像選択部152に供給する。また、画像抽出部150は、抽出した画像に対応づけて画像格納部160が格納しているキーワードを重み算出部220に供給する。
【0059】
重み算出部220は、画像抽出部150から受け取った画像に対応づけて画像格納部160が格納しているキーワードであって、画像キーワード抽出部210が抽出したキーワードと同一のキーワードに対応づけて画像キーワード重み格納部230が格納しているキーワードの重みを抽出する。そして、重み算出部220は、抽出したキーワードの重みを、画像ごとに合計して合計値を算出する。また、重み算出部220は、画像抽出部150から受け取った画像に対応づけて画像格納部160が格納している複数のキーワードであって、画像キーワード抽出部210が抽出したキーワードと同一のキーワードに対応づけて組み合わせ重み格納部240が格納している複数のキーワードの組み合わせの重みを抽出する。そして、重み算出部220は、抽出した複数のキーワードの組み合わせの重みを、画像ごとに合計して合計値を算出する。更に、重み算出部220は、画像抽出部150から受け取った画像に対応づけて画像格納部160が格納しているキーワードであって、画像キーワード抽出部210が抽出したキーワードと同一のキーワードに対応づけて文章キーワード重み格納部208が格納しているキーワードの重みの合計値を算出してもよい。重み算出部220は、算出した画像ごとの重みを画像選択部152に供給する。
【0060】
画像選択部152は、重み算出部220から受け取った重みの合計値が大きい画像から予め定められた数の画像を、画像抽出部150から受け取った複数の画像から選択する。また、画像選択部152は、重み算出部220から受け取った重みの合計値が予め定められた値より大きい画像を、画像抽出部150から受け取った複数の画像から選択してもよい。更に、画像選択部152は、重み算出部220から受け取った重みの合計値が最大の画像を、画像抽出部150から受け取った複数の画像から選択してもよい。そして、画像選択部152は、重み算出部220から受け取ったキーワードの重みの合計値が同じ画像が複数ある場合には、重み算出部220が算出した複数のキーワードの組み合わせの重みの合計値がより大きい画像を、画像抽出部150から受け取った複数の画像から選択してもよい。また、画像選択部152は、重み算出部220から受け取ったキーワードの重みの合計値が同じ画像が複数ある場合には、重み算出部220が算出した文章キーワード重み格納部208が格納しているキーワードの重みの合計値がより大きい画像を、画像抽出部150から受け取った複数の画像から選択してもよい。これにより、画像抽出部150が、行動キーワード抽出部140から受け取ったユーザの場所を示すキーワードに対応づけて画像格納部160が格納している画像から、複数の画像を抽出した場合でも、ユーザが最も関心を持つ場所の画像を選択できる。画像選択部152は、選択した画像をトリミング部280および画像出力部180に供給する。
【0061】
トリミング部280は、オブジェクト名付与部272が画像に付与したキーワードに対応するオブジェクトを含むように、画像選択部152から受け取った画像をトリミングする。例えば、トリミング部280は、画像に含まれるオブジェクトに対応づけて画像に付帯されている当該オブジェクトの位置情報を用いてトリミングしてよい。また、トリミング部280は、パターンマッチング等の画像処理により、オブジェクト名付与部272が画像に付与したキーワードに対応するオブジェクトを含むように、画像に含まれるオブジェクトをトリミングしてもよい。更に、トリミング部280は、画像に含まれるオブジェクトを拡大および縮小してもよい。トリミング部280は、トリミングした画像を画像出力部180に供給する。画像出力部180は、トリミング部280から受け取ったトリミングした画像を入力された文章とともに出力してもよい。
【0062】
本実施形態に係る画像処理装置10によれば、画像選択部152が画像抽出部150から複数の画像を受け取った場合に、入力された文章に含まれるキーワードであって、画像に対応付けられたキーワードの重みおよび画像に対応付けられた複数のキーワードの組み合わせの重みの合計値を算出する。そして、画像選択部152は、キーワードの重みの合計値が最大の画像、またはキーワードの重みの合計値が同一の画像が複数ある場合には、複数のキーワードの組み合わせの重みの合計値が最大の画像を選択することができる。これにより、画像処理装置10は、画像抽出部150が複数の画像を抽出した場合であっても、ユーザの行動履歴およびユーザが入力した文章の内容に基づいて、ユーザが想起したイメージに最も適した画像を自動的に選択して、文章と共に選択した画像を表示することができる。したがって、ユーザは文章の入力中にユーザ自身が文章に挿入する画像を選択しなくても、自動的にユーザのイメージを的確に表す画像が文章と共に出力されるので、ユーザに思考を中断させることなく、画像が挿入された文章を作成できる。
【0063】
図9は、本実施形態に係る画像格納部160のデータ構造の一例を示す。画像格納部160は、画像の内容を示すキーワードを更に対応づけて画像を格納する。画像格納部160が格納する画像は、ユーザが過去に撮像した画像、インターネット等のネットワークから受け取った画像、およびユーザが作成した画像等であってよい。そして、画像格納部160は、キーワード付与部172およびオブジェクト名付与部272から受け取った少なくとも一つの画像の内容を示すキーワードに対応づけて画像を格納する。更に、画像格納部160は、ユーザが画像に対応づけて入力した画像の内容を示すキーワードを、画像に対応づけて格納してもよい。なお、画像に対応づけて画像格納部160が格納するキーワードは複数であってよい。
【0064】
具体的には、画像格納部160は、画像ごとに、画像の内容を示すキーワードを少なくとも一つ画像に対応づけて格納している。例えば、画像格納部160は、画像300にキーワードA、キーワードB、およびキーワードDを対応づけて格納している。また、画像310にキーワードB、キーワードC、およびキーワードDを対応づけて格納している。更に、画像格納部160は、画像320にキーワードA、キーワードC、およびキーワードFを、画像330にキーワードG、キーワードI、およびキーワードK等を対応づけて格納している。
【0065】
図10は、本実施形態に係る画像キーワード重み格納部230のデータ構造の一例を示す。画像キーワード重み格納部230は、画像格納部160が格納しているキーワードに対応づけてキーワードの重みを格納する。具体的には、画像キーワード重み格納部230は、画像重み決定部250から受け取ったキーワードの重みを、キーワードに対応づけて格納する。例えば、画像キーワード重み格納部230は、キーワードAに重み「3」を対応づけて格納している。また、画像キーワード重み格納部230は、キーワードBに重み「2」を対応づけて格納している。そして、画像キーワード重み格納部230は、キーワードCに重み「1」を対応づけて格納している。更に、画像キーワード重み格納部230は、キーワードDに重み「4」を対応づけて格納している。
【0066】
重み算出部220は、画像に対応付けられたキーワードの重みを、画像キーワード重み格納部230から抽出する。そして、重み算出部220は、当該画像に対応付けられたキーワードの重みの合計値を算出する。例えば、画像キーワード抽出部210が文章入力部100から入力された文章から抽出したキーワードが、キーワード「A」およびキーワード「D」であった場合を考える。係る場合において、画像抽出部150は、キーワード「A」又はキーワード「D」の少なくとも一方が対応づけられている画像を、画像格納部160から抽出する。すなわち、画像抽出部150は、図7の上記説明における画像格納部160から、キーワード「A」又はキーワード「D」の少なくともいずれか一方が対応づけられている画像300、画像310、および画像320を抽出する。
【0067】
そして、重み算出部220は、画像300、画像310、および画像320のそれぞれに対応づけられているキーワード「A」の重みとキーワード「D」の重みとの合計値を画像ごとに算出する。例えば、画像300には、キーワード「A」、キーワード「B」、およびキーワード「D」が対応づけられている。この場合において、画像300に対応づけられているキーワードの中で画像キーワード抽出部210が抽出したキーワードと同一のキーワードは、キーワード「A」およびキーワード「D」であるとする。係る場合に重み算出部220は、画像300の重みをキーワード「A」の重みとキーワード「D」の重みとの合計値である「7」と算出する。同様に重み算出部220は、画像310の重みの合計値を「2」と算出する。また、重み算出部220は、画像320の重みの合計値を「3」と算出する。
【0068】
続いて、画像選択部152は、重み算出部220が算出した画像ごとの重みの合計値を比較して、重みの合計値が最大の画像を選択する。上記した図6および図7の説明においては、重みの合計値が最大である画像300を画像選択部152は選択する。そして、画像出力部180は、画像選択部152が選択した画像300を、ユーザが入力した文章とともに表示する。なお、画像選択部152は、重み算出部220が算出した重みの合計値が大きい画像から予め定められた数の画像を選択してもよい。具体的には、画像選択部152は、重み算出部220が算出した重みの合計値の降順に対応づけて複数の画像を整列して、予め定められた数の画像を重みの合計値が最大の画像から順に選択してもよい。また、画像選択部152は、重み算出部220が算出した重みの合計値が予め定められた値より大きい画像を選択してもよい。係る場合において、画像選択部152が選択する画像は複数あってもよい。
【0069】
本実施形態に係る画像処理装置10によれば、画像選択部152が複数の画像を選択した場合に、ユーザが入力した文章に含まれるキーワードの少なくとも一つと同一のキーワードに対応づけられている画像を抽出して、画像に対応づけられているキーワードの重みを画像ごとに算出する。そして、画像ごとに算出したキーワードの重みの合計値を比較して画像を自動的に選択できるので、画像選択部152が複数の画像を選択した場合であっても、ユーザが想起した画像を適切に選択して、ユーザが入力した文章と共に表示することができる。例えば、本実施形態に係る画像処理装置10によれば、ブログ等においてユーザが入力した文章に含まれるキーワードの重みに基づいて、ユーザが想起している画像を自動的に選択して、文章とともに表示することができる。
【0070】
図11は、本実施形態に係る組み合わせ重み格納部240のデータ構造の一例を示す。組み合わせ重み格納部240は、画像の内容を示す複数のキーワードの組み合わせに対応づけて、複数のキーワードの組み合わせの重みを格納する。具体的には、組み合わせ重み格納部240は、画像に対応づけられている複数のキーワードのキーワード間の関連に基づいて重みを格納している。より具体的には、画像格納部160が格納している複数の画像のうちで、画像に対応づけられている複数のキーワードの組み合わせの数がより多い場合に、当該複数のキーワードの組み合わせにより大きい重みを対応づけて格納する。例えば、ユーザが冬山の画像を頻繁に撮像または作成して、撮像または作成した冬山の複数の画像を画像格納部160に格納している場合を考える。係る場合には、画像格納部160は「冬」および「山」のキーワードに対応付けられた冬山の画像を、「冬」および「山」のキーワードを除くキーワードに対応付けられた画像よりも多く格納しているので、「冬」および「山」のキーワード間の関連が高いとして、「冬」および「山」のキーワードの組み合わせにより大きい重みを対応づけて格納してよい。
【0071】
例えば、組み合わせ重み格納部240は、キーワード「A」とキーワード「B」の組み合わせに重み「4」を対応づけて格納している。また、組み合わせ重み格納部240は、キーワード「A」とキーワード「D」の組み合わせに重み「3」を対応づけて格納している。同様に、組み合わせ重み格納部240は、キーワード「A」とキーワード「F」の組み合わせに重み「2」を、キーワード「B」とキーワード「D」の組み合わせに重み「5」を、およびキーワード「D」とキーワード「F」の組み合わせに重み「1」を対応づけて格納している。なお、組み合わせ重み格納部240は、二つのキーワードの組み合わせに限らず、少なくとも二つ以上の複数のキーワードの組み合わせに対応づけて重みを格納してよい。また、画像処理装置10は、複数のキーワード間の組み合わせの重みを決定する組み合わせ重み決定部を更に備えていてもよい。組み合わせ重み決定部は、画像に対応付けられた複数のキーワードの組み合わせの数を算出して、複数のキーワードの組み合わせの数がより多い組み合わせに、複数のキーワードの組み合わせの数がより少ない組み合わせよりも大きい重みを対応づけてよい。
【0072】
図12は、本実施形態に係る画像処理装置10のハードウェア構成の一例を示す。本実施形態に係る画像処理装置10は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有するレガシー入出力部とを備える。
【0073】
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510及びRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
【0074】
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。通信インターフェイス1530は、ネットワークを介して他の装置と通信する。ハードディスクドライブ1540は、画像処理装置10内のCPU1505が使用するプログラム及びデータを格納する。CD−ROMドライブ1560は、CD−ROM1595からプログラム又はデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。
【0075】
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理装置10が起動時に実行するブート・プログラム、画像処理装置10のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラム又はデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
【0076】
RAM1520を介してハードディスクドライブ1540に提供される画像処理プログラムは、フレキシブルディスク1590、CD−ROM1595、又はICカード等の記録媒体に格納されて利用者によって提供される。画像処理プログラムは、記録媒体から読み出され、RAM1520を介して画像処理装置10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。画像処理装置10にインストールされて実行される画像処理プログラムは、CPU1505等に働きかけて、画像処理装置10を、図1から図9にかけて説明した文章入力部100、画像入力部102、行動履歴格納部110、訪問回数算出部112、訪問位置重み付け部114、滞在時間算出部116、行動範囲算出部118、時間キーワード抽出部120、場所キーワード抽出部122、場所キーワード格納部130、時間キーワード格納部132、行動キーワード抽出部140、画像抽出部150、画像選択部152、画像格納部160、キーワード生成部170、キーワード付与部172、画像出力部180、画像選択部152、文章格納部200、文章キーワード頻度算出部202、表現態様重み格納部204、文章キーワード重み決定部206、文章キーワード重み格納部208、画像キーワード抽出部210、重み算出部220、画像キーワード重み格納部230、組み合わせ重み格納部240、画像重み決定部250、頻度算出部252、頻度重み決定部254、位置重み決定部256、大きさ重み決定部258、オブジェクト抽出部270、オブジェクト名付与部272、およびトリミング部280として機能させる。
【0077】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【図面の簡単な説明】
【0078】
【図1】画像処理装置10の機能構成を示すブロック図である。
【図2】行動履歴格納部110を示す図である。
【図3】場所キーワード格納部130を示す図である。
【図4】画像格納部160を示す図である。
【図5】行動キーワード抽出部140の処理を示す図である。
【図6】時間キーワード格納部132を示す図である。
【図7】画像格納部160を示す図である。
【図8】画像処理装置10の機能構成を示すブロック図である。
【図9】画像格納部160を示す図である。
【図10】画像キーワード重み格納部230を示す図である。
【図11】組み合わせ重み格納部240を示す図である。
【図12】画像処理装置10のハードウェア構成を示すブロック図である。
【符号の説明】
【0079】
10 画像処理装置
100 文章入力部
102 画像入力部
110 行動履歴格納部
112 訪問回数算出部
114 訪問位置重み付け部
116 滞在時間算出部
118 行動範囲算出部
120 時間キーワード抽出部
122 場所キーワード抽出部
130 場所キーワード格納部
132 時間キーワード格納部
140 行動キーワード抽出部
150 画像抽出部
152 画像選択部
160 画像格納部
170 キーワード生成部
172 キーワード付与部
180 画像出力部
200 文章格納部
202 文章キーワード頻度算出部
204 表現態様重み格納部
206 文章キーワード重み決定部
208 文章キーワード重み格納部
210 画像キーワード抽出部
220 重み算出部
230 画像キーワード重み格納部
240 組み合わせ重み格納部
250 画像重み決定部
252 頻度算出部
254 頻度重み決定部
256 位置重み決定部
258 大きさ重み決定部
270 オブジェクト抽出部
272 オブジェクト名付与部
280 トリミング部
300、310、320、330、340 画像
800 行動範囲
810、820 位置
900 行動範囲
910、920 位置
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示装置
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM

【特許請求の範囲】
【請求項1】
ユーザの行動履歴を格納する行動履歴格納部と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、
画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像を格納する画像格納部と、
入力された文章から時間を示すキーワードを抽出する時間キーワード抽出部と、
前記時間キーワード抽出部が抽出したキーワードが示す時間における、ユーザの場所を示すキーワードを前記場所キーワード格納部から抽出する行動キーワード抽出部と、
前記行動キーワード抽出部が抽出したキーワードに対応づけて前記画像格納部が格納している画像を抽出する画像抽出部と、
前記画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部と
を備える画像処理装置。
【請求項2】
前記画像格納部が格納している画像の付帯情報に基づいて画像内のオブジェクト又は背景の場所を示すキーワードを生成するキーワード生成部と、
前記キーワード生成部が生成したキーワードを、画像に対応づけて前記画像格納部に格納させるキーワード付与部と
をさらに備える請求項1に記載の画像処理装置。
【請求項3】
時刻に対応づけて当該時刻にユーザが所在した位置を格納する前記行動履歴格納部が格納しているユーザが所在した位置を含む領域ごとに、当該領域にユーザが訪問した回数を算出する訪問回数算出部と、
前記訪問回数算出部が算出した訪問回数がより多い領域に、より大きい重み付けする訪問位置重み付け部と
をさらに備え、
前記行動キーワード抽出部は、前記時間キーワード抽出部が抽出したキーワードが示す時間に対応づけて前記場所キーワード格納部が格納しているユーザの場所を示すキーワードのうち、前記訪問位置重み付け部が重み付けした重みが最も大きい領域に含まれる場所を示すキーワードを、前記場所キーワード格納部から抽出する
請求項1に記載の画像処理装置。
【請求項4】
前記行動履歴格納部が格納しているユーザの行動履歴から、ユーザが所在した位置を含む領域ごとの滞在時間を算出する滞在時間算出部
をさらに備え、
前記行動キーワード抽出部は、前記時間キーワード抽出部が抽出した時間を示すキーワードに対応づけて前記場所キーワード格納部が格納しているユーザの場所を示すキーワードのうち、前記滞在時間算出部が算出した滞在時間が最も長い領域に含まれる場所を示すキーワードを、前記場所キーワード格納部から抽出する
請求項1に記載の画像処理装置。
【請求項5】
前記時間キーワード抽出部が抽出したキーワードが示す時間を含む所定の時間間隔におけるユーザの行動範囲を求める行動範囲算出部
をさらに備え、
前記行動キーワード抽出部は、前記行動範囲算出部が算出したユーザの行動範囲がより広いほど、前記場所キーワード格納部からより広い場所を示すキーワードを抽出する
請求項1に記載の画像処理装置。
【請求項6】
入力された文章から場所を示すキーワードを抽出する場所キーワード抽出部と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する時間キーワード格納部と
を更に備え、
前記画像格納部は、時間を示すキーワードに更に対応づけて画像を格納し、
前記行動キーワード抽出部は、前記場所キーワード抽出部が抽出した場所を示すキーワードに対応づけられて前記場所キーワード格納部が格納している時刻に対応づけて前記時間キーワード格納部が格納している時間を示すキーワードを更に抽出し、
前記画像抽出部は、前記行動キーワード抽出部が抽出した時間を示すキーワード、および前記場所キーワード抽出部が抽出した場所を示すキーワードに対応づけて前記画像格納部が格納している画像を抽出する
請求項1に記載の画像処理装置。
【請求項7】
前記画像格納部が格納している画像の付帯情報に基づいて画像の時間を示すキーワードを生成するキーワード生成部と、
前記キーワード生成部が生成したキーワードを、画像に対応づけて前記画像格納部に格納させるキーワード付与部と
をさらに備える請求項6に記載の画像処理装置。
【請求項8】
ユーザの行動履歴を行動履歴格納部に格納する行動履歴格納段階と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを場所キーワード格納部に格納する場所キーワード格納段階と、
画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像を画像格納部に格納する画像格納段階と、
入力された文章から時間を示すキーワードを抽出する時間キーワード抽出段階と、
前記時間キーワード抽出段階が抽出したキーワードが示す時間における、ユーザの場所を示すキーワードを前記場所キーワード格納部から抽出する行動キーワード抽出段階と、
前記行動キーワード抽出段階が抽出したキーワードに対応づけて前記画像格納部が格納している画像を抽出する画像抽出段階と、
前記画像抽出段階が抽出した画像を、入力された文章とともに出力する画像出力段階と
を備える画像処理方法。
【請求項9】
入力された文章と共に画像を出力する画像処理装置用の画像処理プログラムであって、前記画像処理装置を、
ユーザの行動履歴を格納する行動履歴格納部と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、
画像内のオブジェクト又は背景の場所を示すキーワードに対応づけて、画像を格納する画像格納部と、
入力された文章から時間を示すキーワードを抽出する時間キーワード抽出部と、
前記時間キーワード抽出部が抽出したキーワードが示す時間における、ユーザの場所を示すキーワードを前記場所キーワード格納部から抽出する行動キーワード抽出部と、
前記行動キーワード抽出部が抽出したキーワードに対応づけて前記画像格納部が格納している画像を抽出する画像抽出部と、
前記画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部
として機能させる画像処理プログラム。
【請求項10】
ユーザの行動履歴を格納する行動履歴格納部と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する時間キーワード格納部と、
場所を示すキーワードおよび時間を示すキーワードに対応づけて、画像を格納する画像格納部と、
入力された文章から場所を示すキーワードを抽出する場所キーワード抽出部と、
前記場所キーワード抽出部が抽出した場所を示すキーワードに対応づけられて前記場所キーワード格納部が格納している時刻に対応づけて前記時間キーワード格納部が格納している時間を示すキーワードを抽出する行動キーワード抽出部と、
前記行動キーワード抽出部が抽出した時間を示すキーワードおよび前記場所キーワード抽出部が抽出した場所を示すキーワードに対応づけて前記画像格納部が格納している画像を抽出する画像抽出部と、
前記画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部と
を備える画像処理装置。
【請求項11】
ユーザの行動履歴を行動履歴格納部に格納する行動履歴格納段階と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを場所キーワード格納部に格納する場所キーワード格納段階と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを時間キーワード格納部に格納する時間キーワード格納段階と、
場所を示すキーワードおよび時間を示すキーワードに対応づけて、画像を画像格納部に格納する画像格納段階と、
入力された文章から場所を示すキーワードを抽出する場所キーワード抽出段階と、
前記場所キーワード抽出段階が抽出した場所を示すキーワードに対応づけられて前記場所キーワード格納部が格納している時刻に対応づけて前記時間キーワード格納部が格納している時間を示すキーワードを抽出する行動キーワード抽出段階と、
前記行動キーワード抽出段階が抽出した時間を示すキーワードおよび前記場所キーワード抽出段階が抽出した場所を示すキーワードに対応づけて前記画像格納部が格納している画像を抽出する画像抽出段階と、
前記画像抽出段階が抽出した画像を、入力された文章とともに出力する画像出力段階と
を備える画像処理方法。
【請求項12】
入力された文章と共に画像を出力する画像処理装置用の画像処理プログラムであって、前記画像処理装置を、
ユーザの行動履歴を格納する行動履歴格納部と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻におけるユーザの場所を示すキーワードを格納する場所キーワード格納部と、
前記行動履歴格納部が格納しているユーザの行動履歴の時刻に対応づけて、当該時刻を含む時間を示すキーワードを格納する時間キーワード格納部と、
場所を示すキーワードおよび時間を示すキーワードに対応づけて、画像を格納する画像格納部と、
入力された文章から場所を示すキーワードを抽出する場所キーワード抽出部と、
前記場所キーワード抽出部が抽出した場所を示すキーワードに対応づけられて前記場所キーワード格納部が格納している時刻に対応づけて前記時間キーワード格納部が格納している時間を示すキーワードを抽出する行動キーワード抽出部と、
前記行動キーワード抽出部が抽出した時間を示すキーワードおよび前記場所キーワード抽出部が抽出した場所を示すキーワードに対応づけて前記画像格納部が格納している画像を抽出する画像抽出部と、
前記画像抽出部が抽出した画像を、入力された文章とともに出力する画像出力部
として機能させる画像処理プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate


【公開番号】特開2007−148517(P2007−148517A)
【公開日】平成19年6月14日(2007.6.14)
【国際特許分類】
【出願番号】特願2005−338584(P2005−338584)
【出願日】平成17年11月24日(2005.11.24)
【出願人】(306037311)富士フイルム株式会社 (25,513)
【Fターム(参考)】