説明

人物属性識別方法およびそのシステム

【課題】 顔情報と顔情報以外の情報とを効果的に統合することができ、性別や年齢等の人物属性の識別精度を向上させることができる人物属性識別方法およびそのシステムを提供すること。
【解決手段】 複数種類の人物属性識別用データに対応させてこれらを個別に識別するための人物属性識別用モデル51〜58を予め用意しておき、人物属性識別用データ作成処理手段36により、カメラ20で人物を撮影して得られた処理対象のフレーム画像から複数種類の人物属性識別用データを作成した後、指標値算出処理手段37により、人物属性識別用モデル51〜58を用いて各人物属性識別用データについて尤度等の指標値を個別に算出し、その後、識別結果情報算出処理手段38により、複数の指標値を統合する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、カメラで撮影された人物の性別および/または年齢を含む人物属性を識別する人物属性識別方法およびそのシステムに係り、例えば、統計処理、動向調査、データベース検索、セキュリティシステム等に利用できる。
【背景技術】
【0002】
従来より、人物の性別を識別する方法として、顔情報のみを用いた方法が提案されている。例えば、顔画像を判別分析することにより性別識別を行う方法がある(特許文献1、非特許文献1参照)。また、顔画像についてサポートベクターマシンを使用することにより性別識別を行う方法もある(非特許文献2、非特許文献3参照)。
【0003】
なお、本発明における人物属性識別用モデルを作成する際に用いられるガウス混合モデルは、公知技術であり、多くの文献に記載されている(例えば、非特許文献4等参照)。
【0004】
【特許文献1】特開2000−222572号公報
【非特許文献1】本郷仁志、石井洋平、丹羽義典、山本和彦、「顔画像からの性別と年齢の統合的推定方法の提案」、信学技報、社団法人電子情報通信学会、2002年12月20日、Vol.102、No.532、PRMU2002−146、p.1−6
【非特許文献2】ババック・モグハダム(Baback Moghaddam)、ミン・サン・ヤング(Ming-Hsuan Yang)、「ジェンダー・クラシフィケーション・ウィズ・サポート・ベクター・マシンズ(Gender classification with support vector machines)」、IEEEインターナショナル・コンファレンス・オン・オートマティック・フェイス・アンド・ジェスチャー・レコグニション(IEEE International Conference on Automatic Face and Gesture Recognition)、米国、IEEE、2000年3月、p.306−311
【非特許文献3】細井聖、瀧川えりな、川出雅人、「ガボールウェーブレット変換とサポートベクタマシンによる性別・年代推定システム」、第8回画像センシングシンポジウム講演論文集、画像センシング技術研究会、2002年7月18日、p.243−246
【非特許文献4】ヤン・M(Yang,M)、アウジャ・N(Ahuja,N)、「ガウシアン・ミクスチャー・モデル・フォー・ヒューマン・スキン・カラー・アンド・イッツ・アプリケーションズ・イン・イメージ・アンド・ビデオ・データベースイズ(Gaussian mixture model for human skin color and its applications in image and video databases)」、イン・プロスィーディングス・オブ・SPIE−ザ・インターナショナル・ソサイエティ・フォー・オプティカル・エンジニアリング(In Proceedings of SPIE-the International Society for Optical Engineering):コンファレンス・オン・ストーレッジ・アンド・リトリーバル・フォー・イメージ・アンド・ビデオ・データベースイズ(Conference on Storage and Retrieval for Image and Video Databases)VII(1999)、米国、1999年、vol.3656、p.458−466
【発明の開示】
【発明が解決しようとする課題】
【0005】
しかしながら、前述した特許文献1および非特許文献1〜3に記載された性別識別方法では、顔情報しか用いていないため、識別精度には限界がある。人が人物を見て性別を推定しようとしても、顔情報だけでは推定できないという場合も少なくない。実際に人が人物の性別識別を行おうとする場合には、顔情報以外にも、髪型、服装、体型といった様々な情報を、頭の中で統合して識別を行っている。従って、このような人の頭の中で自然に行われる統合処理に相当する性別識別方法あるいは年齢識別方法を確立し、システム化することが望まれる。
【0006】
本発明の目的は、顔情報と顔情報以外の情報とを効果的に統合することができ、性別や年齢等の人物属性の識別精度を向上させることができる人物属性識別方法およびそのシステムを提供するところにある。
【課題を解決するための手段】
【0007】
本発明は、カメラで撮影された人物の性別および/または年齢を含む人物属性を識別する人物属性識別方法であって、人物の属性を識別するための顔用データを含む複数種類の人物属性識別用データが識別されるカテゴリを各人物属性識別用データ毎に複数ずつ設定し、これらのカテゴリに含まれるデータの特徴を示す人物属性識別用モデルを、各人物属性識別用データ毎に少なくとも1つずつ予め作成しておき、カメラで人物を撮影して得られた人物属性識別処理対象のフレーム画像から複数種類の人物属性識別用データをそれぞれ作成した後、作成した各人物属性識別用データに対応する各人物属性識別用モデルを用いて、作成した各人物属性識別用データが、いずれのカテゴリに含まれるデータであるかということについての確からしさを指標するための尤度、帰属度合い、確率、割合、またはこれらに類する指標値を、各人物属性識別用データ毎に個別に算出し、その後、各人物属性識別用データ毎に個別に算出した複数の指標値を統合することにより、人物の属性の識別結果を示す情報を算出することを特徴とするものである。
【0008】
ここで、「人物の性別および/または年齢を含む人物属性」とあるので、本発明を適用して行われる人物属性の識別は、人物の性別のみの識別でもよく、人物の年齢のみの識別でもよく、人物の性別および年齢の同時並行的な識別でもよく、さらには、これら以外の他の人物属性(例えば、職業、人種、国籍、居住地等)と性別との同時並行的な識別でもよく、他の人物属性と年齢との同時並行的な識別でもよく、他の人物属性と性別と年齢との同時並行的な識別でもよい。
【0009】
また、各人物属性識別用データ毎に複数ずつ設定される「カテゴリ」は、対立カテゴリ(2つのカテゴリ)でもよく、3つ以上のカテゴリでもよい。
【0010】
さらに、「人物属性識別用モデルを、各人物属性識別用データ毎に少なくとも1つずつ作成しておき」とは、各人物属性識別用データが識別されるカテゴリとして、対立カテゴリ(2つのカテゴリ)が設定される場合には、対立カテゴリの両方について人物属性識別用モデルを作成してもよく、対立カテゴリの一方のみについて人物属性識別用モデルを作成してもよく、3つ以上のカテゴリが設定される場合には、全てのカテゴリについて人物属性識別用モデルを作成してもよく、一部のカテゴリについて人物属性識別用モデルを作成してもよい趣旨である。
【0011】
そして、「尤度、帰属度合い、確率、割合、またはこれらに類する指標値を、各人物属性識別用データ毎に個別に算出し」における「各人物属性識別用データ毎に」という意味は、各人物属性識別用データが識別されるカテゴリ毎に指標値を算出すること、つまり全てのカテゴリについて指標値を算出することの他、対立カテゴリ(2つのカテゴリ)が設定される場合には、対立カテゴリのうちの一方について指標値を算出すること、3つ以上のカテゴリが設定される場合には、全てのカテゴリについてではなく一部のカテゴリについて指標値を算出することが含まれる。
【0012】
また、「顔用データ」は、人物の属性を識別する要素情報としての顔情報から作成されるデータを意味し、例えば、後述する実施形態における顔基礎データおよびこれを次元圧縮した顔圧縮データのいずれも含む概念であり、他の種類(「顔用データ」以外)の「人物属性識別用データ」についても同様である。そして、「人物属性識別用データ」は、顔情報等のような人物属性の識別要素となり得る情報を表現することができれば、スカラー、ベクトル、行列、テンソル等、いずれの形態のデータでもよい。
【0013】
さらに、「人物属性識別用モデル」としては、例えば、ガウス混合モデル(前述した非特許文献4参照)、サポートベクターマシン(SVM)、ニューラルネットワーク等を採用することができ、人物属性識別用データを複数のカテゴリに識別することができるものであれば任意である。
【0014】
そして、「カメラで人物を撮影して得られた人物属性識別処理対象のフレーム画像から複数種類の人物属性識別用データをそれぞれ作成」することが前提となるが、人物属性の識別のための要素情報に、フレーム画像から作成された複数種類の人物属性識別用データが含まれていればよい趣旨であり、本発明の適用にあたっては、フレーム画像から作成された人物属性識別用データ以外の人物属性識別用データを含めてもよい。従って、例えば、臭いセンサから取得した臭い成分のデータ、マイクロホンから取得した音データ、加速度センサから取得した振動データ等を分析して得られる人物属性識別用データについて、複数の識別カテゴリを設定し、対応する人物属性識別用モデルを用意し、この人物属性識別用モデルを用いて算出された尤度等の指標値を統合の対象に含めてもよい。
【0015】
このような本発明の人物属性識別方法においては、顔用データを含む複数種類の人物属性識別用データについて、これらに対応する人物属性識別用モデルを用意し、これらの各人物属性識別用モデルを用いて、各人物属性識別用データが、いずれのカテゴリに含まれるデータであるかということについての確からしさを指標するための尤度等の指標値を個別に算出した後、得られた複数の指標値を統合することにより、人物の属性の識別結果を示す情報を算出する。このため、従来のように顔情報だけを用いて人物属性の識別を行う場合に比べ、識別精度を向上させることが可能となる。また、単に複数種類の人物属性識別用データに基づく個別の識別結果を集めるのではなく、それらの個別の識別結果として得られた複数の指標値を統合することにより、人物の属性の識別結果を示す情報を算出するので、顔情報を含む複数の情報を効果的に統合させることが可能となり、高い精度の識別が実現され、これらにより前記目的が達成される。
【0016】
また、前述した人物属性識別方法において、顔用データが識別されるカテゴリとして、男性のカテゴリと女性のカテゴリとを設定し、人物属性識別用モデルとして、男性のカテゴリに含まれるデータの特徴を示す顔用の男モデルと、女性のカテゴリに含まれるデータの特徴を示す顔用の女モデルとを作成しておき、指標値を各人物属性識別用データ毎に個別に算出する際には、顔用の男モデルを用いて、フレーム画像から作成した顔用データが、男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、顔用の女モデルを用いて、フレーム画像から作成した顔用データが、女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するようにすることが望ましい。
【0017】
このように顔用データに対して顔用の男モデルと顔用の女モデルとを用意して人物属性を識別するようにした場合には、顔情報から男女を識別する個別識別を行うことが可能となる。
【0018】
さらに、前述した人物属性識別方法において、人物属性識別用データに、顔用データに加え、髪型用データを含ませ、この髪型用データが識別されるカテゴリとして、男性のカテゴリと女性のカテゴリとを設定し、人物属性識別用モデルとして、男性のカテゴリに含まれるデータの特徴を示す髪型用の男モデルと、女性のカテゴリに含まれるデータの特徴を示す髪型用の女モデルとを作成しておき、指標値を各人物属性識別用データ毎に個別に算出する際には、髪型用の男モデルを用いて、フレーム画像から作成した髪型用データが、男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、髪型用の女モデルを用いて、フレーム画像から作成した髪型用データが、女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するようにすることが望ましい。
【0019】
このように髪型用データに対して髪型用の男モデルと髪型用の女モデルとを用意して人物属性を識別するようにした場合には、髪型情報から男女を識別する個別識別を行うことが可能となる。このため、顔情報による男女の個別識別結果と統合することにより、高い精度の識別が実現される。
【0020】
そして、前述した人物属性識別方法において、人物属性識別用データに、顔用データに加え、ネクタイを締めているか否かを識別するためのネクタイ用データを含ませ、このネクタイ用データが識別されるカテゴリとして、ネクタイありのカテゴリとネクタイ無しのカテゴリとを設定し、人物属性識別用モデルとして、ネクタイありのカテゴリに含まれるデータの特徴を示すネクタイモデルと、ネクタイ無しのカテゴリに含まれるデータの特徴を示す非ネクタイモデルとを作成しておき、指標値を各人物属性識別用データ毎に個別に算出する際には、ネクタイモデルを用いて、フレーム画像から作成したネクタイ用データが、ネクタイありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、非ネクタイモデルを用いて、フレーム画像から作成したネクタイ用データが、ネクタイ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するようにすることが望ましい。
【0021】
このようにネクタイ用データに対してネクタイモデルと非ネクタイモデルとを用意して人物属性を識別するようにした場合には、性別の違いが顕著に現れるネクタイの有無情報に基づき人物属性の個別識別を行うことが可能となる。このため、顔情報による男女の個別識別結果と統合することにより、高い精度の識別が実現される。
【0022】
また、前述した人物属性識別方法において、人物属性識別用データに、顔用データに加え、胸あきのある服を着ているか否かを識別するためのデコルテ用データを含ませ、このデコルテ用データが識別されるカテゴリとして、胸あきありのカテゴリと胸あき無しのカテゴリとを設定し、人物属性識別用モデルとして、胸あきありのカテゴリに含まれるデータの特徴を示すデコルテモデルと、胸あき無しのカテゴリに含まれるデータの特徴を示す非デコルテモデルとを作成しておき、指標値を各人物属性識別用データ毎に個別に算出する際には、デコルテモデルを用いて、フレーム画像から作成したデコルテ用データが、デコルテありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、非デコルテモデルを用いて、フレーム画像から作成したデコルテ用データが、デコルテ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するようにすることが望ましい。
【0023】
このようにデコルテ用データに対してデコルテモデルと非デコルテモデルとを用意して人物属性を識別するようにした場合には、性別の違いが顕著に現れるデコルテ(服装の胸あき)の有無情報に基づき人物属性の個別識別を行うことが可能となる。このため、顔情報による男女の個別識別結果と統合することにより、高い精度の識別が実現される。
【0024】
さらに、前述した髪型用データに対して髪型用の男モデルと髪型用の女モデルとを用意して人物属性を識別するようにした場合において、様々な環境で撮影された画像から抽出した髪色情報、非髪色情報、肌色情報、および非肌色情報を用いて、髪色モデル、非髪色モデル、肌色モデル、および非肌色モデルをそれぞれ予め作成しておき、人物属性識別処理対象のフレーム画像から髪型用データを作成する前に、人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、肌色モデルの更新を行い、人物属性識別処理対象のフレーム画像から髪型用データを作成する際には、髪色モデル、非髪色モデル、更新後の肌色モデル、および非肌色モデルを用いて、人物属性識別処理対象のフレーム画像を構成する各画素が髪部分か否かを推定することにより髪型を抽出することが望ましい。
【0025】
このように髪型用データを作成する前に検出人物の肌色情報を用いて肌色モデルの更新を行うようにした場合には、肌色モデルを検出人物に適応させ、個人に適応した髪型抽出を行うことが可能となり、より正確な髪型抽出を行うことが可能となる。
【0026】
なお、肌色モデルの更新のみならず、非肌色モデルについても、人物属性識別処理対象のフレーム画像から検出した人物の非肌色情報(例えば、服装部分の色情報等)を用いて更新を行い、髪色モデル、非髪色モデル、更新後の肌色モデル、および更新後の非肌色モデルを用いて、髪型用データを作成してもよい。
【0027】
そして、前述したネクタイ用データに対してネクタイモデルと非ネクタイモデルとを用意して人物属性を識別するようにした場合において、人物属性識別処理対象のフレーム画像からネクタイ用データを作成する際には、輪郭抽出を行ってエッジ画像を作成することが望ましい。
【0028】
このようにネクタイ用データを作成する際に輪郭抽出を行ってエッジ画像を作成するようにした場合には、ネクタイ/非ネクタイの個別識別の精度を向上させることが可能となる。
【0029】
また、前述したデコルテ用データに対してデコルテモデルと非デコルテモデルとを用意して人物属性を識別するようにした場合において、様々な環境で撮影された画像から抽出した肌色情報および非肌色情報を用いて、肌色モデルおよび非肌色モデルをそれぞれ予め作成しておき、人物属性識別処理対象のフレーム画像からデコルテ用データを作成する前に、人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、肌色モデルの更新を行い、人物属性識別処理対象のフレーム画像からデコルテ用データを作成する際には、更新後の肌色モデルおよび非肌色モデルを用いて、人物属性識別処理対象のフレーム画像を構成する各画素が肌色部分か否かを推定することにより肌色部分を抽出することが望ましい。
【0030】
このようにデコルテ用データを作成する前に検出人物の肌色情報を用いて肌色モデルの更新を行うようにした場合には、肌色モデルを検出人物に適応させ、個人に適応したデコルテ/非デコルテ識別用の肌色抽出を行うことが可能となり、より正確な肌色抽出を行うことが可能となる。
【0031】
なお、肌色モデルの更新のみならず、非肌色モデルについても、人物属性識別処理対象のフレーム画像から検出した人物の非肌色情報(例えば、服装部分の色情報等)を用いて更新を行い、更新後の肌色モデルおよび更新後の非肌色モデルを用いて、デコルテ用データを作成してもよい。
【0032】
さらに、以上に述べた人物属性識別方法において、各人物属性識別用モデルは、各人物属性識別用データが識別されるカテゴリ毎に、事前学習として多くのサンプルデータを用いて主成分分析による特徴抽出を行った後、カテゴリに含まれるデータの分布形状を表現するガウス混合モデルを構築することにより作成し、指標値を各人物属性識別用データ毎に個別に算出する際には、人物属性識別処理対象のフレーム画像から作成された顔用データを含む複数種類の人物属性識別用データに基づき、ガウス混合モデルにより構築された各人物属性識別用モデルを用いて、カテゴリ毎に尤度を算出することが望ましい。
【0033】
このように主成分分析を行った後にガウス混合モデルにより各人物属性識別用モデルを作成するようにした場合には、主成分分析により次元圧縮を行い、この圧縮された次元の空間上に拡がるデータの分布形状を、ガウス混合モデルにより表現することが可能となる。このため、例えば、顔情報の場合には、眼鏡をかけているか否か、髭があるか否かといった様々な顔に対応することが可能となる。また、ガウス混合モデルを用いて尤度を算出するので、この尤度を同一人物について複数フレームで算出すれば、後述するように複数フレームでの尤度の統合もベイズの法則により容易に実現可能となる。
【0034】
そして、上述したガウス混合モデルにより各人物属性識別用モデルを作成するようにした場合において、人物の属性の識別結果を示す情報を算出する際には、複数の尤度をベイズの定理により統合することが望ましい。
【0035】
このように複数の尤度をベイズの定理により統合するようにした場合には、性別や年齢等の人物属性を識別するための別の要素(顔情報以外の情報)が得られたときに、この要素から算出される尤度を容易に統合することができる枠組みを構築することが可能となる。
【0036】
また、前述したガウス混合モデルにより各人物属性識別用モデルを作成するようにした場合において、同一人物が検出された複数のフレームでそれぞれ算出された尤度をベイズの定理により統合することにより、複数のフレームでの人物の属性の識別結果をトータルした情報を算出することが望ましい。
【0037】
このように複数のフレームで算出された尤度をベイズの定理により統合するようにした場合には、人物属性の識別精度を、より一層向上させることが可能となる。
【0038】
さらに、前述したガウス混合モデルにより各人物属性識別用モデルを作成するようにした場合において、ベイズの定理により尤度を統合する際に、事前確率を用いることが望ましい。
【0039】
ここで、「事前確率」は、実環境において統計を取ることにより求めることができる。
【0040】
このように事前確率を考慮した統合を行う場合には、実環境での識別精度を向上させることが可能となる。
【0041】
また、以上に述べた本発明の人物属性識別方法を実現するシステムとして、以下のような本発明の人物属性識別システムが挙げられる。
【0042】
すなわち、本発明は、カメラで撮影された人物の性別および/または年齢を含む人物属性を識別する人物属性識別システムであって、人物の属性を識別するための顔用データを含む複数種類の人物属性識別用データが識別されるカテゴリに含まれるデータの特徴を示す人物属性識別用モデルを、各人物属性識別用データ毎に少なくとも1つずつ記憶する人物属性識別用モデル記憶手段と、カメラで人物を撮影して得られた人物属性識別処理対象のフレーム画像から複数種類の人物属性識別用データをそれぞれ作成する処理を行う人物属性識別用データ作成処理手段と、人物属性識別用モデル記憶手段に記憶された対応する各人物属性識別用モデルを用いて、人物属性識別用データ作成処理手段により作成した各人物属性識別用データが、いずれのカテゴリに含まれるデータであるかということについての確からしさを指標するための尤度、帰属度合い、確率、割合、またはこれらに類する指標値を、各人物属性識別用データ毎に個別に算出する処理を行う指標値算出処理手段と、この指標値算出処理手段により各人物属性識別用データ毎に個別に算出した複数の指標値を統合することにより、人物の属性の識別結果を示す情報を算出する処理を行う識別結果情報算出処理手段とを備えたことを特徴とするものである。
【0043】
このような本発明の人物属性識別システムにおいては、前述した本発明の人物属性識別方法で得られる作用・効果がそのまま得られ、これにより前記目的が達成される。
【0044】
また、前述した人物属性識別システムにおいて、人物属性識別用モデル記憶手段には、人物属性識別用モデルとして、顔用データが識別される男性のカテゴリに含まれるデータの特徴を示す顔用の男モデルと、顔用データが識別される女性のカテゴリに含まれるデータの特徴を示す顔用の女モデルとが記憶され、指標値算出処理手段は、顔用の男モデルを用いて、フレーム画像から作成した顔用データが、男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、顔用の女モデルを用いて、フレーム画像から作成した顔用データが、女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされていることが望ましい。
【0045】
さらに、前述した人物属性識別システムにおいて、人物属性識別用データには、顔用データに加え、髪型用データが含まれ、人物属性識別用モデル記憶手段には、人物属性識別用モデルとして、髪型用データが識別される男性のカテゴリに含まれるデータの特徴を示す髪型用の男モデルと、髪型用データが識別される女性のカテゴリに含まれるデータの特徴を示す髪型用の女モデルとが記憶され、指標値算出処理手段は、髪型用の男モデルを用いて、フレーム画像から作成した髪型用データが、男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、髪型用の女モデルを用いて、フレーム画像から作成した髪型用データが、女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされていることが望ましい。
【0046】
そして、前述した人物属性識別システムにおいて、人物属性識別用データには、顔用データに加え、ネクタイを締めているか否かを識別するためのネクタイ用データが含まれ、人物属性識別用モデル記憶手段には、人物属性識別用モデルとして、ネクタイ用データが識別されるネクタイありのカテゴリに含まれるデータの特徴を示すネクタイモデルと、ネクタイ用データが識別されるネクタイ無しのカテゴリに含まれるデータの特徴を示す非ネクタイモデルとが記憶され、指標値算出処理手段は、ネクタイモデルを用いて、フレーム画像から作成したネクタイ用データが、ネクタイありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、非ネクタイモデルを用いて、フレーム画像から作成したネクタイ用データが、ネクタイ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされていることが望ましい。
【0047】
また、前述した人物属性識別システムにおいて、人物属性識別用データには、顔用データに加え、胸あきのある服を着ているか否かを識別するためのデコルテ用データが含まれ、人物属性識別用モデル記憶手段には、人物属性識別用モデルとして、デコルテ用データが識別される胸あきありのカテゴリに含まれるデータの特徴を示すデコルテモデルと、デコルテ用データが識別される胸あき無しのカテゴリに含まれるデータの特徴を示す非デコルテモデルとが記憶され、指標値算出処理手段は、デコルテモデルを用いて、フレーム画像から作成したデコルテ用データが、デコルテありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、非デコルテモデルを用いて、フレーム画像から作成したデコルテ用データが、デコルテ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされていることが望ましい。
【0048】
さらに、前述した髪型用データに対して髪型用の男モデルと髪型用の女モデルとを用意して人物属性を識別する構成とした場合において、様々な環境で撮影された画像から抽出した髪色情報、非髪色情報、肌色情報、および非肌色情報を用いてそれぞれ作成された髪色モデル、非髪色モデル、肌色モデル、および非肌色モデルを記憶する髪色モデル記憶手段、非髪色モデル記憶手段、肌色モデル記憶手段、および非肌色モデル記憶手段と、人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、肌色モデル記憶手段に記憶された肌色モデルの更新処理を行う肌色モデル更新処理手段とを備え、人物属性識別用データ作成処理手段は、人物属性識別処理対象のフレーム画像から髪型用データを作成する際には、髪色モデル記憶手段に記憶された髪色モデル、非髪色モデル記憶手段に記憶された非髪色モデル、肌色モデル記憶手段に記憶された更新後の肌色モデル、および非肌色モデル記憶手段に記憶された非肌色モデルを用いて、人物属性識別処理対象のフレーム画像を構成する各画素が髪部分か否かを推定することにより髪型を抽出する処理を行う構成とされていることが望ましい。
【0049】
なお、肌色モデル更新処理手段のみならず、非肌色モデル更新処理手段も設け、非肌色モデルについても、人物属性識別処理対象のフレーム画像から検出した人物の非肌色情報(例えば、服装部分の色情報等)を用いて更新を行い、人物属性識別用データ作成処理手段により、髪色モデル、非髪色モデル、更新後の肌色モデル、および更新後の非肌色モデルを用いて、髪型用データを作成する構成としてもよい。
【0050】
そして、前述したネクタイ用データに対してネクタイモデルと非ネクタイモデルとを用意して人物属性を識別する構成とした場合において、人物属性識別用データ作成処理手段は、人物属性識別処理対象のフレーム画像からネクタイ用データを作成する際には、輪郭抽出を行ってエッジ画像を作成する処理を行う構成とされていることが望ましい。
【0051】
また、前述したデコルテ用データに対してデコルテモデルと非デコルテモデルとを用意して人物属性を識別する構成とした場合において、様々な環境で撮影された画像から抽出した肌色情報および非肌色情報を用いてそれぞれ作成された肌色モデルおよび非肌色モデルを記憶する肌色モデル記憶手段および非肌色モデル記憶手段と、人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、肌色モデル記憶手段に記憶された肌色モデルの更新処理を行う肌色モデル更新処理手段とを備え、人物属性識別用データ作成処理手段は、人物属性識別処理対象のフレーム画像からデコルテ用データを作成する際には、肌色モデル記憶手段に記憶された更新後の肌色モデルおよび非肌色モデル記憶手段に記憶された非肌色モデルを用いて、人物属性識別処理対象のフレーム画像を構成する各画素が肌色部分か否かを推定することにより肌色部分を抽出する処理を行う構成とされていることが望ましい。
【0052】
なお、肌色モデル更新処理手段のみならず、非肌色モデル更新処理手段も設け、非肌色モデルについても、人物属性識別処理対象のフレーム画像から検出した人物の非肌色情報(例えば、服装部分の色情報等)を用いて更新を行い、人物属性識別用データ作成処理手段により、更新後の肌色モデルおよび更新後の非肌色モデルを用いて、デコルテ用データを作成する構成としてもよい。
【0053】
さらに、以上に述べた人物属性識別システムにおいて、各人物属性識別用モデルは、各人物属性識別用データが識別されるカテゴリ毎に、事前学習として多くのサンプルデータを用いて主成分分析による特徴抽出を行った後、カテゴリに含まれるデータの分布形状をガウス混合モデルにより表現して構築された学習モデルであり、指標値算出処理手段は、人物属性識別用データ作成処理手段により作成された顔用データを含む複数種類の人物属性識別用データに基づき、ガウス混合モデルにより構築された各人物属性識別用モデルを用いて、カテゴリ毎に尤度を算出する処理を行う構成とされていることが望ましい。
【0054】
そして、上述したガウス混合モデルにより各人物属性識別用モデルを作成した構成とする場合において、識別結果情報算出処理手段は、指標値算出処理手段により算出された複数の尤度をベイズの定理により統合する処理を行う構成とされていることが望ましい。
【0055】
また、前述したガウス混合モデルにより各人物属性識別用モデルを作成した構成とする場合において、同一人物が検出された複数のフレームでそれぞれ算出された尤度をベイズの定理により統合することにより、複数のフレームでの人物の属性の識別結果をトータルした情報を算出する処理を行う識別結果トータル情報算出処理手段を備えていることが望ましい。
【0056】
さらに、前述したガウス混合モデルにより各人物属性識別用モデルを作成した構成とする場合において、識別結果情報算出処理手段は、ベイズの定理により尤度を統合する際に、事前確率を用いる処理を行う構成とされていることが望ましい。
【0057】
そして、前述したガウス混合モデルにより各人物属性識別用モデルを作成した構成とする場合において、識別結果トータル情報算出処理手段は、ベイズの定理により尤度を統合する際に、事前確率を用いる処理を行う構成とされていることが望ましい。
【発明の効果】
【0058】
以上に述べたように本発明によれば、顔用データを含む複数種類の人物属性識別用データに対して、それぞれ人物属性識別用モデルを用意し、これらの各人物属性識別用モデルを用いて尤度等の指標値を個別に算出した後、得られた複数の指標値を統合するので、従来のように顔情報だけを用いて人物属性の識別を行う場合に比べ、識別精度を向上させることができるうえ、単に複数種類の人物属性識別用データに基づく個別の識別結果を集めるのではなく、それらの個別の識別結果として得られた複数の指標値を統合することにより人物属性の識別結果を示す情報を算出するので、顔情報を含む複数の情報を効果的に統合させることができ、高い精度の識別を実現することができるという効果がある。
【発明を実施するための最良の形態】
【0059】
以下に本発明の一実施形態について図面を参照して説明する。図1には、本実施形態の人物属性識別システム10の全体構成が示されている。本実施形態では、人物属性識別システム10は、専ら人物の性別を識別する処理を行う性別識別システムであるとものとして説明を行う。また、図2には、人物属性識別システム10による性別識別処理の全体の流れがフローチャートで示され、図3には、人物属性識別システム10による各人物属性識別用データについての個別識別処理の流れがフローチャートで示され、図4には、髪色判定処理を含む髪型前処理の流れがフローチャートで示されている。さらに、図5は、正規化処理の説明図であり、図6は、髪型前処理における髪型抽出画像の作成処理の説明図であり、図7は、ネクタイ前処理におけるエッジ画像の作成処理の説明図であり、図8は、デコルテ前処理における肌色抽出画像の作成処理の説明図である。
【0060】
図1において、人物属性識別システム10は、性別識別対象となる人物を撮影するカメラ20と、性別識別に関する各種処理を行う処理手段30と、この処理手段30に接続された人物属性識別用モデル記憶手段50、髪色モデル記憶手段60、非髪色モデル記憶手段70、肌色モデル記憶手段80、非肌色モデル記憶手段90、および識別結果記憶手段95とを備えている。
【0061】
カメラ20は、例えば、CCDカメラやCMOSカメラ等のカラーカメラである。
【0062】
処理手段30は、フレーム画像取込処理手段31と、人物検出処理手段32と、正規化処理手段33と、肌色モデル更新処理手段34と、非肌色モデル更新処理手段35と、人物属性識別用データ作成処理手段36と、指標値算出処理手段37と、識別結果情報算出処理手段38と、識別結果トータル情報算出処理手段39と、識別結果出力処理手段40とを含んで構成されている。
【0063】
フレーム画像取込処理手段31は、カメラ20で撮影されてカメラ20から送られてくるフレーム画像を処理手段30に取り込む処理を行うものである。このフレーム画像取込処理手段31により取り込まれるフレーム画像は、性別識別対象となる人物だけではなく背景画像も含んだカラーフレーム画像である。
【0064】
人物検出処理手段32は、フレーム画像取込処理手段31により取り込まれたカラーフレーム画像の中から、背景差分、フレーム差分、テンプレートマッチング等の既存の手法により、人物を抽出する処理を行うものである。この人物検出処理手段32による処理で得られる画像は、図5の左側部分に示すような背景を取り除いた人物画像100である。
【0065】
正規化処理手段33は、人物検出処理手段32による処理で得られた人物画像100を正規化する処理、すなわち人物画像100に写った人物の大きさ(ピクセル数)にかかわらず、その人物を一定の大きさにする処理を行うものである。この際、正規化処理手段33は、図5の左側部分に示す人物画像100において、人物の目や口が含まれる正規化対象顔領域画像101を定め、この正規化対象顔領域画像101が、ある一定の大きさ(ここでは、横方向をWピクセル、縦方向をHピクセルとする。)となるように変換処理を行う。より具体的には、例えば、W×H=32ピクセル×32ピクセル等となるように変換する。そして、正規化処理手段33により人物画像100を正規化して得られた画像を、図5の右側部分に示す正規化画像200とする。この正規化画像200においては、正規化する前の人物画像100の中の正規化対象顔領域画像101に対応する部分が、Wピクセル×Hピクセルの大きさの顔狭領域画像201となっている。
【0066】
また、正規化処理手段33は、正規化画像200の中から、図中の点線で示された顔狭領域画像201、図中の一点鎖線で示された顔広領域画像202、図中の点線で示された服装領域画像203を切り出す処理を行う。
【0067】
さらに、正規化処理手段33は、正規化画像200の中から、後述する肌色モデル更新処理手段34による更新処理で用いられる検出人物の肌色情報を抽出するための肌色領域画像204として、例えば、図中の実線で示された頬の部分の領域画像を切り取るとともに、後述する非肌色モデル更新処理手段35による更新処理で用いられる検出人物の非肌色情報を抽出するための非肌色領域画像205として、例えば、図中の実線で示された胴の部分の領域画像を切り取る処理を行う。
【0068】
そして、これらの正規化画像200の中から切り出される顔広領域画像202、服装領域画像203、肌色領域画像204、および非肌色領域画像205の切出位置は、切り出す大きさも含め、顔狭領域画像201の切出位置に対して相対的に定められている。例えば、顔狭領域画像201がW×H=32ピクセル×32ピクセルの場合に、顔広領域画像202については、その大きさを64ピクセル×64ピクセルとし、その底辺位置を顔狭領域画像201の底辺位置よりも8ピクセル下げ、服装領域画像203については、その大きさを64ピクセル×64ピクセルとし、その上辺位置を顔広領域画像202の底辺位置よりも16ピクセル下げる等である。
【0069】
肌色モデル更新処理手段34は、検出人物の肌色情報を用いて肌色モデル記憶手段80に記憶された肌色モデル81の更新処理を行うものである。この肌色モデル81は、本実施形態では、後述するようにガウス混合モデルにより構築されている。より具体的には、肌色モデル更新処理手段34は、図5の肌色領域画像204を構成する各画素の肌色情報を用いてガウス混合モデルを再構築する。
【0070】
非肌色モデル更新処理手段35は、検出人物の非肌色情報を用いて非肌色モデル記憶手段90に記憶された非肌色モデル91の更新処理を行うものである。この非肌色モデル91は、本実施形態では、肌色モデル81と同様に、ガウス混合モデルにより構築されている。より具体的には、非肌色モデル更新処理手段35は、図5の非肌色領域画像205を構成する各画素の非肌色情報を用いてガウス混合モデルを再構築する。
【0071】
人物属性識別用データ作成処理手段36は、人物の属性を識別するための要素情報として、本実施形態では、男性の顔か女性の顔かを識別するための顔用データ、男性の髪型か女性の髪型かを識別するための髪型用データ、ネクタイをしめているか否かを識別するためのネクタイ用データ、および胸あきのある服を着ているか否かを識別するためのデコルテ用データの4種類の人物属性識別用データを作成する処理を行うものである。
【0072】
より具体的には、人物属性識別用データ作成処理手段36は、顔用データとしての顔基礎データおよび顔圧縮データをそれぞれ作成する顔基礎データ作成処理手段36Aおよび顔圧縮データ作成処理手段36Bと、髪型用データとしての髪型基礎データおよび髪型圧縮データをそれぞれ作成する髪型基礎データ作成処理手段36Cおよび髪型圧縮データ作成処理手段36Dと、ネクタイ用データとしてのネクタイ基礎データおよびネクタイ圧縮データをそれぞれ作成するネクタイ基礎データ作成処理手段36Eおよびネクタイ圧縮データ作成処理手段36Fと、デコルテ用データとしてのデコルテ基礎データおよびデコルテ圧縮データをそれぞれ作成するデコルテ基礎データ作成処理手段36Gおよびデコルテ圧縮データ作成処理手段36Hとを備えて構成されている。
【0073】
顔基礎データ作成処理手段36Aは、顔狭領域画像201(図5参照)について顔前処理(後述する図3のステップS603)を施して顔基礎データ501を作成する処理を行うものである。この顔前処理では、カラーフレーム画像から切り出された顔狭領域画像201のデータを、カメラ20や撮影環境の違いを吸収するため、モノクロ画像に変換した後、画像中の各階調の分布を略等しい値にする濃度補正法であるヒストグラム平滑化の処理(画像中の各画素の明るさを256階調に略均一に分散させる処理)を行い、W×H次元(例えば、32×32=1024次元)のベクトルを作成する。このベクトルデータが、顔基礎データ501である(図3参照)。
【0074】
顔圧縮データ作成処理手段36Bは、顔基礎データ501(図3参照)について主成分分析(PCA:プリンシパル・コンポーネント・アナリシス)を行い(後述する図3のステップS607)、顔圧縮データ601を作成する処理を行うものである。このPCA処理では、例えば、32×32=1024次元のベクトルデータである顔基礎データ501を、予め多数のサンプルデータを用いて主成分分析を行って求められている主成分の軸(例えば、50本の軸)で定まる圧縮された次元(例えば、50次元)の空間上における座標値を有するベクトルデータ(例えば、50次元のベクトルデータ)に変換する。この低次元のベクトルデータが、顔圧縮データ601である(図3参照)。従って、顔圧縮データ601の各次元の要素値(各軸方向の座標値)は、各主成分の重み、すなわち各主成分の軸方向を向いた基底ベクトルに対する重みとして定まるスカラー量である。
【0075】
髪型基礎データ作成処理手段36Cは、顔広領域画像202(図5、図6参照)について髪型前処理(後述する図3のステップS604)を施して髪型基礎データ502を作成する処理を行うものである。この髪型前処理では、先ず、顔広領域画像202から髪部分を抽出して図6に示すような髪型抽出画像400を作成する。この髪部分の抽出処理を行う際には、顔広領域画像202から顔狭領域画像201を取り除いた後、顔狭領域画像201を取り除いた残りの部分において、髪色部分を抽出する。次に、得られた髪型抽出画像400について、顔用データの場合と同様に、モノクロ画像に変換した後、ヒストグラム平滑化処理を行うことにより、カメラ20や撮影環境の影響を除去し、W×H次元(例えば、32×32=1024次元)のベクトルを作成する。なお、髪型がわかる程度に画像を縮小し、より低次元のベクトルを作成してもよい。このようにして作成されたベクトルが、髪型基礎データ502である(図3参照)。
【0076】
髪型圧縮データ作成処理手段36Dは、髪型基礎データ502(図3参照)について主成分分析(PCA)を行い(後述する図3のステップS608)、髪型圧縮データ602を作成する処理を行うものである。このPCA処理では、顔基礎データ501のPCA処理の場合(図3のステップS607)と同様に、次元圧縮処理を行い、髪型基礎データ502に対して低次元化されたベクトルデータである髪型圧縮データ602を作成する。
【0077】
ネクタイ基礎データ作成処理手段36Eは、服装領域画像203(図5、図7参照)についてネクタイ前処理(後述する図3のステップS605)を施してネクタイ基礎データ503を作成する処理を行うものである。このネクタイ前処理では、服装領域画像203をモノクロ画像に変換した後、1次微分(グラディエント)や2次微分(ラプラシアン)等の輪郭抽出フィルタ処理を行い、図7に示すようなエッジ画像410を作成する。このエッジ画像410をベクトルで表したものが、ネクタイ/非ネクタイの識別のために用いられるネクタイ基礎データ503である(図3参照)。
【0078】
ネクタイ圧縮データ作成処理手段36Fは、ネクタイ基礎データ503(図3参照)について主成分分析(PCA)を行い(後述する図3のステップS609)、ネクタイ圧縮データ603を作成する処理を行うものである。このPCA処理では、顔基礎データ501のPCA処理の場合(図3のステップS607)と同様に、次元圧縮処理を行い、ネクタイ基礎データ503に対して低次元化されたベクトルデータであるネクタイ圧縮データ603を作成する。
【0079】
デコルテ基礎データ作成処理手段36Gは、服装領域画像203(図5、図8参照)についてデコルテ前処理(後述する図3のステップS606)を施してデコルテ基礎データ504を作成する処理を行うものである。このデコルテ前処理では、服装領域画像203から肌色抽出を行い、図8に示すような肌色抽出画像420を作成する。この肌色抽出画像420をベクトルで表したものが、デコルテ/非デコルテの識別のために用いられるデコルテ基礎データ504である(図3参照)。
【0080】
デコルテ圧縮データ作成処理手段36Hは、デコルテ基礎データ504(図3参照)について主成分分析(PCA)を行い(後述する図3のステップS610)、デコルテ圧縮データ604を作成する処理を行うものである。このPCA処理では、顔基礎データ501のPCA処理の場合(図3のステップS607)と同様に、次元圧縮処理を行い、デコルテ基礎データ504に対して低次元化されたベクトルデータであるデコルテ圧縮データ604を作成する。
【0081】
指標値算出処理手段37は、人物属性識別用モデル記憶手段50に記憶されている対応する各人物属性識別用モデル51〜58を用いて、人物属性識別用データ作成処理手段36により作成した各人物属性識別用データ501〜504(または601〜604と考えてもよい。)が、いずれのカテゴリに含まれるデータであるかということについての確からしさを指標するための指標値として、尤度を各人物属性識別用データ毎(本実施形態では、各人物属性識別用データが識別される各カテゴリ毎となる。)に個別に算出する処理を行うものである。この際、本実施形態では、後述する如く、ガウス混合モデルにより人物属性識別用モデル51〜58を構築するので、各尤度Prは、次の式(1)に基づき算出される。なお、ガウス混合モデルは、代表ベクトルおよび分散等で規定されるガウス分布(正規分布)が複数集合して形成されるガウス混合分布により表現されるモデルである。また、指標値算出処理手段37は、算出した各尤度を識別結果記憶手段95に保存する処理を行う。
【0082】
Pr=Σi{πi×pi(X;θ)} (i=1〜g) ・・・・・・・・(1)
【0083】
ここで、iは、各ガウス分布に付された番号であり、gは、ガウス混合分布を形成するガウス分布の個数であり、Σiは、i=1〜gの和であり、πiは、各ガウス分布の重みであり、Xは、入力するデータ(人物属性識別用データとしての各圧縮データ601〜604)であり、pi(X;θ)は、Xが各ガウス分布から出力される確率であり、θは、各ガウス分布を表すパラメータ(平均値、分散共分散行列)である。
【0084】
より具体的には、指標値算出処理手段37は、男性顔尤度算出処理手段37Aと、女性顔尤度算出処理手段37Bと、男性髪型尤度算出処理手段37Cと、女性髪型尤度算出処理手段37Dと、ネクタイ尤度算出処理手段37Eと、非ネクタイ尤度算出処理手段37Fと、デコルテ尤度算出処理手段37Gと、非デコルテ尤度算出処理手段37Hとを備えて構成されている。
【0085】
男性顔尤度算出処理手段37Aは、人物属性識別用モデル記憶手段50に記憶されている顔用の男モデル51を用いて、顔圧縮データ601(従って、顔基礎データ501)が、男性の顔のカテゴリに含まれるデータであること(男性の顔が写っている画像から作成されたデータであること)についての確からしさを示す指標値である男性顔尤度701(図3参照)を算出する処理を行うものである。
【0086】
女性顔尤度算出処理手段37Bは、人物属性識別用モデル記憶手段50に記憶されている顔用の女モデル52を用いて、顔圧縮データ601(従って、顔基礎データ501)が、女性の顔のカテゴリに含まれるデータであること(女性の顔が写っている画像から作成されたデータであること)についての確からしさを示す指標値である女性顔尤度702(図3参照)を算出する処理を行うものである。
【0087】
男性髪型尤度算出処理手段37Cは、人物属性識別用モデル記憶手段50に記憶されている髪型用の男モデル53を用いて、髪型圧縮データ602(従って、髪型基礎データ502)が、男性の髪型のカテゴリに含まれるデータであること(男性の髪型が写っている画像から作成されたデータであること)についての確からしさを示す指標値である男性髪型尤度703(図3参照)を算出する処理を行うものである。
【0088】
女性髪型尤度算出処理手段37Dは、人物属性識別用モデル記憶手段50に記憶されている髪型用の女モデル54を用いて、髪型圧縮データ602(従って、髪型基礎データ502)が、女性の髪型のカテゴリに含まれるデータであること(女性の髪型が写っている画像から作成されたデータであること)についての確からしさを示す指標値である女性髪型尤度704(図3参照)を算出する処理を行うものである。
【0089】
ネクタイ尤度算出処理手段37Eは、人物属性識別用モデル記憶手段50に記憶されているネクタイモデル55を用いて、ネクタイ圧縮データ603(従って、ネクタイ基礎データ503)が、ネクタイをしめているカテゴリに含まれるデータであること(ネクタイをしめている人物が写っている画像から作成されたデータであること)についての確からしさを示す指標値であるネクタイ尤度705(図3参照)を算出する処理を行うものである。
【0090】
非ネクタイ尤度算出処理手段37Fは、人物属性識別用モデル記憶手段50に記憶されている非ネクタイモデル56を用いて、ネクタイ圧縮データ603(従って、ネクタイ基礎データ503)が、ネクタイをしめていないカテゴリに含まれるデータであること(ネクタイをしめていない人物が写っている画像から作成されたデータであること)についての確からしさを示す指標値である非ネクタイ尤度706(図3参照)を算出する処理を行うものである。
【0091】
デコルテ尤度算出処理手段37Gは、人物属性識別用モデル記憶手段50に記憶されているデコルテモデル57を用いて、デコルテ圧縮データ604(従って、デコルテ基礎データ504)が、胸あきのある服(デコルテ)を着ているカテゴリに含まれるデータであること(胸あきのある服を着ている人物が写っている画像から作成されたデータであること)についての確からしさを示す指標値であるデコルテ尤度707(図3参照)を算出する処理を行うものである。
【0092】
非デコルテ尤度算出処理手段37Hは、人物属性識別用モデル記憶手段50に記憶されている非デコルテモデル58を用いて、デコルテ圧縮データ604(従って、デコルテ基礎データ504)が、胸あきの無い服(非デコルテ)を着ているカテゴリに含まれるデータであること(胸あきの無い服を着ている人物が写っている画像から作成されたデータであること)についての確からしさを示す指標値である非デコルテ尤度708(図3参照)を算出する処理を行うものである。
【0093】
識別結果情報算出処理手段38は、次の式(2)に基づき、指標値算出処理手段37により各人物属性識別用データ毎(ここでは、各人物属性識別用データが識別される各カテゴリ毎)に個別に算出した複数(ここでは、8個)の尤度701〜708(図3参照)を統合することにより、人物の属性(ここでは、性別)の識別結果を示す情報として、男の確率と女の確率との比(または比の値)を算出する処理を行うものである。なお、次の式(2)は、顔、髪型、ネクタイ、デコルテの各要素情報がそれぞれ独立であると仮定し、ベイズの定理に当てはめることにより求めた式である。また、識別結果情報算出処理手段38は、算出した男の確率と女の確率との比(または比の値)を識別結果記憶手段95に保存する処理を行う。
【0094】
男の確率:女の確率
=Pr[男]×Pr[X_face|M_m_face]×Pr[X_hair|M_m_hair]
×(Pr[tie|男]・Pr[X_tie|M_tie]
+Pr[non-tie|男]・Pr[X_tie|M_non-tie])
×(Pr[dec|男]・Pr[X_dec|M_dec]
+Pr[non-dec|男]・Pr[X_dec|M_non-dec])
:Pr[女]×Pr[X_face|M_f_face]×Pr[X_hair|M_f_hair]
×(Pr[tie|女]・Pr[X_tie|M_tie]
+Pr[non-tie|女]・Pr[X_tie|M_non-tie])
×(Pr[dec|女]・Pr[X_dec|M_dec]
+Pr[non-dec|女]・Pr[X_dec|M_non-dec])
・・・・・・・(2)
【0095】
ここで、X_faceは、顔圧縮データ作成処理手段36Bにより顔基礎データ501について主成分分析(PCA)を行って作成された顔圧縮データ601である(図3参照)。M_m_faceは、顔用の男モデル51であり、M_f_faceは、顔用の女モデル52であり、Pr[X_face|M_m_face]およびPr[X_face|M_f_face]は、X_faceをM_m_faceおよびM_f_faceにそれぞれ入力して得られる男性顔尤度701および女性顔尤度702である(図3参照)。
【0096】
同様に、X_hairは、髪型圧縮データ作成処理手段36Dにより髪型基礎データ502について主成分分析(PCA)を行って作成された髪型圧縮データ602である(図3参照)。M_m_hairは、髪型用の男モデル53であり、M_f_hairは、髪型用の女モデル54であり、Pr[X_hair|M_m_hair]およびPr[X_hair|M_f_hair]は、X_hairをM_m_hairおよびM_f_hairにそれぞれ入力して得られる男性髪型尤度703および女性髪型尤度704である(図3参照)。
【0097】
また、X_tieは、ネクタイ圧縮データ作成処理手段36Fによりネクタイ基礎データ503について主成分分析(PCA)を行って作成されたネクタイ圧縮データ603である(図3参照)。M_tieは、ネクタイモデル55であり、M_non-tieは、非ネクタイモデル56であり、Pr[X_tie|M_tie]およびPr[X_tie|M_non-tie]は、X_tieをM_tieおよびM_non-tieにそれぞれ入力して得られるネクタイ尤度705および非ネクタイ尤度706である(図3参照)。
【0098】
同様に、X_decは、デコルテ圧縮データ作成処理手段36Hによりデコルテ基礎データ504について主成分分析(PCA)を行って作成されたデコルテ圧縮データ604である(図3参照)。M_decは、デコルテモデル57であり、M_non-decは、非デコルテモデル58であり、Pr[X_dec|M_dec]およびPr[X_dec|M_non-dec])は、X_decをM_decおよびM_non-decにそれぞれ入力して得られるデコルテ尤度707および非デコルテ尤度708である(図3参照)。
【0099】
さらに、Pr[男]は、男の出現確率であり、Pr[tie|男]は、男のときにネクタイをしている確率であり、Pr[non-tie|男]は、男のときにネクタイをしていない確率であり、Pr[dec|男]は、男のときにデコルテである(胸あきありの)確率であり、Pr[non-dec|男]は、男のときにデコルテではない(胸あき無しの)確率であり、Pr[女]は、女の出現確率であり、Pr[tie|女]は、女のときにネクタイをしている確率であり、Pr[non-tie|女]は、女のときにネクタイをしていない確率であり、Pr[dec|女]は、女のときにデコルテである(胸あきありの)確率であり、Pr[non-dec|女]は、女のときにデコルテではない(胸あき無しの)確率である。これらは、事前確率であり、実環境において統計をとることにより求める。
【0100】
識別結果トータル情報算出処理手段39は、同一人物が複数のフレームで連続して検出されたときに、それらの複数のフレームでの人物の属性(ここでは、性別)の識別結果をトータルした情報を算出する処理を行うものである。より具体的には、識別結果トータル情報算出処理手段39は、現在処理対象とされているフレームから得られたデータと、識別結果記憶手段95に記憶されている前回フレームまでに得られたデータとを用いて、識別結果情報算出処理手段38により各フレームについて算出された男の確率の積と、各フレームについて算出された女の確率の積との比(または比の値)を算出する処理を行う。例えば、フレーム番号n=1,2,3,…,Nの各フレームで同一人物が検出されたとき、識別結果情報算出処理手段38により各フレームについて算出された男の確率をPmnとし、女の確率をPfnとすると、(Pm1×Pm2×Pm3×…×PmN):(Pf1×Pf2×Pf3×…×PfN)という比、または(Pm1×Pm2×Pm3×…×PmN)/(Pf1×Pf2×Pf3×…×PfN)という比の値(逆数でもよい。)を算出する。また、後者の如く、比の値を算出する場合には、識別結果情報算出処理手段38により各フレームについて算出された男の確率と女の確率との比の値(逆数でもよい。)についての積を算出すると考えても同じことである。例えば、上記の例では、(Pm1/Pf1)×(Pm2/Pf2)×(Pm3/Pf3)×…×(PmN/PfN)を算出してもよい。なお、ここでいう男の確率Pmn、女の確率Pfnは、必ずしも足して1になる確率(Pmn+Pfn=1)を意味するものではなく、両者の値の大小を比較し、いずれの確率がどれぐらい高いのかを相対的に判断することができる値であればよい。また、識別結果トータル情報算出処理手段39は、算出した男の確率の積と女の確率の積との比(または比の値)、あるいは算出した男の確率と女の確率との比の値(逆数でもよい。)についての積を識別結果記憶手段95に保存する処理を行う。
【0101】
従って、識別結果トータル情報算出処理手段39は、同一人物が検出された複数のフレーム(n=1,2,…,N)でそれぞれ指標値算出処理手段37により算出された複数(ここでは、1フレームにつき8個で、Nフレームの合計では8×N個となる。)の尤度701〜708(図3参照)をベイズの定理により統合する処理を行っていることになる。
【0102】
識別結果出力処理手段40は、識別結果情報算出処理手段38および/または識別結果トータル情報算出処理手段39による算出結果を、図示されないCRTディスプレイや液晶ディスプレイ等の表示装置の画面上に表示するか、または図示されないプリンタやプロッタ等の出力装置で出力する処理を行うものである。
【0103】
人物属性識別用モデル記憶手段50は、各人物属性識別用データ毎(本実施形態では、各人物属性識別用データが識別される各カテゴリ毎となる。)に作成された人物属性識別用モデルを記憶するものである。これらの人物属性識別用モデルは、各人物属性識別用データが識別される各カテゴリに含まれるデータの特徴を示すものであり、本実施形態では、各カテゴリに含まれる多数のサンプルデータから得られた分布を、それぞれガウス混合モデルにより表現したものである。
【0104】
より具体的には、人物属性識別用モデル記憶手段50には、顔用データ(顔基礎データ501、顔圧縮データ601)が識別される男性のカテゴリに含まれるデータの特徴を示す顔用の男モデル51と、顔用データが識別される女性のカテゴリに含まれるデータの特徴を示す顔用の女モデル52と、髪型用データ(髪型基礎データ502、髪型圧縮データ602)が識別される男性のカテゴリに含まれるデータの特徴を示す髪型用の男モデル53と、髪型用データが識別される女性のカテゴリに含まれるデータの特徴を示す髪型用の女モデル54と、ネクタイ用データ(ネクタイ基礎データ503、ネクタイ圧縮データ603)が識別されるネクタイありのカテゴリに含まれるデータの特徴を示すネクタイモデル55と、ネクタイ用データが識別されるネクタイ無しのカテゴリに含まれるデータの特徴を示す非ネクタイモデル56と、デコルテ用データ(デコルテ基礎データ504、デコルテ圧縮データ604)が識別される胸あきありのカテゴリに含まれるデータの特徴を示すデコルテモデル57と、デコルテ用データが識別される胸あき無しのカテゴリに含まれるデータの特徴を示す非デコルテモデル58とが記憶されている。
【0105】
これらの人物属性識別用モデル記憶手段50に記憶される各モデル51〜58は、人物属性識別システム10の稼働前に事前学習をして作成されるモデルである。この事前学習では、先ず、識別したいカテゴリに含まれる多数のサンプルデータを収集し、主成分分析(PCA)を行うことにより、主成分の軸を決定する。例えば、顔用データの場合を例にとると、様々な男と女の顔用データ(人物属性識別システム10による処理開始後に行わる図3のステップS603の顔前処理と同様な処理を行って得られる顔基礎データ、すなわち識別対象のフレーム画像からリアルタイム処理で得られる顔基礎データ501に対応する多数のサンプルデータ)について主成分分析(PCA)を行うことにより、主成分の軸を決定する。この際、主成分として上位成分(例えば、累積寄与率80%等)を利用し、顔基礎データの次元圧縮を行い、圧縮された低次元の空間を形成する。例えば、顔基礎データ501に対応する多数のサンプルデータが、32×32=1024次元のベクトルデータである場合には、各主成分の軸方向を向いた基底ベクトルは、同じ1024次元のベクトルとなり、この1024次元の基底ベクトルが、例えば50本立つことにより、50次元に圧縮された空間が形成される。
【0106】
そして、この圧縮された次元の空間上に、顔基礎データ501に対応する多数のサンプルデータを用いて、男の顔用データおよび女の顔用データの分布を作成する。この分布の作成は、顔基礎データ501に対応する多数のサンプルデータのそれぞれについて、各主成分の重み、すなわち各主成分の軸方向を向いた基底ベクトルに対する重みを算出し、これらの重みを各次元の要素値(各軸方向の座標値)とする低次元のベクトル(顔圧縮データ601に対応するベクトルデータ)を求めることにより行われる。その後、圧縮された次元の空間上に作成された男の顔用データおよび女の顔用データの分布形状を、ガウス混合モデルにより表現することにより、顔用の男モデル51および顔用の女モデル52を作成する。これにより、顔用の女モデル52を例にとれば、眼鏡をかけている/眼鏡をかけていないといった様々な女性の顔をガウス混合モデルにより表現することが可能となる。髪型用データ、ネクタイ用データ、およびデコルテ用データの場合も、顔用データの場合と同様である。なお、ガウス混合モデルの構築技術自体は、公知技術であり、前述した非特許文献4等に記載されているので、ここでは詳しい説明を省略する。
【0107】
髪色モデル記憶手段60は、髪型前処理(図3のステップS604の処理)における髪色判定処理(図4、図6参照)で用いられる髪色モデル61を記憶するものである。
【0108】
非髪色モデル記憶手段70は、髪型前処理(図3のステップS604の処理)における髪色判定処理(図4、図6参照)で用いられる非髪色モデル71を記憶するものである。
【0109】
肌色モデル記憶手段80は、髪型前処理(図3のステップS604の処理)における髪色判定処理(図4、図6参照)およびデコルテ前処理(図3のステップS606の処理)における肌色抽出処理(図8参照)で用いられる肌色モデル81を記憶するものである。
【0110】
非肌色モデル記憶手段90は、髪型前処理(図3のステップS604の処理)における髪色判定処理(図4、図6参照)およびデコルテ前処理(図3のステップS606の処理)における肌色抽出処理(図8参照)で用いられる非肌色モデル91を記憶するものである。
【0111】
これらの髪色モデル61、非髪色モデル71、肌色モデル81、および非肌色モデル91は、人物属性識別システム10の稼働前に事前学習をして作成されるモデルである。この事前学習では、様々な環境の人物カラー画像から髪色、非髪色、肌色、および非肌色を抽出し、RGBやHSV等の色素表現系により形成される3次元色空間にサンプルデータを蓄積し、これらのデータの分布形状をガウス混合モデルにより表現する。
【0112】
さらに、肌色モデル81および非肌色モデル91については、人物属性識別システム10の稼働前に準備した色データだけではなく、人物属性識別システム10による処理開始後に検出された人物の色データも加えることにより、より正確な抽出を実現可能としている。具体的には、人物属性識別システム10による処理開始後に、肌色モデル更新処理手段34により、現在処理対象となっている最新のフレーム画像から検出された人物の色データ(図5の肌色領域画像204を構成する各画素の肌色情報)を加えてガウス混合モデルを再構築する処理(図3のステップS602)を行うことにより、その人物に適応した肌色モデル81を作成することができる。同様に、人物属性識別システム10による処理開始後に、非肌色モデル更新処理手段35により、現在処理対象となっている最新のフレーム画像から検出された人物の色データ(図5の非肌色領域画像205を構成する各画素の非肌色情報)を加えてガウス混合モデルを再構築する処理(図3のステップS602)を行うことにより、その人物に適応した非肌色モデル91を作成することができる。
【0113】
識別結果記憶手段95は、指標値算出処理手段37により各フレームで算出された各尤度701〜708(図3参照)、および識別結果情報算出処理手段38により算出された各フレームでの男の確率と女の確率との比(または比の値)、さらには識別結果トータル情報算出処理手段39により算出された複数フレームでの男の確率の積と女の確率の積との比(または比の値)、あるいは複数フレームでの男の確率と女の確率との比の値(逆数でもよい。)についての積を、検出人物毎に記憶するものである。
【0114】
そして、以上において、処理手段30に含まれる各処理手段31〜40は、人物属性識別システム10を構成する一台または複数台のコンピュータ(パーソナル・コンピュータのみならず、その上位機種のもの、あるいは汎用機ではなく、人物属性識別処理専用装置、パーソナル・コンピュータ以外の電気製品に組み込まれた計算ユニット等も含む。)の内部に設けられた中央演算処理装置(CPU)、およびこのCPUの動作手順を規定する一つまたは複数のプログラムにより実現される。
【0115】
また、人物属性識別用モデル記憶手段50、髪色モデル記憶手段60、非髪色モデル記憶手段70、肌色モデル記憶手段80、非肌色モデル記憶手段90、および識別結果記憶手段95としては、例えば、ハードディスク、ROM、EEPROM、フラッシュ・メモリ、RAM、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、FD、磁気テープ、あるいはこれらの組合せ等を採用することができる。
【0116】
このような本実施形態においては、以下のようにして人物属性識別システム10により人物の性別識別処理が行われる。
【0117】
先ず、人物属性識別システム10を稼働させる前に、事前学習を行い、髪色モデル61、非髪色モデル71、肌色モデル81、および非肌色モデル91をそれぞれガウス混合モデルにより作成し、髪色モデル記憶手段60、非髪色モデル記憶手段70、肌色モデル記憶手段80、および非肌色モデル記憶手段90にそれぞれ記憶させるとともに、顔用の男モデル51、顔用の女モデル52、髪型用の男モデル53、髪型用の女モデル54、ネクタイモデル55、非ネクタイモデル56、デコルテモデル57、および非デコルテモデル58をそれぞれガウス混合モデルにより作成し、人物属性識別用モデル記憶手段50に記憶させておく。
【0118】
また、事前確率であるPr[男]、Pr[tie|男]、Pr[non-tie|男]、Pr[dec|男]、Pr[non-dec|男]、Pr[女]、Pr[tie|女]、Pr[non-tie|女]、Pr[dec|女]、Pr[non-dec|女]を、実環境において統計をとることにより求めておく。
【0119】
次に、図2において、人物属性識別システム10を起動して人物の性別識別処理を開始し(ステップS1)、フレーム画像取込処理手段31により、カメラ20で撮影されたカラーフレーム画像を取り込む(ステップS2)。
【0120】
続いて、人物検出処理手段32により、フレーム画像取込処理手段31により取り込まれたカラーフレーム画像の中から、背景差分、フレーム差分、テンプレートマッチング等の既存の手法により、人物を抽出する処理を行う(ステップS3)。これにより、フレーム画像に人物が写っていた場合には、図5の左側部分に示すような背景を取り除いた人物画像100が得られる。
【0121】
それから、人物検出処理手段32による処理で人物が検出されたか否かを判断し(ステップS4)、人物が検出されて人物画像100が得られたと判断した場合には、正規化処理手段33により、人物検出処理手段32による処理で得られた人物画像100を正規化する処理を行う(ステップS5)。これにより、図5の右側部分に示す正規化画像200が得られる。また、正規化処理手段33は、正規化画像200の中から、顔狭領域画像201、顔広領域画像202、服装領域画像203を切り出す処理を行うとともに、肌色領域画像204および非肌色領域画像205を切り出す処理も行う。なお、人物検出処理手段32による処理でフレーム画像の中に複数の人物が検出された場合には、正規化処理手段33による正規化処理は、検出人物毎に行う。
【0122】
その後、図5の正規化画像200の中から切り出された各画像201〜205を用いて、顔情報、髪型情報、ネクタイ情報、およびデコルテ情報の各要素情報毎に個別識別処理を行う(ステップS6)。図3には、この個別識別処理の詳細な流れがフローチャートで示されている。なお、人物検出処理手段32による処理でフレーム画像の中に複数の人物が検出された場合には、図3の個別識別処理は、検出人物毎に行う。
【0123】
図3において、先ず、正規化画像200の中から切り出されて図示されないメモリに格納されている各画像201〜205を読み込み(ステップS601)、肌色モデル更新処理手段34により、検出人物の肌色情報(図5の肌色領域画像204を構成する各画素の肌色情報)を用いて、肌色モデル記憶手段80に記憶されている肌色モデル81の更新処理を行うとともに、非肌色モデル更新処理手段35により、検出人物の非肌色情報(図5の非肌色領域画像205を構成する各画素の非肌色情報)を用いて、非肌色モデル記憶手段90に記憶されている非肌色モデル91の更新処理を行う(ステップS602)。
【0124】
次に、顔基礎データ作成処理手段36Aにより、顔狭領域画像201を用いて顔前処理を行って顔基礎データ501を作成する(ステップS603)。また、髪型基礎データ作成処理手段36Cにより、顔広領域画像202を用いて髪型前処理を行って髪型基礎データ502を作成する(ステップS604)。図4には、この髪型前処理の詳細な流れがフローチャートで示されている。
【0125】
図4において、髪型基礎データ作成処理手段36Cは、顔広領域画像202から顔狭領域画像201を取り除いた後、顔狭領域画像201を取り除いた残りの部分において、髪色部分を抽出する。すなわち、顔狭領域画像201を取り除いた残りの部分を構成する画素の色情報を読み込み(ステップS60401)、この色データを、髪色モデル記憶手段60に記憶されている髪色モデル61、非髪色モデル記憶手段70に記憶されている非髪色モデル71、肌色モデル記憶手段80に記憶されている更新後の肌色モデル81、および非肌色モデル記憶手段90に記憶されている更新後の非肌色モデル91にそれぞれ入力し、前述した式(1)に基づき、髪色尤度算出処理(ステップS60402)、非髪色尤度算出処理(ステップS60403)、肌色尤度算出処理(ステップS60404)、および非肌色尤度算出処理(ステップS60405)を行って、髪色尤度301、非髪色尤度302、肌色尤度303、および非肌色尤度304をそれぞれ算出する処理を行う。
【0126】
続いて、髪型基礎データ作成処理手段36Cは、髪色尤度301が非髪色尤度302よりも大きく、かつ、肌色尤度303が非肌色尤度304よりも小さいか否かを判断し(ステップS60406)、この条件を満たす場合には、現在処理中の画素が髪部分であると推定し(ステップS60407)、一方、この条件を満たさない場合には、現在処理中の画素が髪部分以外であると推定する(ステップS60408)。
【0127】
それから、顔広領域画像202から顔狭領域画像201を取り除いた残りの部分において処理すべき次の画素があるか否かを判断し(ステップS60409)、次の画素があると判断した場合には、再び、ステップS60401の処理に戻り、以降、処理すべき画素がなくなるまで、ステップS60401〜S60409の処理を繰り返す。これにより、髪部分であると推定された画素のみを残すことで、図6に示すような髪型抽出画像400が得られる。
【0128】
そして、髪型基礎データ作成処理手段36Cは、得られた髪型抽出画像400について、顔用データの場合と同様に、モノクロ画像への変換処理を行った後(ステップS60410)、ヒストグラム平滑化処理を行う(ステップS60411)。これにより、髪型基礎データ502が得られる。
【0129】
また、図3において、ネクタイ基礎データ作成処理手段36Eにより、服装領域画像203を用いてネクタイ前処理を行って、ネクタイ基礎データ503を作成する(ステップS605)。この際、ネクタイ基礎データ作成処理手段36Eは、図7に示すような服装領域画像203Aをモノクロ画像に変換した後、1次微分(グラディエント)や2次微分(ラプラシアン)等の輪郭抽出フィルタ処理を行い、図7に示すようなエッジ画像410を作成する。そして、このエッジ画像410をベクトルで表すことにより、ネクタイ基礎データ503が得られる。
【0130】
さらに、図3において、デコルテ基礎データ作成処理手段36Gにより、服装領域画像203を用いてデコルテ前処理を行って、デコルテ基礎データ504を作成する(ステップS606)。この際、デコルテ基礎データ作成処理手段36Gは、図8に示すような服装領域画像203Bを構成する各画素について、肌色モデル記憶手段80に記憶されている更新後の肌色モデル81および非肌色モデル記憶手段90に記憶されている更新後の非肌色モデル91を用いて、すなわち前述した髪型抽出処理の際に用いた肌色モデル81および非肌色モデル91を用いて、前述した式(1)に基づき肌色尤度および非肌色尤度をそれぞれ算出し、肌色モデル81から出力される肌色尤度が非肌色モデル91から出力される非肌色尤度よりも大きい画素を肌色画素として抽出することにより、図8に示すような肌色抽出画像420を作成する。そして、この肌色抽出画像420をベクトルで表すことにより、デコルテ基礎データ504が得られる。
【0131】
続いて、顔圧縮データ作成処理手段36B、髪型圧縮データ作成処理手段36D、ネクタイ圧縮データ作成処理手段36F、およびデコルテ圧縮データ作成処理手段36Hにより、顔基礎データ501、髪型基礎データ502、ネクタイ基礎データ503、およびデコルテ基礎データ504についてそれぞれ主成分分析(PCA)処理を行い(ステップS607〜S610)、顔圧縮データ601、髪型圧縮データ602、ネクタイ圧縮データ603、およびデコルテ圧縮データ604をそれぞれ作成する。
【0132】
その後、男性顔尤度算出処理手段37Aにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されている顔用の男モデル51を用いて、顔圧縮データ601を入力データとして男性顔尤度算出処理を行い(ステップS611)、男性顔尤度701を算出する。また、女性顔尤度算出処理手段37Bにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されている顔用の女モデル52を用いて、顔圧縮データ601を入力データとして女性顔尤度算出処理を行い(ステップS612)、女性顔尤度702を算出する。
【0133】
同様に、男性髪型尤度算出処理手段37Cにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されている髪型用の男モデル53を用いて、髪型圧縮データ602を入力データとして男性髪型尤度算出処理を行い(ステップS613)、男性髪型尤度703を算出する。また、女性髪型尤度算出処理手段37Dにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されている髪型用の女モデル54を用いて、髪型圧縮データ602を入力データとして女性髪型尤度算出処理を行い(ステップS614)、女性髪型尤度704を算出する。
【0134】
同様に、ネクタイ尤度算出処理手段37Eにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されているネクタイモデル55を用いて、ネクタイ圧縮データ603を入力データとしてネクタイ尤度算出処理を行い(ステップS615)、ネクタイ尤度705を算出する。また、非ネクタイ尤度算出処理手段37Fにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されている非ネクタイモデル56を用いて、ネクタイ圧縮データ603を入力データとして非ネクタイ尤度算出処理を行い(ステップS616)、非ネクタイ尤度706を算出する。
【0135】
同様に、デコルテ尤度算出処理手段37Gにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されているデコルテモデル57を用いて、デコルテ圧縮データ604を入力データとしてデコルテ尤度算出処理を行い(ステップS617)、デコルテ尤度707を算出する。また、非デコルテ尤度算出処理手段37Hにより、前述した式(1)に基づき、人物属性識別用モデル記憶手段50に記憶されている非デコルテモデル58を用いて、デコルテ圧縮データ604を入力データとして非デコルテ尤度算出処理を行い(ステップS618)、非デコルテ尤度708を算出する。以上で、個別識別処理(図2のステップS6:図3のステップS601〜S618の処理)を終了する。
【0136】
続いて、図2において、識別結果情報算出処理手段38および識別結果トータル情報算出処理手段39による統合処理を行う(ステップS7)。すなわち、識別結果情報算出処理手段38により、前述した式(2)に基づき、8つの尤度701〜708を統合し、人物の属性(ここでは、性別)の識別結果を示す情報として、男の確率と女の確率との比(または比の値)を算出する。
【0137】
また、同一人物が複数のフレーム(現在処理中のフレームおよびそれ以前に処理したフレーム)で連続して検出されたときには、識別結果トータル情報算出処理手段39により、識別結果記憶手段95に記憶されているデータを用いて、それらの複数のフレームでの人物の属性(ここでは、性別)の識別結果をトータルした情報として、識別結果情報算出処理手段38により各フレームについて算出された男の確率の積と、各フレームについて算出された女の確率の積との比(または比の値)を算出する処理、あるいは識別結果情報算出処理手段38により各フレームについて算出された男の確率と女の確率との比の値(逆数でもよい。)についての積を算出する処理を行う。この際、各フレームでの検出人物が同一人物か否かは、各フレーム画像中の人物の位置情報、あるいは顔の肌色情報、顔特徴情報等に基づき判断することができる。なお、人物検出処理手段32による処理でフレーム画像の中に複数の人物が検出された場合には、識別結果情報算出処理手段38および識別結果トータル情報算出処理手段39による統合処理は、検出人物毎に行う。
【0138】
その後、識別結果出力処理手段40により、識別結果情報算出処理手段38による算出結果、および識別結果トータル情報算出処理手段39による算出結果がある場合にはその算出結果を、図示されないCRTディスプレイや液晶ディスプレイ等の表示装置の画面上に表示するか、または図示されないプリンタやプロッタ等の出力装置で出力する(ステップS8)。これらの表示装置の画面上への表示や出力装置への出力は、数値による表示・出力でもよく、グラフによる表示・出力でもよく、それらの組合せでもよく、さらには音声出力を合わせて行ってもよい。なお、人物検出処理手段32による処理でフレーム画像の中に複数の人物が検出された場合には、識別結果出力処理は、検出人物毎に行う。
【0139】
そして、識別結果出力処理手段40による処理を行った後には、次のフレーム画像の処理に移るため、再び、ステップS2の処理に戻り、以降、人物が検出されなくなるまで、ステップS2〜S8の処理が繰り返される。
【0140】
一方、ステップS4で、人物が検出されないと判断された場合には、前のフレームで人物が検出されていたか否かを判断し(ステップS9)、前のフレームで人物が検出されていた場合には、画像中に写っていた人物がカメラ20の撮影範囲から外に出たと判断し、識別結果出力処理手段40により、識別結果記憶手段95に記憶されているデータに基づき、その人物についての最終的な性別識別結果を、図示されないCRTディスプレイや液晶ディスプレイ等の表示装置の画面上に表示するか、または図示されないプリンタやプロッタ等の出力装置で出力する(ステップS10)。そして、次のフレーム画像の処理に移るため、再び、ステップS2の処理に戻る。また、ステップS9で、前のフレームで人物が検出されていない場合には、単に人物が検出されないフレームが連続しているだけであると判断し、ステップS2の処理に戻る。なお、特定の人物についての性別識別処理が目的の場合や、一人の人物についての性別識別処理だけを行うことが目的の場合等には、図2中の点線矢印に示す如く、その人物についてのステップS10の最終的な性別識別結果の出力処理を行った後に、一連の性別識別処理を終了してもよい(ステップS11)。
【0141】
このような本実施形態によれば、次のような効果がある。すなわち、人物属性識別システム10は、指標値算出処理手段37を備えているので、顔用データ、髪型用データ、ネクタイ用データ、デコルテ用データの4種類の人物属性識別用データに対応させて用意された8つの人物属性識別用モデル51〜58を用いて、4種類の人物属性識別用データがそれぞれ識別される対立カテゴリ毎に尤度を個別に算出し、合計8つの尤度を算出することができる。また、人物属性識別システム10は、識別結果情報算出処理手段38を備えているので、8つの尤度を統合することにより、人物の性別識別結果を示す情報を算出することができる。
【0142】
このため、従来のように顔情報だけを用いて性別識別を行う場合に比べ、識別精度を向上させることができる。また、単に4種類の人物属性識別用データに基づく個別の識別結果を集めるのではなく、それらの個別の識別結果として得られた8つの尤度を統合することにより、人物の性別識別結果を示す情報を算出するので、顔情報を含む複数の情報を効果的に統合させることができ、高い精度の識別を実現することができる。
【0143】
また、性別識別を行うための要素情報として、顔情報や髪型情報の他に、性別の違いが顕著に現れるネクタイの有無情報やデコルテ(服装の胸あき)の有無情報を用いるので、尤度の統合による識別精度の向上効果を、より一層高めることができる。
【0144】
さらに、人物属性識別システム10は、肌色モデル更新処理手段34および非肌色モデル更新処理手段35を備えているので、髪型用データ(髪型基礎データ502、髪型圧縮データ602)を作成する前に、検出人物の肌色情報および非肌色情報を用いて肌色モデル81および非肌色モデル91の更新処理を行うことができる。このため、肌色モデル81および非肌色モデル91を検出人物に適応させ、個人に適応した髪型抽出を行うことができるので、より正確な髪型抽出を行うことができる。
【0145】
そして、ネクタイ基礎データ作成処理手段36Eは、処理対象のフレーム画像からネクタイ基礎データ503を作成する過程で、輪郭抽出を行ってエッジ画像410(図7参照)を作成する処理を行うので、ネクタイ/非ネクタイの個別識別の精度を向上させることができる。このため、尤度の統合による識別精度の向上効果を、より一層高めることができる。
【0146】
また、人物属性識別システム10は、肌色モデル更新処理手段34および非肌色モデル更新処理手段35を備えているので、デコルテ用データ(デコルテ基礎データ504、デコルテ圧縮データ604)を作成する前に、検出人物の肌色情報および非肌色情報を用いて肌色モデル81および非肌色モデル91の更新処理を行うことができる。このため、肌色モデル81および非肌色モデル91を検出人物に適応させ、個人に適応したデコルテ/非デコルテ識別用の肌色抽出処理を行うことができるので、より正確な肌色抽出を行うことができる。
【0147】
さらに、人物属性識別用モデル51〜58は、主成分分析により次元圧縮を行い、この圧縮された次元の空間上に拡がるデータの分布形状を、ガウス混合モデルにより表現することにより構築されているので、例えば、顔情報の場合には、眼鏡をかけているか否か、髭があるか否かといった様々な顔に対応することができ、また、髪型情報の場合には、ロングヘアーかショートヘアーか、ハゲているか否かといった様々な髪型に対応することができる。
【0148】
また、指標値算出処理手段37は、ガウス混合モデルを用いて尤度を算出する処理を行うので、この尤度を同一人物について複数フレームで算出することができれば、複数フレームでの尤度の統合をベイズの法則により容易に実現することができる。このため、識別結果トータル情報算出処理手段39による複数フレームでの性別識別結果のトータル情報の算出処理を容易に実現することができる。
【0149】
そして、識別結果情報算出処理手段38は、人物の性別識別結果を示す情報を算出する際に、複数の尤度をベイズの定理により統合する処理を行うので、性別を識別するための別の要素(顔情報以外の情報)が得られたときに、この要素から算出される尤度を容易に統合することができる枠組みを構築することができる。従って、本実施形態のように、顔情報と、それ以外の髪型情報、ネクタイ情報、およびデコルテ情報とから算出される各尤度を容易に統合することができるのみならず、これらの4種類以外の情報を人物属性識別(ここでは、性別識別)のための要素情報として追加する場合でも、その要素情報から算出される尤度を容易に他の尤度と統合させることができる。
【0150】
さらに、人物属性識別システム10は、識別結果トータル情報算出処理手段39を備えているので、同一人物が検出された複数のフレームでそれぞれ算出された尤度をベイズの定理により統合することにより、複数のフレームでの性別識別結果をトータルした情報を算出することができる。このため、性別の識別精度を、より一層向上させることができる。
【0151】
そして、識別結果情報算出処理手段38は、ベイズの定理により尤度を統合する際に、実環境において統計を取ることにより求めた事前確率を用いるので、実環境での識別精度を向上させることができる。
【0152】
また、識別結果情報算出処理手段38および識別結果トータル情報算出処理手段39は、性別識別結果を示す情報として、男女の確率の比(または比の値)を算出するので、人物属性識別システム10のユーザは、その比(または比の値)を見ることにより、人物属性識別システム10により最終的に出された識別結果が確かなものなのか否かを容易に判断することができる。
【0153】
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲内での変形等は本発明に含まれるものである。
【0154】
すなわち、前記実施形態では、人物属性識別用モデル51〜58は、ガウス混合モデルにより構築されていたが、本発明における人物属性識別用モデルは、ガウス混合モデルに限定されるものではなく、例えば、サポートベクターマシン(SVM)やニューラルネットワーク等を採用してもよい。
【0155】
また、前記実施形態では、ガウス混合モデルを用いて算出された各尤度701〜708をベイズの定理により統合していたが、ベイズの定理による統合処理は、ガウス混合モデルを用いて算出される尤度以外の指標値の統合処理にも適用することができる。
【0156】
さらに、前記実施形態では、人物属性識別システム10は、専ら性別識別を行うシステムとされていたが、本発明の人物属性識別システムは、性別識別システムに限定されるものではなく、例えば、性別識別および年齢識別を同時並行的に行うシステム、あるいは専ら年齢識別を行うシステム等でもよい。
【0157】
より具体的には、性別識別および年齢識別を同時並行的に行うシステムとする場合には、人物属性識別用モデルとして、例えば、顔用の10歳未満男モデル、顔用の10代男モデル、顔用の20代男モデル、顔用の30代男モデル、…、顔用の80歳以上男モデル、および顔用の10歳未満女モデル、顔用の10代女モデル、顔用の20代女モデル、顔用の30代女モデル、…、顔用の80歳以上女モデル、並びに顔用の男モデル、顔用の女モデルを用意し、同様に髪型用の各モデル等も用意し、性別および年齢を同時並行的に識別する処理を行うことができる。この際、識別結果の出力は、例えば「男:女=○:○、10歳未満:10代:20代:30代:…:80歳以上=○:○:○:○:…:○」等としてもよく、あるいは「10歳未満男:10代男:20代男:30代男:…:80歳以上男:10歳未満女:10代女:20代女:30代女:…:80歳以上女=○:○:○:○:…:○:○:○:○:○:…:○」等としてもよい。
【産業上の利用可能性】
【0158】
以上のように、本発明の人物属性識別方法およびそのシステムは、例えば、統計処理、動向調査、データベース検索、セキュリティシステム等に用いるのに適している。
【図面の簡単な説明】
【0159】
【図1】本発明の一実施形態の人物属性識別システムの全体構成図。
【図2】前記実施形態の人物属性識別システムによる性別識別処理の全体の流れを示すフローチャートの図。
【図3】前記実施形態の人物属性識別システムによる各人物属性識別用データについての個別識別処理の流れを示すフローチャートの図。
【図4】前記実施形態の髪色判定処理を含む髪型前処理の流れを示すフローチャートの図。
【図5】前記実施形態の正規化処理の説明図。
【図6】前記実施形態の髪型前処理における髪型抽出画像の作成処理の説明図。
【図7】前記実施形態のネクタイ前処理におけるエッジ画像の作成処理の説明図。
【図8】前記実施形態のデコルテ前処理における肌色抽出画像の作成処理の説明図。
【符号の説明】
【0160】
10 人物属性識別システム
20 カメラ
34 肌色モデル更新処理手段
36 人物属性識別用データ作成処理手段
36A 人物属性識別用データ作成処理手段を構成する顔基礎データ作成処理手段
36B 人物属性識別用データ作成処理手段を構成する顔圧縮データ作成処理手段
36C 人物属性識別用データ作成処理手段を構成する髪型基礎データ作成処理手段
36D 人物属性識別用データ作成処理手段を構成する髪型圧縮データ作成処理手段
36E 人物属性識別用データ作成処理手段を構成するネクタイ基礎データ作成処理手段
36F 人物属性識別用データ作成処理手段を構成するネクタイ圧縮データ作成処理手段
36G 人物属性識別用データ作成処理手段を構成するデコルテ基礎データ作成処理手段
36H 人物属性識別用データ作成処理手段を構成するデコルテ圧縮データ作成処理手段
37 指標値算出処理手段
37A 指標値算出処理手段を構成する男性顔尤度算出処理手段
37B 指標値算出処理手段を構成する女性顔尤度算出処理手段
37C 指標値算出処理手段を構成する男性髪型尤度算出処理手段
37D 指標値算出処理手段を構成する女性髪型尤度算出処理手段
37E 指標値算出処理手段を構成するネクタイ尤度算出処理手段
37F 指標値算出処理手段を構成する非ネクタイ尤度算出処理手段
37G 指標値算出処理手段を構成するデコルテ尤度算出処理手段
37H 指標値算出処理手段を構成する非デコルテ尤度算出処理手段
38 識別結果情報算出処理手段
39 識別結果トータル情報算出処理手段
50 人物属性識別用モデル記憶手段
51 人物属性識別用モデルである顔用の男モデル
52 人物属性識別用モデルである顔用の女モデル
53 人物属性識別用モデルである髪型用の男モデル
54 人物属性識別用モデルである髪型用の女モデル
55 人物属性識別用モデルであるネクタイモデル
56 人物属性識別用モデルである非ネクタイモデル
57 人物属性識別用モデルであるデコルテモデル
58 人物属性識別用モデルである非デコルテモデル
60 髪色モデル記憶手段
61 髪色モデル
70 非髪色モデル記憶手段
71 非髪色モデル
80 肌色モデル記憶手段
81 肌色モデル
90 非肌色モデル記憶手段
91 非肌色モデル
410 エッジ画像
501 人物属性識別用データの一種である顔用データとしての顔基礎データ
502 人物属性識別用データの一種である髪型用データとしての髪型基礎データ
503 人物属性識別用データの一種であるネクタイ用データとしてのネクタイ基礎データ
504 人物属性識別用データの一種であるデコルテ用データとしてのデコルテ基礎データ
601 人物属性識別用データの一種である顔用データとしての顔圧縮データ
602 人物属性識別用データの一種である髪型用データとしての髪型圧縮データ
603 人物属性識別用データの一種であるネクタイ用データとしてのネクタイ圧縮データ
604 人物属性識別用データの一種であるデコルテ用データとしてのデコルテ圧縮データ
701 指標値である男性顔尤度
702 指標値である女性顔尤度
703 指標値である男性髪型尤度
704 指標値である女性髪型尤度
705 指標値であるネクタイ尤度
706 指標値である非ネクタイ尤度
707 指標値であるデコルテ尤度
708 指標値である非デコルテ尤度

【特許請求の範囲】
【請求項1】
カメラで撮影された人物の性別および/または年齢を含む人物属性を識別する人物属性識別方法であって、
前記人物の属性を識別するための顔用データを含む複数種類の人物属性識別用データが識別されるカテゴリを前記各人物属性識別用データ毎に複数ずつ設定し、これらのカテゴリに含まれるデータの特徴を示す人物属性識別用モデルを、前記各人物属性識別用データ毎に少なくとも1つずつ予め作成しておき、
前記カメラで前記人物を撮影して得られた人物属性識別処理対象のフレーム画像から前記複数種類の人物属性識別用データをそれぞれ作成した後、
作成した前記各人物属性識別用データに対応する前記各人物属性識別用モデルを用いて、作成した前記各人物属性識別用データが、いずれの前記カテゴリに含まれるデータであるかということについての確からしさを指標するための尤度、帰属度合い、確率、割合、またはこれらに類する指標値を、前記各人物属性識別用データ毎に個別に算出し、
その後、前記各人物属性識別用データ毎に個別に算出した複数の前記指標値を統合することにより、前記人物の属性の識別結果を示す情報を算出する
ことを特徴とする人物属性識別方法。
【請求項2】
請求項1に記載の人物属性識別方法において、
前記顔用データが識別される前記カテゴリとして、男性のカテゴリと女性のカテゴリとを設定し、
前記人物属性識別用モデルとして、前記男性のカテゴリに含まれるデータの特徴を示す顔用の男モデルと、前記女性のカテゴリに含まれるデータの特徴を示す顔用の女モデルとを作成しておき、
前記指標値を前記各人物属性識別用データ毎に個別に算出する際には、
前記顔用の男モデルを用いて、前記フレーム画像から作成した前記顔用データが、前記男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記顔用の女モデルを用いて、前記フレーム画像から作成した前記顔用データが、前記女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する
ことを特徴とする人物属性識別方法。
【請求項3】
請求項1または2に記載の人物属性識別方法において、
前記人物属性識別用データに、前記顔用データに加え、髪型用データを含ませ、
この髪型用データが識別される前記カテゴリとして、男性のカテゴリと女性のカテゴリとを設定し、
前記人物属性識別用モデルとして、前記男性のカテゴリに含まれるデータの特徴を示す髪型用の男モデルと、前記女性のカテゴリに含まれるデータの特徴を示す髪型用の女モデルとを作成しておき、
前記指標値を前記各人物属性識別用データ毎に個別に算出する際には、
前記髪型用の男モデルを用いて、前記フレーム画像から作成した前記髪型用データが、前記男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記髪型用の女モデルを用いて、前記フレーム画像から作成した前記髪型用データが、前記女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する
ことを特徴とする人物属性識別方法。
【請求項4】
請求項1〜3のいずれかに記載の人物属性識別方法において、
前記人物属性識別用データに、前記顔用データに加え、ネクタイを締めているか否かを識別するためのネクタイ用データを含ませ、
このネクタイ用データが識別される前記カテゴリとして、ネクタイありのカテゴリとネクタイ無しのカテゴリとを設定し、
前記人物属性識別用モデルとして、前記ネクタイありのカテゴリに含まれるデータの特徴を示すネクタイモデルと、前記ネクタイ無しのカテゴリに含まれるデータの特徴を示す非ネクタイモデルとを作成しておき、
前記指標値を前記各人物属性識別用データ毎に個別に算出する際には、
前記ネクタイモデルを用いて、前記フレーム画像から作成した前記ネクタイ用データが、前記ネクタイありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記非ネクタイモデルを用いて、前記フレーム画像から作成した前記ネクタイ用データが、前記ネクタイ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する
ことを特徴とする人物属性識別方法。
【請求項5】
請求項1〜4のいずれかに記載の人物属性識別方法において、
前記人物属性識別用データに、前記顔用データに加え、胸あきのある服を着ているか否かを識別するためのデコルテ用データを含ませ、
このデコルテ用データが識別される前記カテゴリとして、胸あきありのカテゴリと胸あき無しのカテゴリとを設定し、
前記人物属性識別用モデルとして、前記胸あきありのカテゴリに含まれるデータの特徴を示すデコルテモデルと、前記胸あき無しのカテゴリに含まれるデータの特徴を示す非デコルテモデルとを作成しておき、
前記指標値を前記各人物属性識別用データ毎に個別に算出する際には、
前記デコルテモデルを用いて、前記フレーム画像から作成した前記デコルテ用データが、前記デコルテありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記非デコルテモデルを用いて、前記フレーム画像から作成した前記デコルテ用データが、前記デコルテ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する
ことを特徴とする人物属性識別方法。
【請求項6】
請求項3に記載の人物属性識別方法において、
様々な環境で撮影された画像から抽出した髪色情報、非髪色情報、肌色情報、および非肌色情報を用いて、髪色モデル、非髪色モデル、肌色モデル、および非肌色モデルをそれぞれ予め作成しておき、
前記人物属性識別処理対象のフレーム画像から前記髪型用データを作成する前に、
前記人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、前記肌色モデルの更新を行い、
前記人物属性識別処理対象のフレーム画像から前記髪型用データを作成する際には、
前記髪色モデル、前記非髪色モデル、更新後の前記肌色モデル、および前記非肌色モデルを用いて、前記人物属性識別処理対象のフレーム画像を構成する各画素が髪部分か否かを推定することにより髪型を抽出する
ことを特徴とする人物属性識別方法。
【請求項7】
請求項4に記載の人物属性識別方法において、
前記人物属性識別処理対象のフレーム画像から前記ネクタイ用データを作成する際には、輪郭抽出を行ってエッジ画像を作成することを特徴とする人物属性識別方法。
【請求項8】
請求項5に記載の人物属性識別方法において、
様々な環境で撮影された画像から抽出した肌色情報および非肌色情報を用いて、肌色モデルおよび非肌色モデルをそれぞれ予め作成しておき、
前記人物属性識別処理対象のフレーム画像から前記デコルテ用データを作成する前に、
前記人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、前記肌色モデルの更新を行い、
前記人物属性識別処理対象のフレーム画像から前記デコルテ用データを作成する際には、
更新後の前記肌色モデルおよび前記非肌色モデルを用いて、前記人物属性識別処理対象のフレーム画像を構成する各画素が肌色部分か否かを推定することにより肌色部分を抽出する
ことを特徴とする人物属性識別方法。
【請求項9】
請求項1〜8のいずれかに記載の人物属性識別方法において、
前記各人物属性識別用モデルは、前記各人物属性識別用データが識別される前記カテゴリ毎に、事前学習として多くのサンプルデータを用いて主成分分析による特徴抽出を行った後、前記カテゴリに含まれるデータの分布形状を表現するガウス混合モデルを構築することにより作成し、
前記指標値を前記各人物属性識別用データ毎に個別に算出する際には、
前記人物属性識別処理対象のフレーム画像から作成された前記顔用データを含む前記複数種類の人物属性識別用データに基づき、前記ガウス混合モデルにより構築された前記各人物属性識別用モデルを用いて、前記カテゴリ毎に尤度を算出する
ことを特徴とする人物属性識別方法。
【請求項10】
請求項9に記載の人物属性識別方法において、
前記人物の属性の識別結果を示す情報を算出する際には、
複数の前記尤度をベイズの定理により統合することを特徴とする人物属性識別方法。
【請求項11】
請求項9または10に記載の人物属性識別方法において、
同一人物が検出された複数のフレームでそれぞれ算出された前記尤度をベイズの定理により統合することにより、前記複数のフレームでの前記人物の属性の識別結果をトータルした情報を算出する
ことを特徴とする人物属性識別方法。
【請求項12】
請求項10または11に記載の人物属性識別方法において、
前記ベイズの定理により前記尤度を統合する際に、事前確率を用いることを特徴とする人物属性識別方法。
【請求項13】
カメラで撮影された人物の性別および/または年齢を含む人物属性を識別する人物属性識別システムであって、
前記人物の属性を識別するための顔用データを含む複数種類の人物属性識別用データが識別されるカテゴリに含まれるデータの特徴を示す人物属性識別用モデルを、前記各人物属性識別用データ毎に少なくとも1つずつ記憶する人物属性識別用モデル記憶手段と、
前記カメラで前記人物を撮影して得られた人物属性識別処理対象のフレーム画像から前記複数種類の人物属性識別用データをそれぞれ作成する処理を行う人物属性識別用データ作成処理手段と、
前記人物属性識別用モデル記憶手段に記憶された対応する前記各人物属性識別用モデルを用いて、前記人物属性識別用データ作成処理手段により作成した前記各人物属性識別用データが、いずれの前記カテゴリに含まれるデータであるかということについての確からしさを指標するための尤度、帰属度合い、確率、割合、またはこれらに類する指標値を、前記各人物属性識別用データ毎に個別に算出する処理を行う指標値算出処理手段と、
この指標値算出処理手段により前記各人物属性識別用データ毎に個別に算出した複数の前記指標値を統合することにより、前記人物の属性の識別結果を示す情報を算出する処理を行う識別結果情報算出処理手段と
を備えたことを特徴とする人物属性識別システム。
【請求項14】
請求項13に記載の人物属性識別システムにおいて、
前記人物属性識別用モデル記憶手段には、前記人物属性識別用モデルとして、前記顔用データが識別される男性のカテゴリに含まれるデータの特徴を示す顔用の男モデルと、前記顔用データが識別される女性のカテゴリに含まれるデータの特徴を示す顔用の女モデルとが記憶され、
前記指標値算出処理手段は、前記顔用の男モデルを用いて、前記フレーム画像から作成した前記顔用データが、前記男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記顔用の女モデルを用いて、前記フレーム画像から作成した前記顔用データが、前記女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項15】
請求項13または14に記載の人物属性識別システムにおいて、
前記人物属性識別用データには、前記顔用データに加え、髪型用データが含まれ、
前記人物属性識別用モデル記憶手段には、前記人物属性識別用モデルとして、前記髪型用データが識別される男性のカテゴリに含まれるデータの特徴を示す髪型用の男モデルと、前記髪型用データが識別される女性のカテゴリに含まれるデータの特徴を示す髪型用の女モデルとが記憶され、
前記指標値算出処理手段は、前記髪型用の男モデルを用いて、前記フレーム画像から作成した前記髪型用データが、前記男性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記髪型用の女モデルを用いて、前記フレーム画像から作成した前記髪型用データが、前記女性のカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項16】
請求項13〜15のいずれかに記載の人物属性識別システムにおいて、
前記人物属性識別用データには、前記顔用データに加え、ネクタイを締めているか否かを識別するためのネクタイ用データが含まれ、
前記人物属性識別用モデル記憶手段には、前記人物属性識別用モデルとして、前記ネクタイ用データが識別されるネクタイありのカテゴリに含まれるデータの特徴を示すネクタイモデルと、前記ネクタイ用データが識別されるネクタイ無しのカテゴリに含まれるデータの特徴を示す非ネクタイモデルとが記憶され、
前記指標値算出処理手段は、前記ネクタイモデルを用いて、前記フレーム画像から作成した前記ネクタイ用データが、前記ネクタイありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記非ネクタイモデルを用いて、前記フレーム画像から作成した前記ネクタイ用データが、前記ネクタイ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項17】
請求項13〜16のいずれかに記載の人物属性識別システムにおいて、
前記人物属性識別用データには、前記顔用データに加え、胸あきのある服を着ているか否かを識別するためのデコルテ用データが含まれ、
前記人物属性識別用モデル記憶手段には、前記人物属性識別用モデルとして、前記デコルテ用データが識別される胸あきありのカテゴリに含まれるデータの特徴を示すデコルテモデルと、前記デコルテ用データが識別される胸あき無しのカテゴリに含まれるデータの特徴を示す非デコルテモデルとが記憶され、
前記指標値算出処理手段は、前記デコルテモデルを用いて、前記フレーム画像から作成した前記デコルテ用データが、前記デコルテありのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出するとともに、前記非デコルテモデルを用いて、前記フレーム画像から作成した前記デコルテ用データが、前記デコルテ無しのカテゴリに含まれるデータであることについての確からしさを示す指標値を算出する処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項18】
請求項15に記載の人物属性識別システムにおいて、
様々な環境で撮影された画像から抽出した髪色情報、非髪色情報、肌色情報、および非肌色情報を用いてそれぞれ作成された髪色モデル、非髪色モデル、肌色モデル、および非肌色モデルを記憶する髪色モデル記憶手段、非髪色モデル記憶手段、肌色モデル記憶手段、および非肌色モデル記憶手段と、
前記人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、前記肌色モデル記憶手段に記憶された前記肌色モデルの更新処理を行う肌色モデル更新処理手段とを備え、
前記人物属性識別用データ作成処理手段は、前記人物属性識別処理対象のフレーム画像から前記髪型用データを作成する際には、前記髪色モデル記憶手段に記憶された前記髪色モデル、前記非髪色モデル記憶手段に記憶された前記非髪色モデル、前記肌色モデル記憶手段に記憶された更新後の前記肌色モデル、および前記非肌色モデル記憶手段に記憶された前記非肌色モデルを用いて、前記人物属性識別処理対象のフレーム画像を構成する各画素が髪部分か否かを推定することにより髪型を抽出する処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項19】
請求項16に記載の人物属性識別システムにおいて、
前記人物属性識別用データ作成処理手段は、前記人物属性識別処理対象のフレーム画像から前記ネクタイ用データを作成する際には、輪郭抽出を行ってエッジ画像を作成する処理を行う構成とされていることを特徴とする人物属性識別システム。
【請求項20】
請求項17に記載の人物属性識別システムにおいて、
様々な環境で撮影された画像から抽出した肌色情報および非肌色情報を用いてそれぞれ作成された肌色モデルおよび非肌色モデルを記憶する肌色モデル記憶手段および非肌色モデル記憶手段と、
前記人物属性識別処理対象のフレーム画像から検出した人物の肌色情報を用いて、前記肌色モデル記憶手段に記憶された前記肌色モデルの更新処理を行う肌色モデル更新処理手段とを備え、
前記人物属性識別用データ作成処理手段は、前記人物属性識別処理対象のフレーム画像から前記デコルテ用データを作成する際には、前記肌色モデル記憶手段に記憶された更新後の前記肌色モデルおよび前記非肌色モデル記憶手段に記憶された前記非肌色モデルを用いて、前記人物属性識別処理対象のフレーム画像を構成する各画素が肌色部分か否かを推定することにより肌色部分を抽出する処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項21】
請求項13〜20のいずれかに記載の人物属性識別システムにおいて、
前記各人物属性識別用モデルは、前記各人物属性識別用データが識別される前記カテゴリ毎に、事前学習として多くのサンプルデータを用いて主成分分析による特徴抽出を行った後、前記カテゴリに含まれるデータの分布形状をガウス混合モデルにより表現して構築された学習モデルであり、
前記指標値算出処理手段は、前記人物属性識別用データ作成処理手段により作成された前記顔用データを含む前記複数種類の人物属性識別用データに基づき、前記ガウス混合モデルにより構築された前記各人物属性識別用モデルを用いて、前記カテゴリ毎に尤度を算出する処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項22】
請求項21に記載の人物属性識別システムにおいて、
前記識別結果情報算出処理手段は、前記指標値算出処理手段により算出された複数の前記尤度をベイズの定理により統合する処理を行う構成とされていることを特徴とする人物属性識別システム。
【請求項23】
請求項21または22に記載の人物属性識別システムにおいて、
同一人物が検出された複数のフレームでそれぞれ算出された前記尤度をベイズの定理により統合することにより、前記複数のフレームでの前記人物の属性の識別結果をトータルした情報を算出する処理を行う識別結果トータル情報算出処理手段を備えたことを特徴とする人物属性識別システム。
【請求項24】
請求項22に記載の人物属性識別システムにおいて、
前記識別結果情報算出処理手段は、前記ベイズの定理により前記尤度を統合する際に、事前確率を用いる処理を行う構成とされている
ことを特徴とする人物属性識別システム。
【請求項25】
請求項23に記載の人物属性識別システムにおいて、
前記識別結果トータル情報算出処理手段は、前記ベイズの定理により前記尤度を統合する際に、事前確率を用いる処理を行う構成とされている
ことを特徴とする人物属性識別システム。

【図1】
image rotate



【図2】
image rotate



【図3】
image rotate



【図4】
image rotate



【図5】
image rotate



【図6】
image rotate



【図7】
image rotate



【図8】
image rotate


【公開番号】特開2005−250712(P2005−250712A)
【公開日】平成17年9月15日(2005.9.15)
【国際特許分類】
【出願番号】特願2004−58342(P2004−58342)
【出願日】平成16年3月3日(2004.3.3)
【出願人】(899000068)学校法人早稲田大学 (602)
【Fターム(参考)】