説明

画像処理プログラムおよび画像処理装置

【課題】顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう可能性を低減させることを課題とする。
【解決手段】画像処理装置は、顔を撮影した画像を入力し、該入力した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補が該特徴点である尤もらしさを示す尤度値を取得する。続いて、画像処理装置は、候補として抽出された特徴点間の距離を評価するための参照値と尤度値とに基づいて、複数抽出した顔の特徴点の候補間の距離を評価する。そして、画像処理装置は、特徴点の候補間の距離に関する評価の結果に応じて画像から特徴点を検出する。

【発明の詳細な説明】
【技術分野】
【0001】
本願の開示する技術は、画像処理プログラムおよび画像処理装置に関する。
【背景技術】
【0002】
従来、例えば、顔を撮影した画像内から、目や鼻、口などの顔を構成する部品である、いわゆる顔部品を画像の特徴点として検出する技術がある。
【0003】
例えば、顔を撮影した画像内から顔部品の可能性がある複数の候補点を抽出し、抽出した複数の候補点の中から、顔部品の位置関係に基づいて顔部品の特徴点を検出する従来技術1がある。また、例えば、顔を撮影した画像内から顔部品の可能性がある複数の候補点を抽出し、抽出した複数の候補点を所定の条件でいくつかに絞込んだ後、絞り込んだ各候補点の中から、顔部品の位置関係に基づいて顔部品の特徴点を検出する従来技術2がある。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2008−3749号公報
【非特許文献】
【0005】
【非特許文献1】福井和広 他、「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌、Vol.J−80−D−II、No.8、pp.2170−2177、1997年8月
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、上述した従来技術1や従来技術2は、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう場合があるという問題がある。以下、顔を撮影した画像内から、顔部品として目の瞳孔および鼻の穴の特徴点を検出する場合を例に挙げ、上述した従来技術1や従来技術2の問題点について図20および図21を用いて説明する。図20および図21は、従来技術の問題点の説明に用いる図である。図20および図21に記述したP1は目の瞳孔に対応する特徴点の候補点を示し、図20および図21に記述したP2は鼻の穴に対応する特徴点の候補点を示す。
【0007】
上述した従来技術1は、まず、図20のA1に示すように、顔を撮影した画像内から瞳孔の可能性がある複数の候補点P1および鼻の穴の可能性がある複数の候補点P2を抽出する。続いて、従来技術1は、図20のA2に示すように、顔部品としての位置関係に基づいて、複数の候補点P1および複数の候補点P2について位置関係を評価する。そして、従来技術1は、図20のA3に示すように、顔を撮影した画像内から、瞳孔および鼻の穴の特徴点を最終的に検出する。このように、従来技術1は、顔部品の位置関係として尤もらしい候補点であれば、顔部品以外に対応する候補点であっても顔部品の特徴点として検出してしまう。このため、顔部品の特徴点を誤って検出してしまう場合がある。
【0008】
また、上述した従来技術2は、まず、図21のB1に示すように、顔を撮影した画像内から、瞳孔の可能性がある複数の候補点P1および鼻の穴の可能性がある複数の候補点P2を抽出する。続いて、従来技術2は、図21のB2に示すように、顔の画像内から抽出した複数の候補点P1および複数の候補点P2を所定の条件に基づいて絞り込んだ後、顔部品としての位置関係に基づいて、複数の候補点P1および複数の候補点P2の位置関係について評価する。そして、従来技術2は、図21のB3に示すように、顔を撮影した画像内から、瞳孔および鼻の穴の特徴点を最終的に検出する。このように、従来技術2は、顔部品の候補点を絞り込んだ段階で、上述した図21のB2に示すように、顔部品に対応する候補点が欠落してしまう場合がある。このため、顔部品の特徴点を誤って検出してしまう場合がある。
【0009】
開示の技術は、上記に鑑みてなされたものであって、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう可能性を低減させることが可能な画像処理プログラムおよび画像処理装置を提供することを目的とする。
【課題を解決するための手段】
【0010】
本願の開示する画像処理プログラムは、一つの態様において、コンピュータに、顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補が該特徴点である尤もらしさを示す尤度値を取得する処理を実行させる。さらに、コンピュータに、候補として抽出された特徴点間の距離を評価するための参照値と尤度値とに基づいて、複数抽出した顔の特徴点の候補間の距離を評価する処理を実行させる。さらに、コンピュータに、顔の特徴点の候補間の距離に関する評価の結果に応じて特徴点を検出する処理を実行させる。
【発明の効果】
【0011】
本願の開示する技術の一つの態様によれば、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう可能性を低減させることができる。
【図面の簡単な説明】
【0012】
【図1】図1は、実施例1に係る画像処理装置の構成を示す機能ブロック図である。
【図2】図2は、実施例1に係る距離情報記憶部に記憶される情報の説明に用いる概念図である。
【図3】図3は、実施例1に係る距離情報記憶部に記憶される情報の一例を示す図である。
【図4】図4は、実施例1に係る取得部の説明に用いる図である。
【図5】図5は、実施例1に係る取得部の説明に用いる図である。
【図6】図6は、実施例1に係る評価部の説明に用いる図である。
【図7】図7は、実施例1に係る評価部の説明に用いる図である。
【図8】図8は、実施例1に係る評価部の説明に用いる図である。
【図9】図9は、実施例1に係る評価部の説明に用いる図である。
【図10】図10は、実施例1に係る評価部の説明に用いる図である。
【図11】図11は、実施例1に係る評価部の説明に用いる図である。
【図12】図12は、実施例1に係る画像処理装置による処理の流れを示す図である。
【図13】図13は、実施例2に係る画像処理装置の構成を示す機能ブロック図である。
【図14】図14は、実施例2に係る重要度記憶部に記憶される情報の一例を示す図である。
【図15】図15は、実施例2に係る尤度調整部の説明に用いる図である。
【図16】図16は、実施例2に係る画像処理装置による処理の流れを示す図である。
【図17】図17は、実施例2に係る尤度調整処理の流れを示す図である。
【図18】図18は、実施例3に係る尤度調整処理の流れを示す図である。
【図19】図19は、画像処理プログラムを実行する電子機器の一例を示す図である。
【図20】図20は、従来技術の問題点の説明に用いる図である。
【図21】図21は、従来技術の問題点の説明に用いる図である。
【発明を実施するための形態】
【0013】
以下に、図面を参照しつつ、本願の開示する画像処理プログラムおよび画像処理装置の一実施形態について詳細に説明する。本願の開示する画像処理プログラムおよび画像処理装置の一実施形態として後述する実施例により、本願が開示する技術が限定されるものではない。なお、以下の実施例では、画像中に人の顔が写っている画像のことを顔画像と呼び、顔に含まれる目や鼻を顔部品と呼ぶ。そして、以下の実施例では、顔画像から、例えば、顔画像内に映し出された目の瞳孔および鼻の穴の位置を特徴点として検出する場合の一実施形態について説明する。また、以下の実施例に開示する技術は、処理内容に矛盾を生じさせない範囲で適宜組み合わせることが可能である。
【実施例1】
【0014】
[画像処理装置の構成(実施例1)]
図1は、実施例1に係る画像処理装置の構成を示す機能ブロック図である。なお、図1には、実施例1に係る画像処理装置の機能を説明する上で必要となる機能ブロックを図示する。図1に示すように、実施例1に係る画像処理装置200は、例えば、撮影装置100に接続される。
【0015】
撮影装置100は、例えば、単眼カメラやステレオカメラなどに該当する。撮影装置100は、例えば、顔画像を撮影して取得する。
【0016】
また、図2に示すように、画像処理装置200は、入力部210、記憶部220および制御部230を有する。
【0017】
入力部210は、例えば、カメラインターフェースであり、撮影装置100により取得された顔画像を入力する。入力部210は、撮影装置100から入力した顔画像を画像記憶部221に格納する。
【0018】
記憶部220は、図1に示すように、画像記憶部221および距離情報記憶部222を有する。なお、記憶部220は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子である。
【0019】
画像記憶部221は、例えば、入力部210により入力された顔画像を記憶する。
【0020】
距離情報記憶部222は、所定の撮影条件で顔画像を撮影した場合に、顔画像内に顔部品の候補として映し出された候補特徴点間の距離を評価するための距離情報、言い換えれば、顔画像内に映し出される顔部品の正しい位置関係の情報を記憶する。以下、図2および図3を用いて、距離情報記憶部222に記憶される距離情報について説明する。図2は、実施例1に係る距離情報記憶部に記憶される情報の説明に用いる概念図である。図3は、実施例1に係る距離情報記憶部に記憶される情報の一例を示す図である。
【0021】
図2のαは、顔画像内の目の瞳孔と鼻の穴との位置関係を示すモデルである。このモデルαは、図2に示すように、瞳孔のモデルであるE1およびE2、鼻の穴のモデルであるN1およびN2、瞳孔のモデルE1と鼻の穴のモデルN1とを接続するリンク、瞳孔のモデルE2と鼻の穴のモデルN2とを接続するリンクを含む。そして、上述した距離情報を概念的に説明すれば、瞳孔と鼻の穴を接続するリンクの長さ、つまり、図2に示すE1とN1との距離およびE2とN2との距離、言い換えれば、画像上の画素数に応じた距離に相当する。図2に示す例では、E1とN1との距離およびE2とN2との距離がそれぞれ「1.2」となっている。
【0022】
そこで、距離情報記憶部222は、図3に示すように、上述したモデルαについて、瞳孔のモデルE1と鼻の穴のモデルN1との距離、および瞳孔のモデルE2と鼻の穴のモデルN2との距離である「1.2」を距離情報として記憶する。なお、距離情報記憶部222が記憶しているモデルαについての瞳孔と鼻の穴との距離「1.2」は、瞳孔間の距離、つまりE1とE2との距離を「1」として、E1とN1との距離およびE2とN2との距離を正規化した値である。距離情報記憶部222は、瞳孔と鼻の穴との距離を正規化して持たなくても良く、例えば、瞳孔と鼻の穴との距離として、例えば画素数をそのまま記憶しても良い。
【0023】
また、実施例1は、顔画像内に映し出された目の瞳孔および鼻の穴の位置を特徴点として検出する場合の一実施形態を説明するものであるので、距離情報記憶部222は、瞳孔と鼻の穴との距離情報を記憶する。しかし、目の瞳孔および鼻の穴以外、顔部品、例えば、口(口角)や耳(耳の穴)なども検出対象とする場合には、検出対象とする顔部品間の距離情報をそれぞれ記憶することとなる。
【0024】
なお、距離情報記憶部222に記憶される距離情報は、例えば、学習用の複数の顔画像について瞳孔と鼻の穴との距離をそれぞれ算出し、算出した各距離に基づいて平均的な距離を導出することにより得ることができる。上述してきた距離情報は参照値の一例である。
【0025】
図1に戻り、制御部230は、顔検出部231と、取得部232と、評価部233と、検出部234とを有する。なお、制御部230は、例えば、電子回路や集積回路に該当する。電子回路としては、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)がある。また、集積回路としては、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などがある。
【0026】
顔検出部231は、入力部210により画像が入力されると、入力された画像を画像記憶部221から取得し、取得した画像内から顔を検出する。例えば、顔検出部231は、エッジ抽出やパターンマッチング、フレーム間差分やニューラルネットワークなどの既存技術を用いて、画像から顔の検出を試みる。
【0027】
取得部232は、顔検出部231により画像内から顔が検出された場合には、画像内に含まれる瞳孔や鼻の穴の候補を複数抽出して、複数抽出した瞳孔や鼻の穴の候補が瞳孔や鼻の穴である尤もらしさを示す尤度値を取得する。以下、図4および図5を用いて、取得部について説明する。図4および図5は、実施例1に係る取得部の説明に用いる図である。図4および図5に記述するE3およびE4は、画像から瞳孔の候補として抽出される候補特徴点を示す。図4および図5に記述するN3およびN4は、画像から鼻の穴の候補として抽出される候補特徴点を示す。
【0028】
例えば、取得部232は、分離度フィルタを用いて、図4に示すE3およびE4のように、画像から瞳孔の候補である候補特徴点を複数抽出する。また、取得部232は、分離度フィルタを用いて、例えば、図4に示すN3およびN4のように、画像から鼻の穴の候補である候補特徴点を複数抽出する。なお、取得部232は、分離度フィルタを用いる方法とは異なる方法、例えば、パターンマッチングなどを用いて候補特徴点を抽出してもよい。そして、取得部232は、画像から瞳孔や鼻の穴の候補を抽出する際に得られる分離度フィルタの応答値を尤度値として取得する。
【0029】
そして、取得部232は、内部的に有するRAMなどの記憶部に、画像から取得した候補特徴点に関するデータを格納しておく。例えば、図5に示すように、取得部232は、顔部品の種類ごとに、候補特徴点の識別記号、候補特徴点の画像上の座標および尤度値を対応付けて記憶部に格納する。例えば、図5に示すように、取得部232は、顔部品の種類「瞳孔」について、候補特徴点の識別記号「E3」、候補特徴点の画像上の座標「(X1,Y1)」および尤度値「V1」を対応付けて記憶部に格納する。また、取得部232は、図5に示すように、顔部品の種類「瞳孔」について、候補特徴点の識別記号「E4」、候補特徴点の画像上の座標「(X2,Y2)」および尤度値「V2」を対応付けて記憶部に格納する。また、取得部232は、図5に示すように、顔部品の種類「鼻の穴」について、候補特徴点の識別記号「N3」、候補特徴点の画像上の座標「(X3,Y3)」および尤度値「V3」を対応付けて記憶部に格納する。また、取得部232は、図5に示すように、顔部品の種類「鼻の穴」について、候補特徴点の識別記号「N4」、候補特徴点の画像上の座標「(X4,Y4)」および尤度値「V4」を対応付けて記憶部に格納する。
【0030】
図1に戻り、評価部233は、距離情報記憶部222に記憶されている距離情報と取得部232により取得された候補特徴点の尤度値とに基づいて、複数抽出した候補特徴点間の距離を評価する。以下、図6〜図11を用いて、評価部について説明する。図6〜図11は、実施例1に係る評価部の説明に用いる図である。
【0031】
図6に示すように、評価部233は、取得部232により複数抽出された候補特徴点の組合せを作成する。例えば、評価部233は、瞳孔の候補として抽出された候補特徴点2つと、鼻の穴の候補として抽出された候補特徴点2つからなる全ての組合せを作成する。なお、評価部233は、距離情報記憶部222に記憶されている距離情報が瞳孔間の距離を基準として正規化されている場合には、組合せを作成する段階で、瞳孔間の距離がこの距離情報と同等にならない組合せは作成しないようにすることができる。こうすれば、後段の処理負荷を軽減できる。
【0032】
続いて、評価部233は、作成した候補特徴点の組合せの中から組合せを1つ取得し、取得した組合せの候補特徴点間の距離を算出する。例えば、評価部233は、候補特徴点の組合せの中から組合せを取得し、取得した瞳孔の候補特徴点と鼻の穴の候補特徴点間の距離をそれぞれ算出する。例えば、図7に示す例では、評価部233は、候補特徴点の組合せβを取得し、瞳孔の候補特徴点E3と鼻の穴の候補特徴点N3との距離「1.5」、瞳孔の候補特徴点E4と鼻の穴の候補特徴点N4との距離「1.0」をそれぞれ算出する。
【0033】
続いて、評価部233は、距離情報記憶部222に記憶されている距離情報と取得部232により取得された候補特徴点の尤度値とに基づいて、上述した組合せβの候補特徴点間の距離を評価する。まず、評価部233は、距離情報記憶部222から距離情報を取得し、取得部232から組合せβの各候補特徴点の尤度値を取得する。続いて、評価部233は、組合せβの各候補特徴点間の距離と距離情報とを照合して、組合せβの各候補特徴点間の距離と距離情報との差を算出する。例えば、図8に示すように、評価部233は、組合せβの各候補特徴点間の距離と距離情報と照合して、「E3-N3間」の距離と「E1-N1間」の距離の差「0.3」を算出する。また、図8に示すように、評価部233は、「E4-N4間」と「E1-N1間」の距離の差「0.2」を算出する。
【0034】
続いて、評価部233は、組合せβの各候補特徴点の尤度値に応じて、組合せβの各候補特徴点間の距離と距離情報との差を調整する。例えば、評価部233は、組合せβの候補特徴点E3と候補特徴点N3の尤度値の和、および組合せβの候補特徴点E4と候補特徴点N4の尤度値の和をそれぞれ算出する。そして、評価部233は、尤度値の和に対応する係数Cを組合せβの各候補特徴点間の距離と距離情報との差に乗算することにより、各候補特徴点間の距離と距離情報との差を調整する。
【0035】
この係数Cの値は、例えば、図9に示すように、尤度値の和が「0」のときに最大値(MAX)となり、尤度値の和が大きくなるに従って小さくなって、尤度値の和がある値以上で一定の最小値(MIN)となる。この係数Cは、尤度値が高い候補特徴点間の距離については、距離情報記憶部222に記憶されている距離情報との差が小さくなるように調整するものである。つまり、評価部233は、係数Cを用いることにより、顔部品として尤もらしい候補特徴点ほど、顔部品、つまり瞳孔と鼻の穴とが正しい位置関係を有する可能性が高いものとして評価する。
【0036】
例えば、図10に示す例では、評価部233により、組合せβの各候補特徴点間の距離と距離情報との差を調整した結果、「E3-N3間」の距離と「E1-N1間」の距離の差は「0.1」、「E4-N4間」と「E1-N1間」の距離の差「0.3」となる。続いて、評価部233は各候補特徴点間の距離の差の和を算出する。この距離の差の和が小さいほど、例えば、画像内から抽出した瞳孔の候補点と鼻の穴の候補点の位置関係、例えば図8に示す組合せβが、瞳孔と鼻の穴の正しい位置関係、例えば図8に示すモデルαにより近いことを示す。
【0037】
そして、評価部233は、内部的に有するRAMなどの記憶部に、組合せβについての処理結果を格納する。例えば、図11に示すように、評価部233は、候補特徴点の組合せごとに、組合せの識別記号、組合せに含まれる候補特徴点の識別記号、候補特徴点の画像上の座標および候補特徴点間の距離の差の和を対応付けて記憶部に格納する。例えば、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「E3」と、候補特徴点の画像上の座標「(X1,Y1)」とを記憶部に格納する。同様に、評価部233は、図11に示すように、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「E4」と、候補特徴点の画像上の座標「(X2,Y2)」とを記憶部に格納する。同様に、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「N3」と、候補特徴点の画像上の座標「(X3,Y3)」とを記憶部に格納する。同様に、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「N4」と、候補特徴点の画像上の座標「(X4,Y4)」とを記憶部に格納する。また、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、候補特徴点間の距離の差の和「0.4」を記憶部に格納する。
【0038】
評価部233は、作成した候補特徴点の組合せの全てについて、上述してきた処理を完了したかどうかを判定し、組合せの全てについて処理を完了していない場合には、残りの組合せの中から組合せを1つ取得し、上述してきた処理を実行する。このように、評価部233が、候補特徴点の組合せの全てについて上述してきた処理を実行し、例えば、図11に示すようなデータを作成することで、候補特徴点の組合せごとに候補特徴点間の距離の差の和および候補特徴点の座標が分かる。
【0039】
図1に戻り、検出部234は、評価部233による候補特徴点の組合せについての評価結果に応じて、瞳孔や鼻の穴に対応する特徴点の位置を取得する。例えば、検出部234は、評価部233による評価結果を取得し、候補特徴点間の距離の差の和が最小であるレコードを特定する。そして、候補特徴点間の距離の差の和が最小であるレコードを特定すると、そのレコードの各候補特徴点の座標を取得する。
【0040】
なお、図1に示す画像処理装置200が、例えば携帯電話などの携帯端末に実装された場合、検出部234により取得された特徴点の座標値は、例えば角膜反射法などを用いて、携帯電話のユーザの視線を検出する処理に利用される。また、図1に示す画像処理装置200が、例えば車両に搭載されたECU(Electronic Control Unit)などに実装された場合、検出部234により取得された特徴点の座標値は、例えば角膜反射法などを用いて車両の運転者の視線を検出する処理にも利用される。例えば、検出部234により取得された特徴点の座標値を用いて視線を検出する方法を説明すると、まず、検出部234により取得された瞳孔のX,Y座標を利用して瞳孔の中心位置を求める。続いて、求めた瞳孔の中心位置と角膜反射点とを追跡し、角膜の曲率中心と眼球の回転中心との違いに基づき視線を検出する。また、検出部234により取得された画像の特徴点の座標値は、顔画像に基づいて個人を認証する認証処理時に、処理対象領域を画像から切り出す場合に利用される。例えば、瞳孔と鼻の穴を含む処理対象領域を切り出す場合に利用できる。
【0041】
[画像処理装置による処理(実施例1)]
続いて、図12を用いて、実施例1に係る画像処理装置による処理の流れを説明する。図12は、実施例1に係る画像処理装置による処理の流れを示す図である。なお、図12に示す処理は、画像フレームが入力されるたびに実行される。
【0042】
図12に示すように、例えば、制御部230により入力部210による画像の入力が検出されると(ステップS101,YES)、顔検出部231は、入力された画像を画像記憶部221から取得し、取得した画像内から顔を検出する(ステップ102)。なお、入力部210による画像の入力が検出されない場合(ステップS101,NO)、制御部230は、入力部210による画像の入力を繰り返し判定する。
【0043】
顔検出部231により画像から顔が検出されなかった場合には(ステップS102,NO)、制御部230は処理を終了し、次の画像の入力を待機する。顔検出部231により画像から顔が検出されると(ステップS102,YES)、取得部232は、画像内に含まれる瞳孔や鼻の穴の候補特徴点を複数抽出する(ステップS103)。なお、取得部232は、ステップS103において、例えば、画像から瞳孔や鼻の穴の候補を抽出する際に得られる分類度フィルタの応答値を尤度値として取得する。
【0044】
続いて、評価部233は、取得部232により複数抽出された候補特徴点の組合せを作成し(ステップS104)、作成した候補特徴点の組合せの中から組合せを1つ取得する(ステップS105)。続いて、評価部233は、ステップS105にて取得した組合せの候補特徴点間の距離を算出する(ステップS106)。続いて、評価部233は、距離情報記憶部222に記憶されている距離情報と取得部232により取得された候補特徴点の尤度値とに基づいて、ステップS105にて取得した組合せの候補特徴点間の距離を評価する(ステップS107)。つまり、ステップS107では、尤度値が高い候補特徴点間の距離と、距離情報記憶部222に記憶されている距離情報との差が小さくなるように調整する。そして、評価部233は、評価結果を格納し(ステップS108)、ステップS104にて作成した全組合せについて処理を完了したかどうかを判定する(ステップS109)。
【0045】
判定の結果、処理を完了していない場合には(ステップS109,NO)、評価部233は、上述したステップS105に戻り、ステップS105からステップS109までの処理を実行する。一方、評価部233により、処理が完了しているものと判定された場合には(ステップS109,YES)、検出部234は、評価部233による評価結果に基づいて画像の特徴点を検出する(ステップS110)。言い換えれば、検出部234は、候補特徴点間の距離の差の和が最小である候補特徴点の座標を取得する。
【0046】
なお、図12に示す例では、ステップS102に示すように、画像から顔を検出する処理を実行したが、顔を撮影した画像のみが入力される場合には、ステップS102の処理を省略することもできる。
【0047】
[実施例1による効果]
上述してきたように、実施例1に係る画像処理装置は、顔画像内に含まれる顔部品の候補特徴点を複数抽出し、顔部品である尤もらしさを示す尤度値を取得する。そして、実施例1に係る画像処理装置は、候補特徴点間の距離を評価するための距離情報と、候補特徴点の尤度値とに基づいて候補特徴点間の距離を評価する。そして、実施例1に係る画像処理装置は、候補特徴点間の距離に関する評価結果に応じて、顔画像に顔部品として含まれる特徴点を検出する。つまり、候補特徴点の尤度値に応じて候補特徴点間の距離を調整し、候補特徴点間の距離と距離情報記憶部222に記憶されている距離情報との差ができるだけ小さい候補特徴点ほど、顔部品の可能性が高い特徴点として検出する。このようなことから、実施例1によれば、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう可能性を低減させることができる。
【実施例2】
【0048】
上述した実施例1において、例えば、入力される画像の特性に応じた顔部品の種別ごとに重要度を予め設定し、この重要度を用いて候補特徴点の尤度値を調整してもよい。
【0049】
[画像処理装置の構成(実施例2)]
図13は、実施例2に係る画像処理装置の構成を示す機能ブロック図である。実施例2に係る画像処理装置は、重要度記憶部223および尤度調整部235を有する点が実施例1とは異なる。
【0050】
重要度記憶部223は、入力される画像の特性に応じた顔部品の種別ごとに予め設定された重要度を記憶する。図14は、実施例2に係る重要度記憶部に記憶される情報の一例を示す図である。図14に示すように、重要度記憶部223は、顔部品の種別ごとに予め設定された重要度を記憶し、例えば、瞳孔に対応する重要度「1.5」および鼻の穴に対応する重要度「0.8」を記憶する。ここで、入力される画像の特性とは、例えば、顔に正対する方向から撮影したり、顔の下側から上側へ向けた方向で撮影したり、顔の上側から下側へ向けた方向で撮影したりなど、どのような撮影方向で撮影された画像であるかを意味する。例えば、顔に正対する方向から撮影した画像では、鼻の穴よりも瞳孔がより鮮明に撮影される可能性が高いので、鼻の穴よりも瞳孔の重要度を高く設定する。あるいは、顔の下側から上側へ向けた方向で撮影した画像では、瞳孔よりも鼻の穴がより鮮明に撮影される可能性が高いので、瞳孔よりも鼻の穴の重要度を高く設定する。
【0051】
尤度調整部235は、重要度記憶部223に記憶されている重要度を用いて、取得部232により取得された候補特徴点の尤度値を調整する。図15は、実施例2に係る尤度調整部の説明に用いる図である。例えば、尤度調整部235は、図15に示すように、瞳孔の候補特徴点の尤度値に対して、重要度記憶部223に記憶されている重要度「1.5」を乗算することにより、瞳孔の候補特徴点の尤度値を調整する。また、尤度調整部235は、図15に示すように、鼻の穴の候補特徴点の尤度値に対して、重要度記憶部223に記憶されている重要度「0.8」を乗算することにより、鼻の穴の候補特徴点の尤度値を調整する。
【0052】
[画像処理装置による処理(実施例2)]
続いて、図16および図17を用いて、実施例2に係る画像処理装置による処理の流れを説明する。図16は、実施例2に係る画像処理装置による処理の流れを示す図である。図17は、実施例2に係る尤度調整処理の流れを示す図である。
【0053】
まず、図16を用いて、実施例2に係る画像処理装置による処理の流れを説明する。図16に示すステップS204の処理が、実施例1に係る画像処理装置による処理、つまり、上述した図12に示す処理とは異なる。
【0054】
取得部232により瞳孔や鼻の穴の候補特徴点が複数抽出されると(ステップS203)、尤度調整部235は、重要度記憶部223に記憶されている重要度を用いて、候補特徴点の尤度値を調整する尤度調整処理を実行する(ステップS204)。以下、ステップS205〜ステップS211までの処理は、上述した図12に示すステップS104〜ステップS110までの処理と同様である。
【0055】
つまり、評価部233は、候補特徴点の組合せを作成し(ステップS205)、組合せを1つ取得する(ステップS206)。続いて、評価部233は、ステップS206にて取得した組合せの候補特徴点間の距離を算出する(ステップS207)。続いて、評価部233は、距離情報記憶部222に記憶された距離情報と上述したステップS204により調整された尤度値とに基づいて、ステップS206にて取得した組合せの候補特徴点間の距離を評価する(ステップS208)。そして、評価部233は、評価結果を格納し(ステップS209)、ステップS205にて作成した全組合せについて処理を完了したかどうかを判定する(ステップS210)。判定の結果、処理を完了していない場合には(ステップS210,NO)、ステップS206に戻り、ステップS206からステップS210までの処理を実行する。一方、処理が完了しているものと判定された場合には(ステップS210,YES)、検出部234は、評価部233による評価結果に基づいて画像の特徴点を検出する(ステップS211)。
【0056】
次に、図17を用いて、実施例2に係る尤度調整処理について説明する。図17に示すように、尤度調整部235は、重要度記憶部223から顔部品ごとの重要度を読み込む(ステップS301)。そして、尤度調整部235は、重要度記憶部223から読み込んだ重要度を用いて、取得部232により取得された各候補特徴点の尤度値をそれぞれ調整する(ステップS302)。
【0057】
[実施例2による効果]
上述してきたように、実施例2に係る画像処理装置は、顔部品の種別ごとに重要度を予め設定し、この重要度を用いて候補特徴点の尤度値を調整する。そして、実施例2に係る画像処理装置は、例えば、入力される画像が、どのような撮影方向で撮影された画像が入力されたものであるのかに応じて、この重要度を設定する。このようなことから、実施例2によれば、撮影方向の違いにより、画像内により鮮明に映し出される顔部品が異なる点を考慮しつつ候補特徴点の尤度値を調整できる。
【実施例3】
【0058】
上述した実施例2では、例えば、入力される画像の特性に応じた顔部品の種別ごとに、候補特徴点の尤度値を調整するための重要度を予め設定する場合を説明した。これに限定されるのではなく、例えば、入力される画像内に含まれる顔部品の状態に応じて、この重要度を動的に調整してもよい。
【0059】
[画像処理装置の構成(実施例3)]
実施例3に係る画像処理装置は、実施例2に係る画像処理装置と基本的に同様の構成を有するが、以下に説明する尤度調整部235の処理機能が異なる。
【0060】
尤度調整部235は、重要度記憶部223に記憶されている顔部品ごとの重要度を初期値として読み込む。続いて、尤度調整部235は、入力した画像から、瞳孔の候補特徴点を含む所定サイズの領域を切り出し、切り出した領域内に含まれる各画素の輝度値を取得する。
【0061】
続いて、尤度調整部235は、取得した各画素の輝度値に基づいて、入力した画像が目を閉じた状態を撮影したものであるか否かを判定する。例えば、尤度調整部235は、輝度値のヒストグラムを作成し、肌色に対応する輝度値がピークの度数を有する場合には、目を閉じた状態であると判定する。
【0062】
尤度調整部235は、判定の結果、入力した画像が目を閉じた状態を撮影したものである場合には、瞳孔の重要度の初期値を低く変更し、この重要度を用いて瞳孔の候補特徴点の尤度値を調整する。一方、尤度調整部235は、判定の結果、入力した画像が目を閉じた状態を撮影したものではない、つまり目を開けた状態を撮影したものである場合には、瞳孔の重要度の初期値を高く変更し、この重要度を用いて瞳孔の候補特徴点の尤度値を調整する。なお、尤度調整部235は、入力した画像が目を開けた状態を撮影したものである場合、重要度記憶部223から初期値として読み込んだ重要度をそのまま用いて、瞳孔の候補特徴点の尤度値を調整してもよい。
【0063】
なお、尤度調整部235は、入力した画像内の上瞼と下瞼との間隔の変化により、瞳孔の重要度を動的に調整してもよい。例えば、尤度調整部235は、時系列で入力される数フレームの各画像について、エッジをそれぞれ検出して目の輪郭を抽出する。そして、尤度調整部235は、現入力フレームの方が一つ前のフレームよりも上瞼と下瞼との間隔が狭くなっていれば重要度を低く調整する。なお、目を開けた状態にあるか否かを判定するための値や、上瞼と下瞼との間隔を示す値は特徴量の一例である。
【0064】
[画像処理装置による処理(実施例3)]
続いて、図18を用いて、実施例3に係る尤度調整処理の流れを説明する。図18は、実施例3に係る尤度調整処理の流れを示す図である。図18に示すように、尤度調整部235は、重要度記憶部223に記憶されている顔部品ごとの重要度を初期値として読み込む(ステップS401)。続いて、尤度調整部235は、入力した画像から、瞳孔の候補特徴点を含む所定サイズの領域を切り出し、切り出した領域内に含まれる各画素の輝度値を取得する(ステップS402)。続いて、尤度調整部235は、取得した各画素の輝度値に基づいて、入力した画像が目を閉じた状態を撮影したものであるか否かを判定する(ステップS403)。
【0065】
尤度調整部235は、入力した画像が目を閉じた状態を撮影したものと判定した場合には(ステップS403,YES)、次のように処理を行う。すなわち、尤度調整部235は、瞳孔の重要度の初期値を低く調整して、この重要度を用いて瞳孔の候補特徴点の尤度値を調整し(ステップS404)、処理を終了する。一方、尤度調整部235は、入力した画像が目を閉じた状態を撮影したものではないと判定した場合には(ステップS403,NO)、次のように処理を行う。すなわち、尤度調整部235は、瞳孔の重要度の初期値を高く調整して、この重要度を用いて瞳孔の候補特徴点の尤度値を調整し(ステップS405)、処理を終了する。
【0066】
[実施例3による効果]
上述してきたように、実施例3に係る画像処理装置は、入力される画像内に含まれる顔部品の状態に応じて、この重要度を動的に調整する。このようなことから、実施例3によれば、例えば、画像から瞳孔に対応する特徴点を検出しようとしても、目を閉じて上手く検出できない場合など、顔部品が上手く検出できない状況に応じて候補特徴点の尤度値を調整できる。
【実施例4】
【0067】
以下、本願の開示する画像処理プログラムおよび画像処理装置の他の実施形態を説明する。
【0068】
(1)装置構成等
例えば、図1に示した画像処理装置200の機能ブロックの構成は概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、図1に示した顔検出部231と取得部232とを機能的または物理的に統合してもよい。同様に、図1に示した評価部233と検出部234とを機能的または物理的に統合してもよい。このように、画像処理装置200の機能ブロックの全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0069】
(2)画像処理プログラム
また、上述の実施例1〜3にて説明した画像処理装置200により実行される各種の処理は、例えば、車両に搭載されるECU(Electronic Control Unit)に実装されたマイコンなどの電子機器で所定のプログラムを実行することによって実現することもできる。そこで、以下では、図19を用いて、実施例1〜3にて説明した画像処理装置200により実行される処理と同様の機能を実現する画像処理プログラムを実行する電子機器の一例を説明する。図19は、画像処理プログラムを実行する電子機器の一例を示す図である。
【0070】
図19に示すように、画像処理装置200により実行される各種処理を実現する電子機器300は、各種演算処理を実行するCPU(Central Processing Unit)310を有する。また、図19に示すように、電子機器300は、カメラ画像を取得するためのカメラインターフェース320、ディスプレイとの間で各種データのやり取りを行うためのディスプレイインターフェース330を有する。また、図19に示すように、電子機器300は、ハードウェアアクセラレータとして機能するグラフィックエンジン340を有する。
【0071】
また、図19に示すように、電子機器300は、CPU310により各種処理を実現するためのプログラムやデータ等を記憶するハードディスク装置350と、各種情報を一時記憶するRAM(Random Access Memory)などのメモリ360とを有する。そして、各装置310〜360は、バス370に接続される。
【0072】
なお、CPU310の代わりに、例えば、MPU(Micro Processing Unit)などの電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路を用いることもできる。また、メモリ360の代わりに、フラッシュメモリ(flash memory)などの半導体メモリ素子を用いることもできる。
【0073】
ハードディスク装置350には、画像処理装置200の機能と同様の機能を発揮する画像処理プログラム351および画像処理用データ352が記憶されている。なお、この画像処理プログラム351を適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。
【0074】
そして、CPU310が、画像処理プログラム351をハードディスク装置350から読み出してメモリ360に展開することにより、図19に示すように、画像処理プログラム351は画像処理プロセス361として機能する。画像処理プロセス361は、ハードディスク装置350から読み出した画像処理用データ352等の各種データを適宜メモリ360上の自身に割当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。
【0075】
なお、画像処理プロセス361は、例えば、実施例1〜3で説明した画像処理装置200の制御部230にて実行される処理、例えば、図12,図16〜18に示す処理を含む。
【0076】
なお、画像処理プログラム351については、必ずしも最初からハードディスク装置350に記憶させておく必要はない。例えば、電子機器300が実装されたECUへ対応ドライブを接続可能なフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、電子機器300がこれらから各プログラムを読み出して実行するようにしてもよい。
【0077】
さらには、公衆回線、インターネット、LAN、WANなどを介して、電子機器300が実装されたECUに接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておく。そして、電子機器300がこれらから各プログラムを読み出して実行するようにしてもよい。
【0078】
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
【0079】
(付記1)コンピュータに、
顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得し、
前記候補として複数抽出された特徴点間の距離を評価するための参照値とそれぞれの前記特徴点の候補に対応する前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価し、
前記距離を評価した結果に応じて、前記複数抽出した顔の特徴点の候補の中から前記特徴点を検出する
処理を実行させることを特徴とする画像処理プログラム。
【0080】
(付記2)前記コンピュータに、
検出対象とする前記特徴点に応じた重要度を用いて前記尤度値を調整する処理をさらに実行させ、
前記参照値と前記調整された前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価することを特徴とする付記1に記載の画像処理プログラム。
【0081】
(付記3)前記入力した画像から得られる特徴量に応じて前記重要度を変更する処理をさらに実行させることを特徴とする付記2に記載の画像処理プログラム。
【0082】
(付記4)前記特徴点を検出する処理は、前記特徴点の候補間の距離に関する評価の結果が最も高い特徴点を検出し、
前記コンピュータに、
検出した前記特徴点の前記画像上の位置を取得し、取得した前記位置を用いて前記画像に撮影されている顔の視線を検出する処理をさらに実行させることを特徴とする付記1に記載の画像処理プログラム。
【0083】
(付記5)顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得する取得部と、
前記候補として複数抽出された特徴点間の距離を評価するための参照値とそれぞれの前記特徴点の候補に対応する前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価する評価部と、
前記距離を評価した結果に応じて、前記複数抽出した顔の特徴点の候補の中から前記特徴点を検出する検出部と
を有することを特徴とする画像処理装置。
【0084】
(付記6)検出対象とする前記特徴点に応じた重要度を用いて前記尤度値を調整する尤度調整部をさらに有し、
前記参照値と前記調整された前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価することを特徴とする付記5に記載の画像処理装置。
【0085】
(付記7)前記入力した画像から得られる特徴量に応じて前記重要度を変更する変更部をさらに有することを特徴とする付記6に記載の画像処理装置。
【0086】
(付記8)前記検出部は、前記特徴点の候補間の距離に関する評価の結果が最も高い特徴点を検出し、
検出した前記特徴点の前記画像上の位置を取得し、取得した前記位置を用いて前記画像に撮影されている顔の視線を検出する視線検出部をさらに有することを特徴とする付記5に記載の画像処理装置。
【符号の説明】
【0087】
100 撮影装置
200 画像処理装置
210 入力部
220 記憶部
221 画像記憶部
222 距離情報記憶部
223 重要度記憶部
230 制御部
231 顔検出部
232 取得部
233 評価部
234 検出部
235 尤度調整部
300 電子機器
310 CPU
320 カメラインターフェース
330 ディスプレイインターフェース
340 グラフィックエンジン
350 ハードディスク装置
351 画像処理プログラム
352 画像処理用データ
360 メモリ
361 画像処理プロセス

【特許請求の範囲】
【請求項1】
コンピュータに、
顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得し、
前記候補として複数抽出された特徴点間の距離を評価するための参照値とそれぞれの前記特徴点の候補に対応する前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価し、
前記距離を評価した結果に応じて、前記複数抽出した顔の特徴点の候補の中から前記特徴点を検出する
処理を実行させることを特徴とする画像処理プログラム。
【請求項2】
前記コンピュータに、
検出対象とする前記特徴点に応じた重要度を用いて前記尤度値を調整する処理をさらに実行させ、
前記参照値と前記調整された前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価することを特徴とする請求項1に記載の画像処理プログラム。
【請求項3】
前記画像内から得られる特徴量に応じて前記重要度を変更する処理をさらに実行させることを特徴とする請求項2に記載の画像処理プログラム。
【請求項4】
顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得する取得部と、
前記候補として複数抽出された特徴点間の距離を評価するための参照値とそれぞれの前記特徴点の候補に対応する前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価する評価部と、
前記距離を評価した結果に応じて、前記複数抽出した顔の特徴点の候補の中から前記特徴点を検出する検出部と
を有することを特徴とする画像処理装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate


【公開番号】特開2012−68719(P2012−68719A)
【公開日】平成24年4月5日(2012.4.5)
【国際特許分類】
【出願番号】特願2010−210822(P2010−210822)
【出願日】平成22年9月21日(2010.9.21)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】