説明

顔向き検出装置

【課題】ユーザの顔向きを精度良く検出できる顔向き検出装置を提供すること。
【解決手段】顔向き検出装置は、交差する縦縞及び横縞から構成された縞模様の光をユーザの顔に照射する(S11)。その顔をカメラで撮像する(S12)。撮像した顔画像から、光の縞模様を構成する矩形に対応する矩形対応部分をそれぞれ特定する(S13)。矩形対応部分ごとに、各矩形対応部分の変形具合に基づいて各矩形の法線方向を算出する(S14)。三次元モデルDB40に記憶された三次元の顔モデルの各部位の法線方向と各矩形の法線方向との誤差を算出する(S15)。誤差が閾値未満か否かを判断する(S16)。誤差が閾値より大きい場合には(S16:No)、閾値未満になるように顔モデルの三次元パラメータを変更する(S17)。誤差が閾値未満になったときの顔モデルの顔向きを運転者の顔向きとして決定する(S18)。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザの顔を撮像してその撮像した画像に基づいてユーザの顔向きを検出する顔向き検出装置に関する。
【背景技術】
【0002】
従来、車両の運転者などのユーザの顔向きを検出する顔向き検出装置が知られている。ここで、図14は、従来の顔向き検出装置の概略構成を示した図である。図14に示すように、従来では、LED101が、ユーザの顔fに近赤外光などの光104を照射する。その光104がユーザの顔fに照射された状態で、カメラ102がユーザの顔fを撮像する。そして、マイコン(図示外)が、カメラ102で撮像された顔の画像103に基づいて、ユーザの顔fの顔向きを検出する。より具体的には、マイコンは、例えば、顔の画像103に含まれる特徴量(エッジ情報)から口や鼻などの顔fのパーツを検出し、その顔fのパーツの位置などに基づいて顔向きを検出する。
【0003】
また、特許文献1では、格子パターン投影法を用いてユーザの顔の形状(顔の幅、鼻の位置等)を検出するとともに、その顔の形状(鼻の向き等)に基づいて顔の上下左右の角度(顔向き)を検出する顔向き検出装置が開示されている。より具体的には、特許文献1の顔向き検出装置は、ユーザの顔に複数のスリット光を照射する。この際、各スリット光を特定できるようにするために、他のスリット光よりも太い基準スリット光が定められる。それらスリット光が照射されたユーザの顔を撮像する。その撮像した顔の画像から各スリット光を特定する。特定した各スリット光の形状や位置に基づいて、光切断法を用いた顔形状の三次元データを生成する。そして、その三次元データの顔形状に基づいて顔向きを検出する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010−129050号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、上記した顔の画像から顔のパーツを検出して顔向きを検出する方法では、その顔の画像は奥行き方向の情報が欠落しているので、顔向きの推定誤差が生じるという問題点がある。また、顔のパーツを画像全体から探索する必要があるので、類似した特徴量を持つものに顔のパーツが誤検出されやすい。この場合には、顔向きの検出精度が低下してしまう。この点、特許文献1の顔向き検出装置では、顔形状の三次元データに基づいて顔向きを検出しているので上記の問題点は無いが、三次元データの顔形状からどのようにして顔向きを検出するかについては特許文献1には具体的な記載は無い。
【0006】
本発明は上記問題点に鑑みてなされたものであり、ユーザの顔向きを精度良く検出できる顔向き検出装置を提供することを課題とする。
【課題を解決するための手段】
【0007】
上記課題を解決するために、本発明に係る顔向き検出装置は、交差する縦縞及び横縞から構成された縞模様の光をユーザの顔に照射する照射手段と、
前記縞模様の光が照射されたユーザの顔の画像であるユーザ顔画像を取得する画像取得手段と、
その画像取得手段が取得した前記ユーザ顔画像から、前記縞模様の最小単位を構成する矩形に対応する矩形対応部分をそれぞれ特定する矩形特定手段と、
その矩形特定手段が特定した前記矩形対応部分ごとに、前記矩形対応部分の形状に基づいて前記矩形の法線方向を算出する法線方向算出手段と、
その法線方向算出手段が算出した各矩形の法線方向に基づいて前記ユーザの顔向きを決定する顔向き決定手段と、を備えることを特徴とする。
【0008】
これによれば、照射手段が、交差する縦縞及び横縞から構成された縞模様の光をユーザの顔に照射する。その縞模様は、縦縞と横縞の交点を頂点とする矩形を最小単位として構成される。縞模様がユーザの顔に照射されると、縞模様を構成する各矩形はユーザの顔の表面に沿って傾けられる。そのため、画像取得手段が取得するユーザ顔画像における矩形に対応する矩形対応部分は、矩形が変形された形状とされる。その矩形対応部分の形状は、矩形の傾きに応じたものとされる。よって、法線方向算出手段は、矩形特定手段が特定した矩形対応部分の形状に基づいて、各矩形の法線方向(矩形の傾き)を算出することができる。各矩形の法線方向は、ユーザの顔の三次元情報が反映されたもの、つまりユーザの顔向きが反映されたものとされるので、顔向き決定手段は、各矩形の法線方向に基づいてユーザの顔向きを決定することができる。このように、本発明の顔向き検出装置は、ユーザの顔の三次元情報に基づいて顔向きを決定しているので、顔向きを精度良く検出できる。
【0009】
また、本発明の顔向き検出装置は、人の顔の三次元モデルである顔モデルが記憶された顔モデル記憶手段を備え、
前記顔向き決定手段は、前記矩形の法線方向のそれぞれと前記顔モデルの各部分の法線方向のそれぞれとの誤差を算出する誤差算出手段と、
その誤差算出手段が算出した前記誤差が最小となるように、前記顔モデルの顔向きを変化させる顔モデル変化手段と、を含み、
前記顔向き決定手段は、前記顔モデル変化手段が変化させた前記顔モデルの顔向きを前記ユーザの顔向きとして決定することを特徴とする。
【0010】
これによれば、顔向き決定手段における誤差算出手段は、矩形の法線方向のそれぞれと顔モデル記憶手段に記憶された顔モデルの各部分の法線方向のそれぞれとの誤差を算出する。ここで、顔モデルは人の顔の三次元モデルであるので、顔モデルの各部分の法線方向は、顔モデルの顔向きが反映されたものとされる。よって、誤差算出手段が算出する誤差は、ユーザの顔向きと顔モデルの顔向きとの差に相当する。そして、顔モデル変化手段が、その誤差が最小となるように顔モデルの顔向きを変化させるので、顔モデルの顔向きをユーザの顔向きに近づけることができる。これにより、顔向き決定手段は、顔モデルの顔向きをユーザの顔向きとして決定することができる。
【0011】
また、本発明の顔向き検出装置における前記顔モデル変化手段は、前記顔モデルの顔向きとして、前記顔モデルの上下方向の軸回りの角度であるヨー角、前記顔モデルの左右方向の軸回りの角度であるピッチ角及び前記顔モデルの前後方向の軸回りの角度であるロール角を変化させることを特徴とする。
【0012】
これによれば、ヨー角、ピッチ角及びロール角の三つの角度をパラメータとして顔向きを決定しているので、顔向きを精度良く検出できる。
【0013】
また、本発明の顔向き検出装置における前記顔モデル変化手段は、前記顔モデルの顔向きに加え、前記ユーザ顔画像で示される前記ユーザの顔の大きさに近づける方向に、前記顔モデルの大きさを変化させることを特徴とする。
【0014】
これによれば、顔モデル変化手段は、ユーザの顔に近づける方向に顔モデルの大きさを変化させるので、ユーザの顔の大きさにかかわらず、誤差算出手段は上記誤差を精度良く算出することができる。よって、顔向きを精度良く検出できる。
【0015】
また、本発明の顔向き検出装置における前記顔モデル変化手段は、前記顔モデルの顔向きに加え、前記ユーザ顔画像で示される前記ユーザの顔の重心位置に近づける方向に、前記顔モデルの重心位置を変化させることを特徴とする。
【0016】
これによれば、顔モデル変化手段は、ユーザの顔の重心位置に近づける方向に顔モデルの重心位置を変化させるので、ユーザ顔画像がどの重心位置であっても、換言するとユーザの顔が上下左右のどの位置にあるとしても、誤差算出手段は上記誤差を精度良く算出することができる。よって、顔向きを精度良く検出できる。
【0017】
また、本発明の顔向き検出装置における前記照射手段は、
縦縞模様の光を前記ユーザの顔に照射する縦縞用照射手段と、
前記縦縞模様に交差する横縞模様の光を前記ユーザの顔に照射する横縞用照射手段と、を含むものとすることができる。
【0018】
これによれば、縦縞用照射手段が縦縞模様の光をユーザの顔に照射し、横縞用照射手段が横縞模様の光をユーザの顔に照射するので、縦縞及び横縞から構成された縞模様の光をユーザの顔に照射することができる。
【0019】
また、本発明の顔向き検出装置における前記照射手段は、
光を照射する光源と、
その光源からの光が入射され、その光を一方向の縞模様の光となるように回折させて前記ユーザの顔に照射させる回折素子と、
前記ユーザの顔に照射された光の縞模様が縦縞模様と横縞模様の間で変化するように前記回折素子を回転させる第一の回転手段と、を含み、
前記画像取得手段は、前記縦縞模様の光が照射された前記ユーザの顔の画像及び前記横縞模様の光が照射された前記ユーザの顔の画像を、前記ユーザ顔画像として取得するとしてもよい。
【0020】
これによれば、第一の回転手段が回折素子を回転させるので、一つの光源及び回折素子で、縦縞模様の光と横縞模様に光とを時間をずらしてユーザの顔に照射することができる。そして、画像取得手段が取得する各縞模様の光の画像を、ユーザ顔画像として用いることができる。
【0021】
また、本発明の顔向き検出装置は、前記顔向き決定手段が前回に決定した前記ユーザの顔向きと同じ角度だけ前記照射手段による前記縞模様の光を回転させる第二の回転手段を備えることを特徴とする。
【0022】
これによれば、第二の回転手段が、前回のユーザの顔向きと同じ角度だけ縞模様の光を回転させるので、常に一定の方向の縞模様の光をユーザの顔に照射することができる。よって、各回のユーザの顔向きの検出を安定させることができる。
【図面の簡単な説明】
【0023】
【図1】第一実施形態の顔向き検出装置1の概略構成を示したブロック図である。
【図2】照明部20の詳細を説明する図である。
【図3】照明部20からの光50が運転者の顔fにどのように照射されるかを説明する図である。
【図4】第一実施形態の顔向き検出処理の手順を示したフローチャートである。
【図5】顔画像60を示した図である。
【図6】矩形540の法線方向n1の算出方法を説明する図である。
【図7】顔モデル70を示した図である。
【図8】第二実施形態の顔向き検出装置2の概略構成を示したブロック図である。
【図9】照明部25の詳細を説明する図である。
【図10】第二実施形態の顔向き検出処理の手順を示したフローチャートである。
【図11】変形例1に係る照明部26を示した図である。
【図12】変形例2の顔向き検出処理の手順を示したフローチャートである。
【図13】光50を顔向きに追従させて回転させた状態を示した図である。
【図14】従来の顔向き検出装置の概略構成を示した図である。
【発明を実施するための形態】
【0024】
(第一実施形態)
次に、本発明に係る顔向き検出装置の第一実施形態について図面を参照しながら説明する。本実施形態では、車両の運転者の顔向きを検出するドライバモニタシステムに本発明を適用した例について説明する。ここで、図1は、本実施形態の顔向き検出装置1の概略構成を示したブロック図である。その顔向き検出装置1は車両(図示外)に搭載される。図1に示すように、顔向き検出装置1は、照明部20、カメラ30、三次元モデルDB40及びこれらと接続された制御部10を備えている。
【0025】
照明部20は、後述するカメラ30で運転者の顔を明瞭に撮像するために、運転者の顔に光を照射するものである。図2は、その照明部20の詳細を説明する図であり、具体的には図2(a)は照明部20の外観斜視図であり、図2(b)は照明部20から照射される光50を説明する図である。なお、図2(a)は、第一筐体211、第二筐体221の内部が透視された図とされる。また、図2(b)は、光50が直交する面におけるその光50の模様を示した図とされる。図1、図2に示すように、照明部20は、縦縞用照明部21及び横縞用照明部22から構成される。縦縞用照明部21は、第一筐体211、第一LED212及び第一回折素子213を有している。また、横縞用照明部22は、第二筐体221、第二LED222及び第二回折素子223を有している。第一筐体211は、第一LED212及び第一回折素子213が収容された円筒状の筐体である。また、第二筐体221は、第二LED222及び第二回折素子223が収容された円筒状の筐体である。各筐体211、221は、各LED212、222から照射される光が周囲に漏れないように、光を透過しない材質で形成されている。また、各筐体211、221の端部211a、221aには、回折素子213、223から出射される光が外部に照射されるように、開口が形成されている。
【0026】
第一LED212及び第二LED222は、それぞれ近赤外光を照射する近赤外LEDとされる。照射する光を近赤外光としているのは、運転者の顔に光を照射した際に運転者にその光を眩しく感じさせないようにするためである。第一LED212は、第一筐体211内において、第一筐体211の端部211aと対向する位置に設けられる。すなわち、第一LED212は、端部211aに向けて光を照射する位置に設けられている。同様に、第二LED222は、第二筐体221内において、第二筐体221の端部221aと対向する位置に、すなわち端部221aに向けて光を照射する位置に設けられる。
【0027】
第一回折素子213及び第二回折素子223は、それぞれ一方向の縞模様の光となるように入射された光を回折させるものである。より具体的には、それら回折素子213、223は、板状のガラス等で形成され、その板面には、互いに平行に周期的に並んだ直線状の凹凸から構成された格子パターン213a、223aが形成されている。なお、それら格子パターン213a、223aは、互いに同じ形状の凹凸から構成され、凹凸間の間隔も同じとされる。各回折素子213、223は、それぞれ各筐体211、221の端部211a、221a周辺に設けられる。この際、各格子パターン213a、223aの方向が互いに直角の関係となるように、各回折素子213、223の設置向きが調整されている。
【0028】
以上の構成を有する各照明部21、22は、左右や上下に並べて配置される。各LED212、222からの光が各回折素子213、223に入射され、その光は各格子パターン213a、223aにしたがって回折される。そして、回折された光は、各筐体211、221の端部211a、221aから外部に出射される。この際、各格子パターン213a、223aが、平行に周期的に並んだ直線状の凹凸から構成されているので、その凹凸に応じた間隔で光が強め合う(干渉する)。つまり、各照明部21、22からの光は、図2(b)に示すように、それぞれ一方向の縞模様(干渉縞)の光51、52とされる。また、各回折素子213、223の設置向きが上記のように調整されているので、それら光51、52の縞51a、52aは互いに直交している。なお、以下、縦縞用照明部21からの光51を縦縞模様の光と言い、横縞用照明部22からの光52を横縞模様の光と言う。それら縦縞模様の光51、横縞模様の光52が組み合わされることで、照明部20全体として、交差する縦縞51a及び横縞52aから構成された縞模様の光50が照射されるようになっている。
【0029】
その光50は、縦縞模様の光51と横縞模様の光52の各縞51a、52aの交点53を頂点とした矩形54を最小単位として構成されている。本実施形態では、各格子パターン213a、223aの形状及び凹凸間隔が互いに同じとされているので、縦縞模様の光51の縦縞51aの間隔と横縞模様の光52の横縞52aの間隔は略同じとされる。よって、光50の矩形54は略正方形とされる。なお、光50の矩形54は正方形でなくてもよく、長方形であってもよい。この場合には、各格子パターン213a、223aの形状や凹凸間隔を調整すればよい。
【0030】
以上の構成を有する照明部20は、運転者の顔に光を照射できる位置に設けられ、具体的には例えば運転席前方のステアリングコラムの上面(図示外)に設けられる。ここで、図3は、照明部20からの光50が運転者の顔fにどのように照射されるかを説明する図である。なお、図3では、照明部20、運転者の顔fに加え、後述するカメラ30を図示している。上記したように、各LED212、222からの光は、各回折素子213、223で回折されて縞模様の光50(図2(b)参照)として外部に出射される。その光50は、運転者の顔fに照射される。なお、顔fに到達される前の光50と区別するために、以下、運転者の顔fの位置における光50の縦縞51aを符号「510a」で表し、横縞52aを符号「520a」で表し、縦縞と横縞の交点53を符号「530」で表し、矩形54を符号「540」で表す。
【0031】
図3に示すように、光50の縦縞510a、横縞520aが、運転者の顔fの表面に沿った位置に表示される。ここで、顔fの頭と顎間の方向を上下方向とし、顔fの左右の耳間の方向を左右方向とし、顔f側と顔fの裏側間の方向を前後方向としたときに、縦縞510aが顔fの上下方向と凡そ平行になるように、横縞520aが顔fの左右方向と凡そ平行になるように、各回折素子213、223の向きが調整されている。また、光50の各交点530で形成される各矩形540の法線方向n1は、運転者の顔fの形状に応じた方向とされる。なお、照明部20が本発明の「照射手段」に相当する。また、縦縞用照明部21が本発明の「縦縞用照射手段」に相当し、横縞用照明部22が本発明の「横縞用照射手段」に相当する。
【0032】
図1の説明に戻り、カメラ30は、例えばCCDイメージセンサから構成され、光50が照射された状態の運転者の顔f(図3参照)を一定の方向から撮像するものである。そのカメラ30は、運転者の顔fを撮像できる位置に設けられ、具体的には例えば、照明部20と同様にステアリングコラムの上面(図示外)に設けられる。
【0033】
三次元モデルDB40は、人の顔の三次元モデルである顔モデルが記憶されたデータベースとされる。その顔モデルは、人の顔の全体の形状や鼻や耳等の各部の形状を示したデータである。顔モデルは、各種の三次元測定技術(例えば磁場を利用した技術やステレオ画像を利用した技術)を利用して予め実験室で測定されたものとすることができる。なお、顔モデルの被験者は、車両の運転者にかかわらず、任意の人とすることができる。なお、三次元モデルDB40が本発明の「顔モデル記憶手段」に相当する。
【0034】
制御部10は、CPU、ROM、RAM等から構成されたコンピュータとされ、CPUがROMに記憶された制御プログラムにしたがった処理を実行することで、運転者の顔向きを検出する顔向き検出処理を実行するものである。以下、その顔向き検出処理の詳細を説明する。図4は、顔向き検出処理の手順を示したフローチャートである。なお、図4のフローチャートの処理は、例えば車両のエンジン始動時に開始され、その後、エンジン停止されるまで繰り返し実行される。
【0035】
先ず、照明部20の各LED212、222(図2(a)参照)を点灯させる(S11)。各LED212、222が点灯されると、縞模様の光50が運転者の顔fに照射される(図3参照)。次いで、運転者の顔fをカメラ30で撮像して運転者の顔画像(ユーザ顔画像)を取得する(S12)。図5は、運転者の顔画像60を模式的に示した図である。図5に示すように、顔画像60には、光50の縦縞510a(図3参照)に対応する複数の縦縞画像61及び光50の横縞520a(図3参照)に対応する複数の横縞画像62が表示される。それら縦縞画像61、横縞画像62の各交点63を頂点として、元の矩形540に対応する複数の矩形対応部分64が構成される。また、各矩形対応部分64は、運転者の顔fの形状に応じて、より厳密には対応する矩形540の法線方向n1(図3参照)に応じて、元の矩形540に対して形状が変形されている。なお、カメラ30及びS12を実行する制御部10が本発明の「画像取得手段」に相当する。
【0036】
次いで、顔画像60に表示されている各矩形対応部分64を特定する(S13)。具体的には、顔画像60から、縦縞画像61と横縞画像62の交点63をそれぞれ抽出する。そして、隣接する4つの交点63を頂点として、縦縞画像61及び横縞画像62で囲まれる部分を矩形対応部分64として特定する。なお、S13を実行する制御部10が本発明の「矩形特定手段」に相当する。
【0037】
次いで、矩形対応部分64ごとに、各矩形対応部分64に対応する矩形540の法線方向n1を算出する(S14)。具体的には、アフィン変換の考え方に基づいてその法線方向n1を算出する。ここで、図6は、アフィン変換の考え方を説明する図であり、図6(a)は、一つの矩形540を正面から見た図を示しており、図6(b)は、図6(a)の矩形540をカメラ30の撮像方向から見た図を示している。図6に示すように、縦縞と横縞の交点530で形成される矩形540が正確な矩形であったとしても(図6(a)参照)、その矩形540をカメラ30の撮像方向から見ると、見た目上矩形540の形状が変形する(図6(b)参照)。この矩形540の変形具体は、矩形540の法線方向n1に応じたものとされる。アフィン変換は、図6(a)の矩形540の形状を、図6(b)の法線方向n1の面に展開したときの形状に変換する手法である。つまり、アフィン変換の手法を用いることで、図6(b)の矩形540の形状の変形具合を算出することができる。これを逆算すると、図6(b)の矩形540の形状の変形具合に基づいてその矩形540の法線方向n1を算出できることになる。図5に示す顔画像60においては、図6(b)の交点530は交点63として表示され、図6(b)の矩形540は矩形対応部分64として表示されるので、その矩形対応部分64の形状に対してアフィン変換をすることで、元の矩形540の法線方向n1を算出できる。なお、S14を実行する制御部10が本発明の「法線方向算出手段」に相当する。
【0038】
ここで、図7は、三次元モデルDB40に記憶されている顔モデル70を模試的に示した図を示している。図7に示す顔モデル70は三次元モデルであるので、顔モデル70の各部位の法線方向n2は各部位に応じた値となる。そこで、以降のS15〜S18では、S14で算出した各矩形540の法線方向n1と、顔モデル70の各部位の法線方向n2との誤差Δnが最小となるように、顔モデル70の三次元パラメータPを決定する。本実施形態では、最小二乗法を利用して顔モデル70の三次元パラメータPを決定している。なお、三次元パラメータPの詳細は後述する。
【0039】
具体的には、先ず、三次元モデルDB40を参照して、現時点の顔モデル70の三次元パラメータP(i)における上記誤差Δnを算出する(S15)。その誤差Δnとして、以下の(式1)に示すように、各法線方向n1、n2の残差の二乗和を算出する。なお、顔画像60から得られる部位(矩形540の数)は有限であるので、隣接する複数の矩形540の法線方向n1を線形補間することで、それら二つの法線方向n1間の法線方向n1も求めることができる。本実施形態では、その線形補間して求めた法線方向n1も用いて誤差Δnを算出する。これによって、精度の良い誤差Δnを算出できる。なお、S15を実行する制御部10が本発明の「誤差算出手段」に相当する。
Δn=Σ(n1−n2) ・・・(式1)
【0040】
次いで、S15で算出した誤差Δnが所定の閾値Δn0未満であるか否かを判断する(S16)。その閾値Δn0は、誤差Δnが最小であるとみなせる程度に小さい値に設定されている。誤差Δnが閾値Δn0より大きい場合には(S16:No)、処理をS17に進める。S17では、誤差Δnが小さくなるように、顔モデル70の三次元パラメータPを変更する。具体的には、現時点の三次元パラメータP(i)からの変更量ΔPを誤差Δnに基づいて決定する。そして、以下の(式2)に示すように、現時点の三次元パラメータP(i)にその変更量ΔPを加算することで、次の時点の三次元パラメータP(i+1)を決定する。
P(i+1)=P(i)+ΔP ・・・(式2)
【0041】
顔モデル70の三次元パラメータPとして、顔モデル70の顔向き(角度)がある。図7に示すように、顔モデル70の上下方向の軸L1回りの角度θ1をヨー角、顔モデル70の左右方向の軸L2回りの角度θ2をピッチ角、顔モデル70の前後方向の軸L3回りの角度θ3をロール角としたときに、それらヨー角θ1、ピッチ角θ2及びロール角θ3を顔モデル70の顔向きを示した三次元パラメータPとする。この場合には、S17では、顔モデル70の顔向き(ヨー角θ1、ピッチ角θ2、ロール角θ3)が変更されることになる。
【0042】
また、顔モデル70の三次元パラメータPとして、顔モデル70のスケール(大きさ)がある。顔画像60のスケール(運転者の顔fの大きさ)と顔モデル70のスケールとが大きく異なると、S15にて誤差Δnを正確に算出できなくなってしまうので、それらスケールを同じにするのが好ましい。そこで、S17では、三次元パラメータPとしての顔モデル70のスケールを変更して、顔モデル70のスケールを顔画像60のスケールに近づけるようにする。これによって、運転者の顔fの大きさや、運転者の顔fとカメラ30との距離にかかわらず、誤差Δnを正確に算出できる。
【0043】
また、顔モデル70の三次元パラメータPとして、顔モデル70の重心G(図7参照)の位置がある。上記のスケールの場合と同様に、顔画像60の重心位置と顔モデル70の重心Gの位置とを同じにするのが好ましい。そこで、S17では、三次元パラメータPとしての顔モデル70の重心Gの位置を変更して、顔モデル70の重心Gの位置を顔画像60の重心位置に近づけるようにする。これによって、運転者の顔fがカメラ30の撮像範囲のどの位置にあるとしても誤差Δnを正確に算出できる。
【0044】
その他、顔モデル70の口や目等の各部位の形状を、顔モデル70の三次元パラメータPとして変更するようにしてもよい。具体的には、例えば、それぞれ口の開き度合いが異なる複数の口の形状を予め用意しておく。そして、顔画像60に含まれる口の形状に近づくように、用意された複数の口の形状間で顔モデル70の口の形状を変更していく。口以外の部位(目など)の形状も、口の形状と同様の方法で変更することができる。これによって、より一層、誤差Δnを正確に算出でき、かつ、部位の動きを検出することが可能になる。
【0045】
なお、運転者の顔fが車両前方に真正面を向いている状態を予め定め、その状態における顔向きを例えばヨー角θ1=0°、ピッチ角θ2=0°、ロール角θ3=0°として、S17では顔モデル70の三次元パラメータPを決定する。なお、S16及びS17を実行する制御部10が本発明の「顔モデル変化手段」に相当する。
【0046】
S17で三次元パラメータPを変更した後、その変更後の顔モデル70の法線方向n2と矩形540の法線方向n1との誤差Δnを再度算出し(S15)、その誤差Δnが閾値Δn0未満であるか否かを再度判断する(S16)。つまり、誤差Δnが閾値Δn0未満になるまで、S15〜S17の処理が繰り返され、顔モデル70の三次元パラメータPが最小二乗法で反復的に更新されていくことになる。そして、S17で、誤差Δnが閾値Δn0未満となった場合には(S16:Yes)、処理をS18に進める。そして、顔モデル70の最新の顔向き(ヨー角θ1、ピッチ角θ2、ロール角θ3)を、運転者の顔fの顔向きとして決定する(S18)。なお、S15〜S18を実行する制御部10が本発明の「顔向き決定手段」に相当する。その後、図4のフローチャートの処理を終了する。
【0047】
図4の処理によって運転者の顔向きを決定した後は、制御部10は、その顔向きに基づいて、例えば運転者が車両前方を見ているか否かを判断し、車両前方を見ていない場合には警告をする。なお、顔向きを決定した後の処理は本発明と直接には関係ないので、詳細な説明は省略する。
【0048】
以上説明したように、本実施形態の顔向き検出装置1では、運転者の顔fに照射された光50の矩形540の法線方向n1を算出することで、運転者の顔fの三次元形状を算出できる。そして、運転者の顔fの三次元形状に基づいて、運転者の顔向きを検出しているので、精度良くその検出をすることができる。また、顔モデル70の三次元パラメータPを最小二乗法で反復的に更新しているので、運転者の顔f(矩形540)の法線方向n1との誤差Δnが最小となる三次元パラメータPを精度良く算出できる。つまり、精度良く顔向きを検出できる。
【0049】
(第二実施形態)
次に、本発明に係る顔向き検出装置の第二実施形態について第一実施形態と異なる部分を中心にして説明する。ここで、図8は、第二実施形態に係る顔向き検出装置2の概略構成を示したブロック図である。なお、図8において、第一実施形態と変更がない部分に同一符号を付している。図8に示すように、顔向き検出装置2は、第一実施形態の顔向き検出装置1(図1参照)と比べて、制御部11、照明部25及びモータ80が異なっていて、その他は同じとされる。図9は、照明部25の外観斜視図を示している。なお、図9(a)及び図9(b)はどちらも同一の照明部25を示しているが、図9(a)と図9(b)とでは回折素子253に形成された格子パターン253aの向きが異なっている。具体的には、図9(a)は格子パターン253aが縦になっている状態を示しており、図9(b)は格子パターン253aが横になっている状態を示している。
【0050】
図9に示すように、照明部25は、第一実施形態のそれと同様の形状及び位置に設けられた筐体251、LED252及び回折素子253から構成される。ただし、照明部25は、縦縞用照明部と横縞用照明部に分かれておらず、モータ80(図8参照)によって、円筒状の筐体251の軸回り(図9の矢印Qの方向)に回転されるようになっている。そのモータ80は、照明部25の筐体251に接続されており、制御部10からの指示に基づいて、筐体251を図9の矢印Qの方向に回転させるものである。より具体的には、図9(a)の状態と図9(b)の状態のいずれか一方となるように、モータ80は筐体251を回転させる。このように、本実施形態は、一つの照明部25を回転させることで、縦縞模様の光と横縞模様の光を時分割して、運転者の顔に照射する実施形態とされる。なお、照明部25が本発明の「照射手段」に相当する。
【0051】
制御部11は、第一実施形態の制御部10と同様に、顔向き検出処理を実行するものであるが、その顔向き検出処理の内容が第一実施形態のそれと異なっている。ここで、図10は、本実施形態の顔向き検出処理の手順を示したフローチャートである。なお、図10では、図4のフローチャートの処理と変更がない処理には同一符号を付している。先ず、照明部25が図9(a)、(b)のいずれか一方の状態のときに、LED252を点灯させる(S21)。なお、ここでは、照明部25は図9(a)の状態であるとする。この場合、図3に示す縦縞510aの光が、運転者の顔fに照射されることになる。次いで、運転者の顔fに縦縞510aの光が照射された状態で、カメラ30で顔fを撮像する(S22)。
【0052】
次いで、モータ80を駆動させて、照明部25(回折素子253)を90度回転させる(S23)。つまり、照明部25を図9(b)の状態にさせる。この場合、図3に示す横縞520aの光が、運転者の顔fに照射されることになる。なお、モータ80及びS23を実行する制御部11が本発明の「第一の回転手段」に相当する。次いで、運転者の顔fに横縞520aが照射された状態で、カメラ30で顔fを撮像する(S24)。なお、S22の撮像とS24の撮像との間隔は、カメラ30で連続撮像するときのフレーム間隔と同じとする。つまり、S22で撮像した後、カメラ30が次のフレームの撮像をするときまでに、S23で照明部25を回転させる。
【0053】
次いで、S22で撮像した顔画像とS24で撮像した顔画像とを、交差する縦縞510a及び横縞520aから構成された縞模様の光50(図3参照)が照射された顔画像(ユーザ顔画像)として取得する(S25)。具体的には、S22で撮像した顔画像に含まれる縦縞510aに対応する縦縞画像(図5の縦縞画像61に相当する画像)と、S24で撮像した顔画像に含まれる横縞520aに対応する横縞画像(図5の横縞画像62に相当する画像)との交点を求めることができるように、それら顔画像を平均して、一つの顔画像にする。すなわち、S25では、図5の顔画像60と同等の顔画像を取得することになる。その後、第一実施形態と同じ処理を実行して、運転者の顔向きを検出する(S13〜S18)。なお、カメラ30並びにS22、S24及びS25の処理を実行する制御部11が本発明の「画像取得手段」に相当する。
【0054】
このように、本実施形態では、複数の照明部を設けなくても、運転者の顔向きを精度良く検出できる。
【0055】
(変形例1)
上記第二実施形態では、LED252及び回折素子253は同一の筐体251に収容され、その筐体251が回転されることで、回折素子253のみならずLED252も回転されていたが、図11に示す照明部26を採用してもよい。この図11は、変形例1に係る照明部26の外観斜視図であり、図11(a)は格子パターン253aが縦になっている状態を示しており、図11(b)は格子パターン253aが横になっている状態を示している。なお、図11では、図9の照明部25の変更がない部分には同一符号を付している。図11に示す照明部26では、LED252が収容される筐体261と回折素子253が収容される筐体262とが分離されている。図8に示すモータ80は、回折素子253が収容される筐体262に接続されている。その筐体262は、モータ80によって、図11の矢印Qの方向に回転されて、図11(a)の状態と図11(b)の状態のいずれか一方に切り替わるようになっている。これによっても第二実施形態と同じ作用効果を得ることができる。なお、照明部26が本発明の「照射手段」に相当する。
【0056】
(変形例2)
上記第二実施形態では、照明部からの光の縦縞及び横縞の方向は、運転者の顔向きにかかわらず固定としていたが、光の縦縞及び横縞の方向を運転者の顔向きに追従させてもよい。ここで、図12は、この変形例2に係る図8の制御部11が実行する顔向き検出処理を示したフローチャートである。なお、図12では、図10の処理と変更がない処理には同一符号を付している。図12の顔向き検出処理は、図10のそれと比べて、S18の処理の後にS26の処理が追加されている点が異なっており、その他は同じとされる。つまり、S18で運転者の顔向きを検出した後、S26の処理を実行する。そのS26では、モータ80(図8参照)を駆動させて、S18で検出した顔向きのうちのロール角θ3と同じ角度だけ照明部25(図8、図9参照)を回転させる(S26)。その後、S21の処理に戻る。なお、モータ80及びS26を実行する制御部11が本発明の「第二の回転手段」に相当する。
【0057】
これによって、次にS21以下の処理を実行するときに、図13に示すように、光50の縦縞510a及び横縞520aを運転者の顔向き(ロール角θ3)に追従させることができる。つまり、運転者の顔向きにかかわらず、光50の縦縞510aを常に運転者の顔fの上下方向と同じ方向に、光50の横縞520aを常に運転者の顔fの左右方向と同じ方向に照射することができる。その結果、各縞510a、520aの交点が常に同一部位(目、鼻、口など)を指す可能性が高くなるので、各回の顔向きの検出を安定させることができる。
【0058】
なお、本発明に係る顔向き検出装置は上記実施形態に限定されるものではなく、特許請求の範囲の記載を逸脱しない限度で、各種変形をすることができる。例えば、上記実施形態では、一方向の干渉縞となるように光を回折させる回折素子を採用した例について説明したが、一つの回折素子で、同時に、交差する縦縞及び横縞の縞模様となるように干渉させることができるのであれば、第一実施形態のように複数の照明部(縦縞用照明部、横縞用照明部)を設けなくても良く、また、第二実施形態のように照明部をモータで回転させなくても良い。また、上記実施形態では車両の運転者の顔向きを検出する例について説明したが、他のユーザの顔向き検出にも本発明を適用することができる。
【符号の説明】
【0059】
1、2 顔向き検出装置
10、11 制御部
20、25、26 照明部(照射手段)
21 縦縞用照明部(縦縞用照射手段)
22 横縞用照明部(横縞用照射手段)
211、221、251、261、262 筐体
212、222、252 LED(光源)
213、223、253 回折素子
213a、223a、253a 格子パターン
30 カメラ
40 三次元モデルDB(顔モデル記憶手段)
50 縞模様の光
51a、510a 縦縞
52a、520a 横縞
53、530 交点
54、540 矩形
60 顔画像(ユーザ顔画像)
61 縦縞画像
62 横縞画像
63 交点
64 矩形対応部分
70 顔モデル
80 モータ

【特許請求の範囲】
【請求項1】
交差する縦縞及び横縞から構成された縞模様の光をユーザの顔に照射する照射手段と、
前記縞模様の光が照射されたユーザの顔の画像であるユーザ顔画像を取得する画像取得手段と、
その画像取得手段が取得した前記ユーザ顔画像から、前記縞模様の最小単位を構成する矩形に対応する矩形対応部分をそれぞれ特定する矩形特定手段と、
その矩形特定手段が特定した前記矩形対応部分ごとに、前記矩形対応部分の形状に基づいて前記矩形の法線方向を算出する法線方向算出手段と、
その法線方向算出手段が算出した各矩形の法線方向に基づいて前記ユーザの顔向きを決定する顔向き決定手段と、を備えることを特徴とする顔向き検出装置。
【請求項2】
人の顔の三次元モデルである顔モデルが記憶された顔モデル記憶手段を備え、
前記顔向き決定手段は、前記矩形の法線方向のそれぞれと前記顔モデルの各部分の法線方向のそれぞれとの誤差を算出する誤差算出手段と、
その誤差算出手段が算出した前記誤差が最小となるように、前記顔モデルの顔向きを変化させる顔モデル変化手段と、を含み、
前記顔向き決定手段は、前記顔モデル変化手段が変化させた前記顔モデルの顔向きを前記ユーザの顔向きとして決定することを特徴とする請求項1に記載の顔向き検出装置。
【請求項3】
前記顔モデル変化手段は、前記顔モデルの顔向きとして、前記顔モデルの上下方向の軸回りの角度であるヨー角、前記顔モデルの左右方向の軸回りの角度であるピッチ角及び前記顔モデルの前後方向の軸回りの角度であるロール角を変化させることを特徴とする請求項2に記載の顔向き検出装置。
【請求項4】
前記顔モデル変化手段は、前記顔モデルの顔向きに加え、前記ユーザ顔画像で示される前記ユーザの顔の大きさに近づける方向に、前記顔モデルの大きさを変化させることを特徴とする請求項2又は3に記載の顔向き検出装置。
【請求項5】
前記顔モデル変化手段は、前記顔モデルの顔向きに加え、前記ユーザ顔画像で示される前記ユーザの顔の重心位置に近づける方向に、前記顔モデルの重心位置を変化させることを特徴とする請求項2〜4のいずれか1項に記載の顔向き検出装置。
【請求項6】
前記照射手段は、
縦縞模様の光を前記ユーザの顔に照射する縦縞用照射手段と、
前記縦縞模様に交差する横縞模様の光を前記ユーザの顔に照射する横縞用照射手段と、を含むことを特徴とする請求項1〜5のいずれか1項に記載の顔向き検出装置。
【請求項7】
前記照射手段は、
光を照射する光源と、
その光源からの光が入射され、その光を一方向の縞模様の光となるように回折させて前記ユーザの顔に照射させる回折素子と、
前記ユーザの顔に照射された光の縞模様が縦縞模様と横縞模様の間で変化するように前記回折素子を回転させる第一の回転手段と、を含み、
前記画像取得手段は、前記縦縞模様の光が照射された前記ユーザの顔の画像及び前記横縞模様の光が照射された前記ユーザの顔の画像を、前記ユーザ顔画像として取得することを特徴とする請求項1〜5のいずれか1項に記載の顔向き検出装置。
【請求項8】
前記顔向き決定手段が前回に決定した前記ユーザの顔向きと同じ角度だけ前記照射手段による前記縞模様の光を回転させる第二の回転手段を備えることを特徴とする請求項1〜7のいずれか1項に記載の顔向き検出装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2012−123515(P2012−123515A)
【公開日】平成24年6月28日(2012.6.28)
【国際特許分類】
【出願番号】特願2010−272384(P2010−272384)
【出願日】平成22年12月7日(2010.12.7)
【出願人】(000004260)株式会社デンソー (27,639)
【Fターム(参考)】