説明

運転者監視装置、運転者監視方法及び車両

【課題】カメラの基線長を長く設定することなく、かつ、外乱の影響に妨げられずに十分な精度で運転者の顔向きを検出する運転者監視装置を提供する。
【解決手段】運転者の顔向きを監視する運転者監視装置10であって、運転者に対して近赤外光を照射する補助照明22と、複数のレンズ211a、211bと、複数のレンズ211a、211bのそれぞれに対応する撮像領域214a、214bを有する撮像素子214とを有し、運転者の顔を撮影する複眼カメラ21と、複眼カメラ21で撮影することで得られる画像を処理し、運転者の顔の特徴点の3次元位置を検出することで、運転者の顔向きを推定するECU30とを備え、複眼カメラ21は、複数のレンズ211a、211bの並ぶ方向である基線方向が鉛直方向に一致するように配置される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両に搭載され、運転者の顔画像をカメラにより取得し、運転者の状態を検出する運転者監視装置及び運転者監視方法に関する。
【背景技術】
【0002】
従来より、運転者の顔を撮影し、撮影により得られた画像を用いて画像処理を行うことで運転者の顔向きを検出し、検出結果を用いて運転者の脇見や居眠りを判定する装置が提案されている。
【0003】
例えば、特許文献1に示す技術によれば、カメラを用いて、所定の時間間隔(サンプリング間隔)で順次運転者を撮影し、取得画像と1サンプリング前の取得画像との差分演算により時間差分値を演算する。この時間差分値より得られる画像はサンプリング間隔における運転者の動きであり、この動きから運転者の顔位置を検出し、顔向き等を演算により求めている。
【0004】
また、特許文献2に示す技術では、異なる位置に配置された2つのカメラ(第1のカメラ及び第2のカメラ)を用いて運転者の顔画像を取得することで、顔向きを検出している。
【0005】
第1のカメラは、ステアリングコラム等に配置され、運転者を撮影する。第2のカメラは、ルームミラー等に配置され、第1のカメラとは異なる方向から運転者を撮影する。第2のカメラの取得画像には、第1のカメラとの位置関係が既知である参照物体と運転者とが同時に撮影される。参照物体は、例えば、第1のカメラそのもの、又は、ステアリングコラムなどである。
【0006】
次に、運転者の顔位置と参照物体の位置とを画像処理により求める。そして、参照物体と第1のカメラとの位置情報を用いて、第2のカメラの取得画像より、第1のカメラから運転者の顔までの距離を演算で求める。求めた距離に応じて第1のカメラのズーム比を、運転者の顔画像が適切になるように調整し、適切に撮影された顔画像をもとに顔向き等を検出するものである。
【0007】
また、特許文献3に示す技術によれば、特許文献2に示す技術と同様に、異なる位置に配置された2つのカメラを用いて運転者の顔画像を取得することで、顔向きを検出している。
【0008】
2つのカメラは、例えば、ダッシュボードの上(インストルメントパネルの両脇)などの左右の離れた位置に配置され、運転者を左右から撮影する。2つの撮影した画像から顔部品の特徴点の位置を推定し、推定した位置に基づいて顔向きを検出する。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】特開平11−161798号公報
【特許文献2】特開2006−213146号公報
【特許文献3】特開2007−257333号公報
【発明の概要】
【発明が解決しようとする課題】
【0010】
しかしながら、上記従来技術では、外乱などの影響を受けることなく、十分な精度で顔向きの検出を行うことができないという課題がある。
【0011】
例えば、特許文献1に示す技術では、差分画像を基に運転者の顔位置を切り出すため、顔が動いていなくても太陽光等の外光によって、差分画像が変化し、運転者が動いたものと誤検出してしまう。
【0012】
また、特許文献2に示す技術では、第2のカメラで撮影された画像の位置関係から、顔向き検出の第1のカメラに写る顔画像のサイズを適切にするために、顔を円筒形モデルと単純化している。このため、脇見やドアミラーの確認など大きく顔を振っている状態を検出するようなシーン等では正しく検出できない。さらに、カメラで撮影した運転者の顔の2次元情報を基にエッジ抽出等の画像処理で顔部品を検出し、その結果に基づいて顔向き等を検出しているため、太陽光等の外光によって、顔の明るさが場所によって異なる場合、目や口元、顔の輪郭のエッジ以外に、外光による明暗の境界にも不要なエッジが発生してしまい、正しく顔向きを検出することが困難となる。
【0013】
また、特許文献3に示す技術では、運転者を左右の方向から撮影して得られた画像から、顔部品の特徴点を算出しているが、人間の顔部品は、一般的に横方向(左右方向)に特徴を有する部品が多く、正確な顔部品の特徴点の位置を推定することができない。また、精度を向上させるためには、2つのカメラの基線方向を長くしなければならないが、狭い車両内では必ずしも十分な基線長を確保することができるとはいえない。
【0014】
そこで、本発明は、カメラの基線長を長く設定することなく、かつ、外乱の影響に妨げられずに十分な精度で運転者の顔向きを検出することができる運転者監視装置及び運転者監視方法を提供することを目的とする。
【課題を解決するための手段】
【0015】
上記目的を達成するために、本発明の運転者監視装置は、運転者の顔向きを監視する運転者監視装置であって、前記運転者に対して近赤外光を照射する照明と、複数のレンズと当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有し、前記運転者の顔を撮影する複眼カメラと、前記複眼カメラで撮影することで得られる画像を処理し、前記運転者の顔の特徴点の3次元位置を検出することで、前記運転者の顔向きを推定する処理手段とを備え、前記複眼カメラは、前記複数のレンズの並ぶ方向である基線方向が鉛直方向に一致するように配置される。
【0016】
これにより、複数のレンズの基線方向が、正常に車両を運転している時の運転者の顔の上下方向(鉛直方向)と一致するため、横方向(左右方向)に特徴のある顔部品の位置を精度良く推定することができる。また、専用の照明を備えることにより、太陽光などの外部からの照明環境の影響を受けずに顔向きを検出することができる。よって、レンズの基線長を長く設定することなく、かつ、外乱の影響に妨げられずに十分な精度で運転者の顔向きを検出することができる。また、レンズの基線長を長く設定することがないため、カメラなどを非常に小型化することができる。
【0017】
また、前記処理手段は、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品の3次元位置を検出してもよい。
【0018】
これにより、人間の顔の中でも特に横方向に特徴のある部品を利用することで、複眼カメラによって取得された画像から、容易に、かつ、精度良く顔部品を検出することができる。
【0019】
例えば、前記処理手段は、前記左右方向に特徴を有する顔部品として、前記運転者の眉、目尻及び口元の少なくとも1つの3次元位置を検出してもよい。
【0020】
また、前記処理手段は、前記複眼カメラで撮影することで得られる複数の第1画像の視差を用いて前記運転者の顔の特徴点の3次元位置を演算する顔モデル演算部と、前記顔モデル演算部で演算することで得られる顔モデルと、前記複眼カメラが所定の時間間隔で前記運転者の顔を順次撮影することで得られる複数の第2画像とを用いて、前記運転者の顔向きを推定する顔追跡演算部とを有してもよい。
【0021】
これにより、複数の第1画像から1つを基準画像として他の画像との視差を算出することで、実際に顔部品までの距離を測定し、顔の3次元位置情報を演算するため、運転者が大きく顔を振った場合などでも正しく顔向きを検出することができる。
【0022】
また、前記顔モデル演算部は、前記第1画像の視差として、前記複数の撮像領域の基線方向の視差を用いて前記3次元位置を演算してもよい。
【0023】
これにより、複数のレンズの基線方向の視差を読み出すことで、横方向に特徴のある顔部品の位置を精度良く検出することができる。
【0024】
また、前記処理手段は、さらに、前記第2画像を30フレーム/秒以上のフレームレートで前記顔追跡演算部に出力するように前記複眼カメラを制御する制御部を有してもよい。
【0025】
これにより、顔向きを逐次的に検出することができる。
【0026】
また、前記制御部は、さらに、前記第2画像の画素数が、前記第1画像の画素数より少なくなるように前記複眼カメラを制御してもよい。
【0027】
これにより、顔向きを逐次的に推定する場合には、複眼カメラから出力される画素数を小さくすることで、30フレーム/秒以上のフレームレートを維持することができる。
【0028】
また、本発明は、上記の運転者監視装置を備える車両として実現することもできる。また、本発明の車両は、前記複眼カメラと前記照明とを前記車両のステアリングコラムの上部に備えてもよい。
【0029】
これにより、運転者の視界を妨げることなく、常に運転者の顔を撮影することができ、運転者の顔向きを常に監視することができる。
【発明の効果】
【0030】
本発明によれば、カメラの基線長を長く設定することなく、かつ、外乱の影響に妨げられずに十分な精度で運転者の顔向きを検出することができる。
【図面の簡単な説明】
【0031】
【図1】図1は、実施の形態1の運転者監視装置の構成を示すブロック図である。
【図2】図2は、実施の形態1の運転者監視装置の複眼カメラユニットが配置される位置の一例を示す外観図である。
【図3】図3は、実施の形態1の複眼カメラユニットの正面図である。
【図4】図4は、実施の形態1の複眼カメラの側面断面図である。
【図5】図5は、実施の形態1の運転者監視装置の動作を示すフローチャートである。
【図6】図6は、実施の形態1の複眼カメラによる取得画像の一例を示す模式図である。
【図7A】図7Aは、基線方向に水平な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。
【図7B】図7Bは、基線方向に垂直な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。
【図8A】図8Aは、人間の顔の模式図である。
【図8B】図8Bは、探索方向による精度の違いを示す図である。
【図9】図9は、実施の形態2の運転者監視装置の構成を示すブロック図である。
【発明を実施するための形態】
【0032】
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。
【0033】
(実施の形態1)
本実施の形態の運転者監視装置は、複数のレンズの基線方向が鉛直方向に一致するように配置された複眼カメラを用いて運転者を撮影する。そして、撮影により得られた画像を処理し、前記運転者の顔の特徴点の3次元位置を検出することで、運転者の顔向きを監視する。複数のレンズの基線方向を鉛直方向に一致させることで、正常な運転時の運転者の顔の上下方向と基線方向とを一致させることができる。
【0034】
図1は、本実施の形態の運転者監視装置10の構成を示すブロック図である。同図に示すように、運転者監視装置10は、複眼カメラユニット20と、ECU(Electric Control Unit)30とを備える。
【0035】
複眼カメラユニット20は、複眼カメラ21と補助照明22とを備える。図2は、運転者監視装置10の複眼カメラユニット20が配置される位置を示す外観図である。同図に示すように、複眼カメラユニット20は、例えば、車両40内部のステアリングコラム42の上に配置される。複眼カメラユニット20は、ステアリングホイール41を通して運転者50を正面から見上げるように撮影する。なお、複眼カメラユニット20を配置する位置は、運転者50の顔を撮影できる場所であれば、ステアリングコラム42の上には限られない。例えば、フロントガラスの上部若しくは上方、又はダッシュボードの上部などに配置してもよい。
【0036】
複眼カメラ21は、ECU30から出力される、撮影を許可する信号が入力され、当該信号に基づいて運転者50を正面から25度程度見上げるように撮影する。なお、複眼カメラユニット20が配置される位置によっては、運転者50を正面から、又は見下げるように撮影することになるが、いずれの場合でもよい。
【0037】
補助照明22は、上記の撮影を許可する信号に同期して、運転者50に対して近赤外光を照射する。ここで、運転者50を照射する光を近赤外光としているのは、例えば、可視光などを照射した場合は正常な運転を阻害する恐れがあるためである。
【0038】
なお、複眼カメラユニット20、複眼カメラ21及び補助照明22の構造については、後述する。
【0039】
ECU30は、複眼カメラ21で撮影された画像を処理し、運転者50の顔の特徴点の3次元位置を検出することで、運転者50の顔向きを検出する処理部である。ECU30は、全体制御部31と、照明発光制御部32と、顔モデル作成演算部33と、顔追跡演算部34と、顔向き判定部35と、顔向き出力部36とを備える。なお、ECU30は、例えば、車両40のダッシュボードの内部などに備えられる(図2には示していない)。
【0040】
全体制御部31は、複眼カメラ21の撮影条件などの制御を含め、運転者監視装置10全体を制御する。例えば、複眼カメラ21に対して撮影を許可する信号を出力する。また、全体制御部31は、照明発光制御部32を制御することで、補助照明22の発光に同期させて複眼カメラ21が撮影を行うように複眼カメラ21を制御する。これは、補助照明22を常に発光させていると、発光強度が低下してしまい、画像を処理するのに十分な明るさを得ることができないためである。
【0041】
照明発光制御部32は、補助照明22の発光を制御する。照明発光制御部32は、全体制御部31からの制御に基づいて、照明の発光のタイミングなどを制御する。
【0042】
顔モデル作成演算部33は、複眼カメラ21で撮影された画像に基づいて、顔モデルを作成する。なお、顔モデルを作成するとは、複数の顔部品の特徴点の3次元位置を演算することである。すなわち、顔モデルとは、顔部品の特徴点の3次元位置(複眼カメラ21からの距離など)に関する情報である。顔モデル作成演算部33の詳細については後述する。
【0043】
顔追跡演算部34は、運転者50の顔を順次撮影した画像から顔向きを逐次的に推定する。例えば、顔追跡演算部34は、パーティクルフィルタを用いて顔向きを逐次的に推定する。
【0044】
具体的には、顔追跡演算部34は、1フレーム前の顔向きの確率密度及び運動履歴などに基づいて、1フレーム前の顔の位置からある方向に顔が動いたとして顔向きを予測する。そして、顔モデル作成演算部33によって取得された顔部品の3次元位置情報を基に、顔追跡演算部34は、予測した動きによる顔部品が移動した位置を推定し、その推定した位置での現在の取得画像と、顔モデル作成演算部33によって取得済みの顔部品の周辺の画像とをテンプレートマッチングにより相関をとる。さらに、顔追跡演算部34は、複数の顔向きを予測し、その予測した複数の顔向き毎に、上述と同様にテンプレートマッチングによる複数の相関値を得る。例えば、相関値は、ブロック内の画素の差分絶対値和などを算出することで得ることができる。
【0045】
顔向き判定部35は、推定した顔向きと、その顔の向きでのパターンマッチングの相関値とから顔向きを判定することで、判定された顔向きを現在の運転者の顔向きとして検出する。例えば、顔向き判定部35は、一番高い相関値に対応する顔向きを検出する。
【0046】
顔向き出力部36は、顔向き判定部35により検出された顔向きを基にして、車両情報及び車両の周辺情報などを基にして、必要に応じて外部に顔向きに関する情報を出力する。例えば、顔向き判定部35により検出された顔向きが脇見運転をしている場合の顔向きであった場合、顔向き出力部36は、運転者に対して注意を促すための警報を鳴らす、車内照明を点灯させる、又は、車両の速度を減少させるなどを行う。
【0047】
続いて、本実施の形態の複眼カメラユニット20、複眼カメラ21及び補助照明22の詳細について説明する。図3は、本実施の形態の複眼カメラユニット20を運転者50から見た場合の正面図である。
【0048】
複眼カメラユニット20は、ステアリングコラム42の上に配置されており、ステアリングホイール41の間を通して運転者50(図3には示されていない)を撮影する。上述したように、複眼カメラユニット20は、複眼カメラ21と補助照明22とを備えている。
【0049】
複眼カメラ21は、一体で樹脂成型された2つのレンズ211a及び211bを有する。2つのレンズ211a及び211bは、上下方向(鉛直方向)に配置されている。なお、ここでいう上下方向とは、運転者50の顔の上下方向(額とあごとを結ぶライン)とほぼ同じ方向である。
【0050】
補助照明22は、運転者50に対して近赤外光を照射するLED(Light Emitting Diode)などである。図3には一例として、複眼カメラ21の両側に2つずつのLEDを備える構成を示す。
【0051】
次に、複眼カメラ21の構成について説明する。
【0052】
図4は、複眼カメラ21の側面断面図である。図4の左側が図3の上側に対応し、図4の右側が図3の下側に対応する。図4に示すように、複眼カメラ21は、レンズアレイ211と、鏡筒212と、上鏡筒213と、撮像素子214と、遮光壁215と、光学絞り216a及び216bと、光学フィルタ217とを備える。
【0053】
レンズアレイ211は、ガラス又はプラスチックなどの材料を用いて一体に形成される。レンズアレイ211は、2つのレンズ211a及び211bを有し、2つのレンズ間隔(基線長)は、D(mm)離れて配置されている。例えば、Dは2〜3の値である。
【0054】
鏡筒212は、上鏡筒213とレンズアレイ211とを組み立てたものを保持及び固定する。
【0055】
撮像素子214は、CCD(Charge Coupled Device)などの撮像センサであり、縦横方向に2次元配列された多数の画素を備えている。撮像素子214の有効撮像領域は、遮光壁215によって2つの撮像領域214a及び214bに分けられている。2つの撮像領域214a及び214bは、2つのレンズ211a及び211bの各光軸上にそれぞれ配置されている。
【0056】
光学フィルタ217は、特定の波長のみを透過させるためのフィルタである。ここでは、補助照明22から照射される近赤外光の波長のみを透過させる。
【0057】
運転者50から複眼カメラ21に入射した光は、上鏡筒213に設けた各光学絞り216a及び216b、並びに、レンズ211a及び211bをそれぞれ通過し、設計した波長のみを透過させるための光学フィルタ217を透過し、撮像領域214a及び214bに結像される。そして、撮像素子214は、運転者50からの光を光電変換し、光の強度に応じた電気信号(図示せず)をそれぞれ出力する。撮像素子214から出力された電気信号は、様々な信号処理及び画像処理を施すために、ECU30へ入力される。
【0058】
次に、本実施の形態の運転者監視装置10の動作について具体的に説明する。
【0059】
図5は、本実施の形態の運転者監視装置10の動作を示すフローチャートである。
【0060】
まず、ECU30の全体制御部31から複眼カメラ21へ撮影を許可する信号が出力され、当該信号に基づいて複眼カメラ21は運転者50を撮影する(S101)。顔モデル作成演算部33は、撮影により得られた画像に基づいて顔モデルを作成する(S102)。具体的には、顔モデル作成演算部33は、取得した画像より眉、目じり、口元などの複数の顔部品の3次元位置を演算により求める。
【0061】
次に、顔モデル作成演算部33は、作成した顔モデルをテンプレートとして登録し、顔追跡演算部34に出力する(S103)。
【0062】
顔モデルのテンプレートが登録されると、複眼カメラ21は、予め定められたフレームレートで運転者50を撮影した画像を顔追跡演算部34に出力する(S104)。
【0063】
顔追跡演算部34は、顔向きを逐次的に推定し、かつ、顔モデル作成演算部33で登録されたテンプレートを用いたテンプレートマッチングを実行することで、顔追跡を実行する(S105)。顔追跡演算部34は、入力される画像に対して、逐次的に、推定した顔向きと、テンプレートマッチングにより得られる相関値とを顔向き判定部35に出力する。
【0064】
顔向き判定部35は、推定した顔向きと相関値とを用いて、顔向きを判定する(S106)。そして、必要に応じて、顔向き出力部36は、上述したように、判定された顔向きに基づいて外部に顔向きに関する情報を出力する。
【0065】
なお、以上の処理は、例えば、運転者50が大きく顔を振った場合など、顔追跡演算部34で正しい相関値が得られない場合などが生じる。この場合に備えて、全体制御部31は、顔追跡が失敗したか否かを判断する(S107)。顔追跡が失敗していない場合(S107でNo)、所定のフレームレートでの運転者50の撮影(S104)から、顔向き判定(S106)を繰り返す。
【0066】
顔追跡が失敗した場合は(S107でYes)、顔モデルの作成のための運転者50の撮影を行い(S101)、上述の処理を繰り返す。なお、顔追跡が失敗したか否かの判断は、画像の撮影間隔と同じ割合で行われる。なお、顔向き判定部35が、推定した顔向きと相関値とを基にして、顔追跡が失敗か否かの判断を実行してもよい。
【0067】
本実施の形態の運転者監視装置10は、上述したような構成及び方法により、運転者の顔向きを精度良く検出することができる。
【0068】
続いて、本実施の形態の運転者監視装置10が備える複眼カメラ21の基線方向を運転者の顔の上下方向に一致させるように複眼カメラ21を配置することで、精度良く運転者の顔向きを検出することができる理由について説明する。
【0069】
まず、顔モデル作成演算部33が、複眼カメラ21で撮影して得られた2枚の画像を基にして、被写体(運転者)までの距離を測定し、顔部品の特徴点の3次元位置を算出する処理について説明する。
【0070】
図6は、本実施の形態の複眼カメラ21による取得画像の一例を示す図である。2つのレンズ211a及び211bで運転者50を撮影するため、複眼カメラ21で取得した画像は、撮像素子214の2つの撮像領域214a及び214bで運転者50が撮影された、独立した2つの画像である。
【0071】
ここで、撮像領域214aから得られる画像を基準画像、撮像領域214bから得られる画像を参照画像とする。基準画像に対し参照画像は、基線方向つまり上下方向に、視差の影響で、ある量だけずれて撮影される。そして、顔モデル作成演算部33は、基準画像内のある大きさのブロック内に写る顔部品、例えば左の目尻の一部を、参照画像内で基線方向に探索することで、基準画像のブロックと相関を有する領域を特定する。つまり、顔モデル作成演算部33は、いわゆるブロックマッチングと呼ばれる手法を用いて視差を算出する。そして、算出した視差を用いて顔部品の3次元位置情報を演算で求めることが可能となる。
【0072】
例えば、顔モデル作成演算部33は、式1を用いて複眼カメラ21から顔部品までの距離L(mm)を算出する。
【0073】
L=D×f/(z×p) ・・・(式1)
【0074】
ここで、D(mm)は、レンズ211a及び211bのレンズの間隔である基線長である。f(mm)は、レンズ211a及び211bの焦点距離である。なお、レンズ211a及び211bは同一のレンズとする。z(画素)は、ブロックマッチングにより算出された画素ブロックの相対的なズレ量、すなわち、視差量である。p(mm/画素)は、撮像素子214の画素ピッチである。
【0075】
なお、ブロックマッチングにより視差を算出する際、ステレオ視するレンズの基線方向と撮像素子の読み出し方向とを合わせているため、基線方向にブロックを1画素ずつずらして探索することで演算時間を短縮することができる。
【0076】
以上のように、本実施の形態では、探索方向と基線方向とを合わせているため、探索ブロック内の画像は、基線方向に対して垂直方向の成分が多く含まれている場合に視差検出精度を向上させることができる。
【0077】
図7A及び図7Bは、本実施の形態のブロックマッチングをより詳細に説明するための図である。図7Aは、基線方向(探索方向)に水平な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。図7Bは、基線方向(探索方向)に垂直な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。
【0078】
まず、図7Aを用いて、基線方向に水平な成分を有する被写体51の視差を探索する場合を説明する。顔モデル作成演算部33は、撮像領域214aで撮影された基準画像内のブロック60と同じ画像を撮像領域214bで撮影された参照画像内より探索する。参照画像内で基線方向に1画素ずつブロックをずらして探索する。図7Aには、あるずらし量でのブロック61と、さらにある量をずらしたときのブロック62とを示している。
【0079】
このとき、被写体51は、基線方向と同じ方向の成分から構成されているため、各ブロック内の画像は全て同じに写り、正しく視差を検出することできない。例えば、基準画像のブロック60内の画像は、参照画像のブロック61内の画像とブロック62内の画像との双方と同じであると判断されてしまう。このため、顔モデル作成演算部33は、正しく視差を検出することができない。これにより、被写体51までの距離を正しく算出することができない。
【0080】
次に、図7Bを用いて、基線方向に垂直な成分を有する被写体52の視差を探索する場合を説明する。顔モデル作成演算部33は、撮像領域214aで撮影された基準画像内のブロック60と同じ画像を撮像領域214bで撮影された参照画像内より探索する。図7Aの場合と同様に、顔モデル作成演算部33は、参照画像内で基線方向に1画素ずつブロックをずらして探索する。
【0081】
このとき、被写体52は、基線方向に垂直な方向の成分から構成されているため、各ブロック内の画像は全て異なるため、正しく視差を検出することができる。例えば、ブロック60に写る画像は、ブロック61内の画像とブロック62内の画像と異なり、決まったずらし量のときに確実にブロック60内の画像と同じ画像を得ることができる。よって、顔モデル作成演算部33は、正しく視差を検出し、被写体52までの距離を正しく算出することができる。
【0082】
以上のように、正しく被写体までの距離を算出するためには、複眼カメラ21の基線方向は、被写体が有する特徴的な部品の方向と垂直であることが望ましい。
【0083】
ここで、人間の顔部品を観察すると、図6に示すように眉、目、口は水平方向のエッジ成分を多く有していることが分かる。したがって、複眼カメラ21を用いて運転者50の複数の顔部品の3次元位置をブロックマッチングの手法により精度よく得るためには、複眼カメラ21の基線方向を顔の上下方向と合致するように配置する必要がある。本実施の形態の運転者監視装置では、図3に示すように、複眼カメラ21のレンズ211a及び211bを上下に配置し、撮像素子の読み出し方向を基線方向とし、顔の上下方向と基線方向が一致するように配置させていることが分かる。
【0084】
図8A及び図8Bは、本実施の形態の運転者監視装置について基線方向の差異による精度の違いを説明するための図である。図8Aは、被写体である人間の顔の模式図である。図8Bは、探索方向による精度の違いを示す図である。なお、図8Aに示す1〜6の破線の四角で囲まれた領域が、図8Bに示す横軸の測定箇所を示している。
【0085】
図8Bに示すように、探索方向を顔の上下方向(垂直方向)に設定した場合は、真値からの誤差は約−2%〜+2%の範囲内である。これに対して、探索方向を顔の左右方向(水平方向)に設定した場合は、真値からの誤差は約−7%〜+3%の範囲内である。このことから、明らかに、探索方向を顔の上下方向に設定した場合の方が、左右方向に設定した場合に比べて誤差の値そのものが小さくなり、また、誤差の範囲のばらつきも抑えられている。
【0086】
以上のことからも、ブロックマッチングの探索方向、すなわち、複眼カメラ21の基線方向を運転者50の顔の上下方向と一致させるように配置することで、非常に精度良く、運転者50までの距離を測定することができることが分かる。
【0087】
以上のように、本実施の形態の運転者監視装置10によれば、レンズアレイ211を有する1つの複眼カメラ21を用いてステレオ視することで、運転者50の顔部品の3次元位置を正確に求めることができる。また、レンズアレイ211の基線方向を運転者50の顔の上下方向と一致するように配置することで、短い基線長であっても正確に顔部品の3次元位置情報を取得することが可能となる。
【0088】
さらに、顔部品の3次元位置情報をもとに顔向き判定を行うため、顔モデルを単純化したシステムと比べ、太陽光などの影響により照明が大きく変動した場合や大きく顔を振った場合でも正しく顔向きを判定することができる。また、1つの複眼カメラを用いた場合でも十分な精度を得ることができるため、カメラそのものを小型化することができる。
【0089】
(実施の形態2)
本実施の形態の運転者監視装置は、顔モデルを作成する場合に用いられる運転者を撮影した画像と、顔追跡演算を行う場合に用いられる運転者を撮影した画像とが、異なる画素数及び異なるフレームレートで入力されるように制御する装置である。
【0090】
図9は、本実施の形態の運転者監視装置70の構成を示すブロック図である。同図の運転者監視装置70は、図1の運転者監視装置10と比較して、複眼カメラ21の代わりに複眼カメラ81を備え、さらに、全体制御部31の代わりに全体制御部91を備える点が異なっている。以下では、実施の形態1と同様の点は説明を省略し、異なる点を中心に説明する。
【0091】
複眼カメラ81は、図4に示す複眼カメラ21と同じ構成である。複眼カメラ81は、複眼カメラ21の動作に加えて、さらに、全体制御部91からの制御により、撮像素子の読み出し画素数を変更することができる。具体的には、複眼カメラ81は、複眼カメラ81の撮像素子の全画素を読み出す全画素モードと、画素を間引いて読み出す画素間引きモードとを選択することができる。また、複眼カメラ81は、画像を撮影する間隔であるフレームレートを変更することもできる。なお、画素間引きモードは、例えば、4画素を混合することで画素を間引くモード(4画素混合モード)などである。
【0092】
全体制御部91は、全体制御部31の動作に加えて、複眼カメラ81を制御することで、複眼カメラ81から顔モデル作成演算部33及び顔追跡演算部34に入力される画像を制御する。具体的には、顔モデル作成演算部33が複数の顔部品までの3次元位置を演算することで顔モデルを作成する場合は、全体制御部91は、複眼カメラ81の撮像素子の駆動モードを全画素モードに変更するように複眼カメラ81を制御する。また、顔追跡演算部34が顔モデルから顔追跡演算を行う場合は、全体制御部91は、複眼カメラ81の撮像素子の駆動モードを画素間引きモードに変更するように複眼カメラ81を制御する。
【0093】
さらに、全体制御部91は、複眼カメラ81を制御することで、複眼カメラ81から顔モデル作成演算部33又は顔追跡演算部34に入力される画像のフレームレートを制御する。具体的には、複眼カメラ81から顔追跡演算部34に画像を入力する場合は、30フレーム/秒以上のフレームレートで画像を入力する必要がある。これは、正確に顔追跡を実行するためである。
【0094】
以上のようにすることで、運転者の顔向きの検出の精度をさらに向上させることができる。この理由は次の通りである。
【0095】
まず、顔追跡演算部34は、上述したように、パーティクルフィルタを用いて顔向きを逐次的に推定する。このため、画像が入力される間隔が短ければ短いほど動きを予測しやすい。通常、正確に顔追跡を実行するためには、30フレーム/秒以上のフレームレートで画像を取得し、顔追跡を行う必要がある。
【0096】
一方、顔モデル作成演算部33は、複数の顔部品の3次元位置、すなわち、複眼カメラ81から複数の顔部品までの距離を正確に演算で求めなければいけない。顔部品までの距離Lは、上述の式1を用いて求めることができる。
【0097】
式1から分かるように、複眼カメラ81の形状を変更せずに、距離の精度を上げるためには、撮像素子の画素ピッチpを小さくして、視差量zを大きくすることで精度向上できることがわかる。
【0098】
しかしながら、複眼カメラ81の画角は変更しないため、撮像素子の画素ピッチpを小さくすると画像サイズが大きくなり30フレーム/秒のフレームレートで画像を出力することができず、顔追跡が不可能となる。
【0099】
したがって、以上のように、顔モデルを作成する場合に用いられる画像と、顔追跡を行う場合に用いられる画像とでは、フレームレートを変更して出力しなければならない。そして、フレームレートを変更するためには、フレームレートに応じて画像サイズを変更する必要がある。以上のことから、顔モデル作成演算と顔追跡演算とでフレームレートを変更してそれぞれの処理部に画像を入力するように全体制御部91が制御することで、運転者の顔向きの検出の精度をさらに向上させることができる。
【0100】
以上のように、全体制御部91は、顔部品の3次元位置を演算する際には、顔モデル作成演算部33に入力する画像を、撮像素子の駆動モードを全画素モードで撮像素子を駆動することで、3次元位置情報の演算精度を向上させることができる。さらに、3次元位置情報を取得した後、顔追跡を行う際には、撮像素子の駆動モードを画素間引きモードで駆動させ、30フレーム/秒以上のフレームレートで画像を顔追跡演算部34に画像を入力することで、顔向き判定精度を確保することができる。
【0101】
以上のように、撮像素子の駆動モードを適宜に切り替えて制御することで、撮像素子の選択の自由度をあげることができ、不要に高コストな撮像素子を使用することなく、市場で流通している撮像素子も使用することができる。これにより、複眼カメラ81のコスト低減につなげることが可能となる。
【0102】
以上、本発明の運転者監視装置及び運転者監視方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
【0103】
例えば、本実施の形態では、顔向き判定の結果を脇見判定に使用する例を示したが、取得した画像から黒目の3次元位置を検出して、視線方向を検出することも可能である。これにより、運転者の視線方向を判定することができるため、様々な運転支援システムへ顔向き判定結果及び視線方向判定結果を利用することも可能である。
【0104】
また、運転者50を照射する補助照明22を複眼カメラ21の近傍に配置して複眼カメラユニット20として配置しているが、補助照明22の配置位置はこの例に限らず、運転者50を照射できる位置であれば、配置位置は問わない。すなわち、補助照明22と複眼カメラ21とは、複眼カメラユニット20のように一体化して構成される必要はない。
【0105】
また、顔モデル作成演算部33は、顔部品の特徴点として、眉、目尻、口元を検出したが、目元や鼻などの他の顔部品を特徴点として検出してもよい。なお、このとき、他の顔部品は、水平成分を有することが望ましい。
【0106】
また、本発明では、小型の複眼カメラを用いているため、複数のレンズ間の距離である基線長が短い。通常、基線長が短くなると精度が悪くなるため、より精度を向上させるために、顔追跡演算部34は、サブピクセル単位で相関値の演算を行ってもよい。顔モデル作成演算部33についても同様である。例えば、ピクセル単位で得られる相関値のピクセル間を補間することで、サブピクセル単位で相関値を得ることができる。
【0107】
なお、本発明は、上述した運転者監視方法をコンピュータに実行させるプログラムとして実現することもできる。また、当該プログラムを記録したコンピュータ読み取り可能なCD−ROM(Compact Disc−Read Only Memory)などの記録媒体として実現し、若しくは、当該プログラムを示す情報、データ又は信号として実現することもできる。そして、これらプログラム、情報、データ及び信号を、インターネットなどの通信ネットワークを介して配信してもよい。
【産業上の利用可能性】
【0108】
本発明は、車両に搭載することで、運転者を監視する運転者監視装置として適用でき、例えば、運転者の脇見運転を防止する装置などに利用することができる。
【符号の説明】
【0109】
10、70 運転者監視装置
20 複眼カメラユニット
21、81 複眼カメラ
22 補助照明
30 ECU
31、91 全体制御部
32 照明発光制御部
33 顔モデル作成演算部
34 顔追跡演算部
35 顔向き判定部
36 顔向き出力部
40 車両
41 ステアリングホイール
42 ステアリングコラム
50 運転者
51、52 被写体
60、61、62 ブロック
211 レンズアレイ
211a、211b レンズ
212 鏡筒
213 上鏡筒
214 撮像素子
214a、214b 撮像領域
215 遮光壁
216a、216b 光学絞り
217 光学フィルタ

【特許請求の範囲】
【請求項1】
運転者の顔向きを監視する運転者監視装置であって、
前記運転者に対して近赤外光を照射する照明と、
光軸に略垂直な方向に配置された複数のレンズと、当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有し、前記運転者の顔を撮影する複眼カメラと、
前記複眼カメラで撮影することで得られる画像の中から、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品の、左右方向のエッジ成分を抽出し、抽出した左右方向のエッジ成分の3次元位置を検出することで、前記運転者の顔向きを推定する処理手段とを備え、
前記複眼カメラでは、
前記複数のレンズの並ぶ方向である基線方向が鉛直方向に配置され、
前記複数のレンズは、同一の鏡筒で保持されている
運転者監視装置。
【請求項2】
運転者の顔向きを監視する運転者監視装置であって、
前記運転者に対して近赤外光を照射する照明と、
光軸に略垂直な方向に配置された複数のレンズと、当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有し、前記運転者の顔を撮影する複眼カメラと、
前記複眼カメラで撮影することで得られる画像の中から、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品の、左右方向のエッジ成分を抽出し、抽出した左右方向のエッジ成分の3次元位置を検出することで、前記運転者の顔向きを推定する処理手段とを備え、
前記複眼カメラでは、
前記複数のレンズの並ぶ方向である基線方向が鉛直方向に配置され、
前記複数のレンズは、レンズアレイとして一体に形成されている
運転者監視装置。
【請求項3】
前記処理手段は、前記左右方向に特徴を有する顔部品として、前記運転者の眉、目尻及び口元の少なくとも1つの3次元位置を検出する
請求項1又は2記載の運転者監視装置。
【請求項4】
前記処理手段は、
前記複眼カメラで撮影することで得られる複数の第1画像の視差を用いて前記運転者の顔の特徴点の3次元位置を演算する顔モデル演算部と、
前記顔モデル演算部で演算することで得られる顔モデルと、前記複眼カメラが所定の時間間隔で前記運転者の顔を順次撮影することで得られる複数の第2画像とを用いて、前記運転者の顔向きを推定する顔追跡演算部とを有する
請求項1又は2記載の運転者監視装置。
【請求項5】
前記顔モデル演算部は、前記第1画像の視差として、前記複数の撮像領域の基線方向の視差を用いて前記3次元位置を演算する
請求項4記載の運転者監視装置。
【請求項6】
前記処理手段は、さらに、
前記第2画像を30フレーム/秒以上のフレームレートで前記顔追跡演算部に出力するように前記複眼カメラを制御する制御部を有する
請求項4記載の運転者監視装置。
【請求項7】
前記制御部は、さらに、前記第2画像の画素数が、前記第1画像の画素数より少なくなるように前記複眼カメラを制御する
請求項6記載の運転者監視装置。
【請求項8】
請求項1又は2記載の運転者監視装置を備える車両。
【請求項9】
前記複眼カメラと前記照明とを前記車両のステアリングコラムの上部に備える
請求項8記載の車両。
【請求項10】
運転者の顔向きを監視する運転者監視方法であって、
前記運転者に対して近赤外光を照射する照射ステップと、
光軸に略垂直な方向に配置された複数のレンズと、当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有する複眼カメラにより、前記運転者の顔を撮影する撮影ステップと、
前記複眼カメラで撮影することで得られる画像の中から、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品の、左右方向のエッジ成分を抽出し、抽出した左右方向のエッジ成分の3次元位置を検出することで、前記運転者の顔向きを推定する処理ステップとを含み、
前記複眼カメラでは、
前記複数のレンズの並ぶ方向である基線方向が鉛直方向に配置され、
前記複数のレンズは、同一の鏡筒で保持されている
運転者監視方法。
【請求項11】
運転者の顔向きを監視する運転者監視方法であって、
前記運転者に対して近赤外光を照射する照射ステップと、
光軸に略垂直な方向に配置された複数のレンズと、当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有する複眼カメラにより、前記運転者の顔を撮影する撮影ステップと、
前記複眼カメラで撮影することで得られる画像の中から、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品の、左右方向のエッジ成分を抽出し、抽出した左右方向のエッジ成分の3次元位置を検出することで、前記運転者の顔向きを推定する処理ステップとを含み、
前記複眼カメラでは、
前記複数のレンズの並ぶ方向である基線方向が鉛直方向に配置され、
前記複数のレンズは、レンズアレイとして一体に形成されている
運転者監視方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7A】
image rotate

【図7B】
image rotate

【図8A】
image rotate

【図8B】
image rotate

【図9】
image rotate


【公開番号】特開2011−154721(P2011−154721A)
【公開日】平成23年8月11日(2011.8.11)
【国際特許分類】
【出願番号】特願2011−98164(P2011−98164)
【出願日】平成23年4月26日(2011.4.26)
【分割の表示】特願2010−503757(P2010−503757)の分割
【原出願日】平成21年3月6日(2009.3.6)
【出願人】(000005821)パナソニック株式会社 (73,050)
【Fターム(参考)】