乗員位置検出装置、乗員位置検出方法及び乗員位置検出プログラム
【課題】顔情報の検出精度を向上することができる乗員位置検出装置、乗員位置検出方法及び乗員位置検出プログラムを提供する。
【解決手段】ドライバーを撮影した画像データをカメラから取得し、画像データを用いて、ドライバーに装着されたシートベルトと当該ドライバーの身体の一部とによって特徴付けられるシートベルト装着位置をマッチング領域Z1として検出する。検出されたマッチング領域Z1と、マッチング領域Z1の中心座標P1及び顔位置があると想定される顔候補領域Z2を関連付けた相対位置データとに基づき、顔候補領域Z2を特定し、特定した顔候補領域Z2に対して、乗員の顔情報を生成するための画像処理を行う。
【解決手段】ドライバーを撮影した画像データをカメラから取得し、画像データを用いて、ドライバーに装着されたシートベルトと当該ドライバーの身体の一部とによって特徴付けられるシートベルト装着位置をマッチング領域Z1として検出する。検出されたマッチング領域Z1と、マッチング領域Z1の中心座標P1及び顔位置があると想定される顔候補領域Z2を関連付けた相対位置データとに基づき、顔候補領域Z2を特定し、特定した顔候補領域Z2に対して、乗員の顔情報を生成するための画像処理を行う。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、乗員位置検出装置、乗員位置検出方法及び乗員位置検出プログラムに関する。
【背景技術】
【0002】
最近、ドライバーに対する運転支援や非常時の乗員保護等といった各種支援は、高度化且つ多様化する傾向にある。それらの中には、乗員の顔の位置、顔の向き等といった乗員位置の検出を必要とする支援方法がある。このため、高精度且つ高速な乗員位置の検出が要請されており、既に様々な検出方法が提案されている。
【0003】
例えば、乗員を撮影した画像データを取得し、画像データの肌色領域を顔の位置として検出する方法(例えば特許文献1参照)や、顔の輪郭形状を検出し、該輪郭形状が含まれる範囲を顔の位置とする方法がある。肌色領域を検出する方法では、例えば肌色の色相に含まれる基準画素を設定し、当該基準画素の画素値と近接する画素の画素値との差分が所定値以下となる場合に、その近接画素を、基準画素と同じ特徴量を有する集合としてみなす。そして、以下同様に次の近接画素を探索し、基準画素と同じ特徴量を有する集合を肌色領域として設定する。また、顔の輪郭形状を検出する方法では、例えば、輪郭形状のテンプレートを予め複数準備しておき、このテンプレートを画像データに対して相対移動させ、テンプレートと類似度が大きい範囲を顔の位置として設定する。
【特許文献1】特開2008−182591号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
ところが、上記した各方法を車載システムに適用した場合、以下のような問題点がある。例えば、肌色領域を検出する方法の場合、肌色には個人差があるとともに、移動中の車内では頻繁に照明条件が変化するため、顔位置の輝度や色相が安定せず、顔の位置の検出精度が低下する虞がある。また、顔の輪郭形状を検出する方法の場合、輪郭形状には個人差がある他、乗員の顔に照射される外光が十分でない場合、撮影画像中の顔輪郭を特定し難く、顔の位置を精度よく検出することが困難である。さらに、カメラの光学機構の特性により、撮影された顔の大きさが変化したり、輪郭形状の歪みが生じるため、顔の位置の検出率が低下する。
【0005】
また、上記した各方法では、画像全体に対して処理を行うため、車両における支援のように処理速度の向上が要請される場合には、検出精度の低い画像処理であることも多く、そのことが顔位置の検出精度及び検出率の低下の原因ともなっていた。
【0006】
本発明は、上記問題点に鑑みてなされたものであり、その目的は、顔情報の検出精度や検出率を向上することができる乗員位置検出装置、乗員位置検出方法及び乗員位置検出プログラムを提供することにある。
【課題を解決するための手段】
【0007】
上記問題点を解決するために、請求項1に記載の発明は、乗員を撮影した画像データを撮影手段から取得する画像データ取得手段と、前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の
顔情報を生成するための画像処理を行う顔情報生成手段とを備えたことを要旨とする。
【0008】
この発明によれば、顔情報を生成するために、シートベルト装着位置を検出し、シートベルト装着位置及び顔候補領域を関連付けた位置関係情報を用いて顔候補領域を絞り込む。そして、顔候補領域を対象として顔情報を生成するための画像処理を行う。ここで、シートベルト装着位置は、顔の位置の動きに合わせて動くため、顔との位置関係の変化が少ない上に個人差がなく、他の物体に遮蔽されにくく、且つ外的要因による影響を受けにくいので、高い検出率で検出できる。そして、このシートベルト装着位置を用いて顔候補領域を特定することで、顔候補領域を、顔位置を含む位置に確実に設定することができる。従って、顔候補領域を絞り込み、絞り込まれた顔候補領域に対して顔情報生成のための詳細な画像処理を行うことができるため、高精度な顔情報を生成することができる。
【0009】
請求項2に記載の発明は、請求項1に記載の乗員位置検出装置において、前記シートベルト位置検出手段は、前記シートベルト装着位置の標準パターンをテンプレートとして記憶するとともに、前記画像データ中における当該テンプレートとの類似度を判断するテンプレートマッチング処理を行うことを要旨とする。
【0010】
この発明によれば、シートベルト装着位置の標準パターンをテンプレートとして記憶し、画像データ中における当該テンプレートとの類似度を判断する、テンプレートマッチング処理によりシートベルト装着位置を検出する。即ち、検出率が高いシートベルトのパターンを検出対象とするため、容易に検出を行うことが出来る。
【0011】
請求項3に記載の発明は、請求項1又は2に記載の乗員位置検出装置において、前記シートベルト位置検出手段は、取得した前記画像データに対し、エッジ強調処理を行ってエッジ強調データを生成し、当該エッジ強調データのエッジパターンに基づき、前記シートベルト装着位置の検出を行うことを要旨とする。
【0012】
この発明によれば、画像データに対しエッジ強調が行われたエッジ強調データに対し、シートベルト装着位置の検出が行われる。シートベルトは、乗員の着衣、背景等に対して輝度差が生じやすいので、エッジ強調データ内でのシートベルト装着位置の検出率を向上することができる。
【0013】
請求項4に記載の発明は、請求項1〜3のいずれか1項に記載の乗員位置検出装置において、前記顔情報生成手段により生成された前記顔情報に基づき、前記位置関係情報を補正する学習手段をさらに備えたことを要旨とする。
【0014】
この発明によれば、生成した顔情報を、位置関係情報にフィードバックして補正する学習が行われる。このため、顔情報の生成が繰り返されるに伴い、位置関係情報が最適化されるため、最適化された位置関係情報により、さらに高精度に顔位置又は顔の向きを検出することができる。
【0015】
請求項5に記載の発明は、請求項1〜4のいずれか1項に記載の乗員位置検出装置において、前記位置関係情報には、前記顔候補領域と関連付けられたシートベルトの幅が含まれており、前記画像データにおける前記シートベルトの幅を検出するベルト幅検出手段をさらに備え、前記顔情報生成手段は、前記検出したシートベルトの幅と、前記シートベルト装着位置と、前記位置関係情報とに基づいて、前記画像データ中における前記顔候補領域を特定することを要旨とする。
【0016】
この発明によれば、位置関係情報は、顔候補領域と関連付けられたシートベルトの幅を含む。そして、画像データにおけるシートベルトの幅を検出し、その検出したシートベル
トの幅及びシートベルト装着位置と、シートベルトの幅を含む位置関係情報とに基づき、顔候補領域を特定する。従って、シートベルト装着位置だけでなくシートベルトの幅に応じて顔候補領域を設定するので、顔候補領域の精度をより向上させることができる。
【0017】
請求項6に記載の発明は、乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出方法において、前記制御手段が、前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出し、前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行うことを要旨とする。
【0018】
この発明によれば、顔情報を生成するために、シートベルト装着位置を検出し、シートベルト装着位置及び顔候補領域を関連付けた位置関係情報を用いて顔候補領域を絞り込む。そして、顔候補領域を対象として顔情報を生成するための画像処理を行う。ここで、シートベルト装着位置は、顔の位置の動きに合わせて動くため、顔との位置関係の変化が少ない上に個人差がなく、他の物体に遮蔽されにくく、且つ外的要因による影響を受けにくいので、高い検出率で検出できる。そして、このシートベルト装着位置を用いて顔候補領域を特定することで、顔候補領域を、顔位置を含む位置に確実に設定することができる。従って、顔候補領域を絞り込み、絞り込まれた顔候補領域に対して顔情報生成のための詳細な画像処理を行うことができるため、高精度な顔情報を生成することができる。
【0019】
請求項7に記載の発明は、乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出プログラムにおいて、前記制御手段を、前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、前記シートベルト装着位置及び前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行う顔情報生成手段として機能させることを要旨とする。
【0020】
この発明によれば、乗員位置検出プログラムを用いて、顔情報を生成するために、シートベルト装着位置を検出し、シートベルト装着位置及び顔候補領域を関連付けた位置関係情報を用いて顔候補領域を絞り込む。そして、顔候補領域を対象として顔情報を生成するための画像処理を行う。ここで、シートベルト装着位置は、顔の位置の動きに合わせて動くため、顔との位置関係の変化が少ない上に個人差がなく、他の物体に遮蔽されにくく、且つ外的要因による影響を受けにくいので、高い検出率で検出できる。そして、このシートベルト装着位置を用いて顔候補領域を特定することで、顔候補領域を、顔位置を含む位置に確実に設定することができる。従って、顔候補領域を絞り込み、絞り込まれた顔候補領域に対して顔情報生成のための詳細な画像処理を行うことができるため、高精度な顔情報を生成することができる。
【発明を実施するための最良の形態】
【0021】
以下、本発明を具体化した第1実施形態を図1〜図12に従って説明する。図1は、乗員位置検出システム1の概略図である。乗員位置検出システム1は、位置検出ECU10を備えている。位置検出ECU10は、画像データ取得手段、シートベルト位置検出手段、顔情報生成手段、学習手段、乗員位置検出装置及び制御手段に対応し、CPU、RAM、ROMや、画像処理用のLSI等を備え、乗員位置検出プログラムを格納している。
【0022】
位置検出ECU10は、車両に取り付けられた撮影手段としてのカメラ11から画像デ
ータを入力する。カメラ11は、広角レンズを含む光学機構、CCD、CMOS等の撮像素子、ゲイン補正等を行う信号処理部、A/D変換器等を有している。図2及び図3に示すように、カメラ11は、その撮影範囲20に、シート3に着座したドライバー2の顔及び肩部を含む上半身が含まれるように、車両のインストルメントパネル15等に固定されている。
【0023】
また、カメラ11の撮影範囲20には、ドライバー2の上半身の他に、シート3のヘッドレスト3A及びシートバック3Bの上部と、シートベルト装置を構成するシートベルト5(ウェビング)の一部とが含まれる。カメラ視点からみると、ヘッドレスト3Aは、その一部がドライバー2の頭部によって遮蔽され、シートバック3Bの大部分はドライバー2の肩及び胸部によって遮蔽されるが、シートベルト5はドライバー2の着衣の上から装着されるため、他の物体によって遮蔽され難い。
【0024】
また、本実施形態のシートベルト装置は、3点式シートベルト装置であって、その一端がシートクッション3Cの側部に固定され、その他端が、車体であって、ドライバー2の上方付近に設けられた図示しない巻き取り装置に固定されている。また、シートベルト装置は、帯状の上記シートベルト5の他、シートベルト5の長手方向に対して移動可能に取り付けられたタングと、シート側に固定されたバックル(いずれも図示略)を有しており、シートベルト5は、タングをバックルに差し込むことによって、ドライバー2の右肩付近から、下方左側に向かって斜めに装着される。また、バックルの内部には、タングの差し込みの有無を検知するバックルスイッチ12(図1参照)が設けられている。当該スイッチ12は、タングの差し込みを検知するとオン状態となり、タングを検知しない場合にはオフ状態となる。尚、シートベルト装置は、3点式の装置以外にも、4点式シートベルト装置でもよい。また、本実施形態では、右側に運転席がある車両を前提に説明しているが、左側に運転席がある車両に適用してもよい。
【0025】
また、位置検出ECU10は、イグニッションモジュール13から、ACC(アクセサリ)スイッチのオン信号を入力する。位置検出ECU10は、ACCスイッチのオン信号をトリガとして、カメラ11を起動する。そして、上記バックルスイッチ12がオン状態とされると、カメラ11が撮影した画像データの取得を開始し、ドライバー2の顔の位置及び顔の向きを示すパラメータを含む顔検出データを生成するための処理を行う。生成した顔検出データは、運転支援ECU14に出力され、運転支援ECU14は、上記パラメータを用いて各種支援を行う。この支援としては、ドライバーの脇見運転に対する警告、右左折意思の確認、死角領域の画像表示、居眠り運転に対する警告、非常時のエアバック展開方向の算出等が挙げられるが、本発明では特に限定されない。
【0026】
図4は、位置検出ECU10の機能ブロック図である。画像取得部21は、バックルスイッチ12がオン状態とされたタイミングで、画像データD1の取得を開始する。画像データD1の取得が開始された後は、所定間隔で画像データD1を取得する。
【0027】
次に、取得された画像データD1を用いて顔候補領域を特定する。まず、エッジ強調処理部22が、画像データD1に対し、エッジ強調処理を行う。エッジ強調処理部22は、画像データD1の注目画素と隣接画素との輝度差をエッジとして抽出するエッジ強調を行う処理部であり、ソーベルフィルタ、ラプラシアンフィルタ等を用いた公知のアルゴリズムによって、エッジ強調データD2を生成する。このエッジ強調処理により、撮影画像のうち、画像の濃淡(明るさ)の境目を検出することができる。尚、エッジ強調処理を行う前に、ノイズを除去するための平滑化処理等を行ってもよい。また、エッジ強調データD2に対し、さらに2値化処理を行ってもよいし、公知のノイズを除去するためのアルゴリズムを用いてもよい。
【0028】
ここで、車外から入射する光により、車内が明るい場合には、その被撮影体の輪郭をエッジとして抽出される確率が高いが、明るさが十分でない場合には、その被撮影体の輪郭をエッジとして抽出できる確率は低下する。車内の照明条件は、天候によっても変化し、走行道路によって刻々と変化するため、照明条件が悪いときが多々ある。その中で、車外から入射する光量等の外的要因による影響が小さく、検出率が高いものとして、シートベルト5の長手方向に沿った側端と、ドライバー2の肩部との境目が挙げられる。即ち、一般的なシートベルト5は、ポリエチレン繊維等の光沢性を有する材質から構成されているため、シートベルト5に反射した光の鏡面反射成分が大きく、着衣等の周囲の被撮影物に対して輝度差が出やすい。また、上記したように、シートベルト5は、ドライバー2の着衣の上から装着されるため、遮蔽物によって遮蔽されにくく、また車両のウィンドウを介して入射した外光が照射されやすい位置に配置されているといった利点も有する。一方、ドライバー2の顔や、シート3等は、シートベルト5に比べ、光を拡散反射するため、周囲の物体等との輝度差が生じにくく、エッジを比較的抽出し難い。
【0029】
次に、マッチング処理部26により、ベルト装着位置を検出するためのテンプレートマッチング処理が行われる。マッチング処理部26は、顔位置検出部23の検出結果を受けて、エッジ強調処理部22からエッジ強調データD2を取得する。また、テンプレート記憶部27に記憶された装着部テンプレートTを読み出し、エッジ強調データD2に対して、装着部テンプレートTを所定の走査方向に相対移動させる。このときの探索方法は、特に限定されず、疎密探索法等、各種探索法を用いることができる。そして、装着部テンプレートTのパターンと最も類似度が高い(又は相違度が低い)領域を特定する。
【0030】
図5に示すように、装着部テンプレートTは、ドライバー2に装着されたシートベルト5とドライバー2の身体の一部とによって特徴付けられる標準エッジパターンをテンプレートとしたものである。具体的には、シートベルト5が右肩の稜線付近に掛かる、シートベルト装着位置のエッジパターンであって、ドライバー2の肩と背景との境目を抽出したエッジと、シートベルト5の側端を抽出したエッジとが交差している。
【0031】
装着部テンプレートTに描画されたエッジパターンは、1対の屈曲形状のエッジEからなる。各エッジEは、ドライバー2の肩と背景との境目をエッジEとして検出した肩検出エッジE1と、シートベルト5の側端をエッジとして検出したベルト検出エッジE2とからそれぞれ構成される。左側のエッジEは、肩の稜線に沿って、上方右側又は右側に延びた後、その略中央で、下方右側に向かって屈曲する。右側のエッジEは、一端から、肩の稜線に沿って上方右側又は右側に向かって延びた後、その略中央で、下方右側に向かって屈曲する。また、エッジパターンは、2本のベルト検出エッジE2が、ほぼ平行に延びている特徴を有する。このエッジパターンは、殆どのエッジ強調データD2で検出可能な最小限のパターンである。
【0032】
マッチング処理部26は、例えばエッジ強調データD2の全範囲に亘って、マッチングを行いながら類似度を算出する。そして、類似度が最も高い2次元領域を検出すると、その領域の中心座標を取得する。例えば、図6に示すように、エッジ強調データD2のうち、マッチング領域Z1がテンプレートTとの類似度が最も高い領域である場合、そのマッチング領域Z1の中心座標P1を取得する。尚、最も高い類似度が予め定めた閾値を満たしていない場合には、マッチング不成功とみなし、類似度が閾値を満たしている場合には、マッチング成功とみなす。
【0033】
マッチングが成功した場合、マッチング処理部26は、類似度が最も高いマッチング領域Z1の中心座標P1を示すデータを、顔候補領域特定部29に送る。顔候補領域特定部29は、中心座標P1を取得すると、相対位置記憶部30から、位置関係情報としての相対位置データ31を読み出し、顔位置の検出対象範囲を絞り込むための顔候補領域を特定
する。このとき用いられる相対位置データ31は、マッチング領域Z1の上記中心座標P1と顔候補領域との相対位置関係を予め関連付けたデータである。即ち、ドライバー2の顔位置は、右肩に掛けられたシートベルト5付近に位置しているため、マッチング領域Z1から、顔位置があると想定される顔候補領域を確実に絞り込むことができる。また、シートベルト5は、ドライバー2が姿勢を変えても、その身体の動きに従動するため、上記マッチング領域Z1と顔位置との相対距離及び相対方向はほぼ一定である。従って、顔候補領域Z2を、顔位置が存在する領域に高精度に設定することができる。尚、相対位置データ31は、中心座標P1から顔候補領域Z2の座標を算出するための演算式でもよいし、マップでもよい。
【0034】
顔候補領域特定部29は、図6に示すように、取得した中心座標P1と相対位置データ31とに基づき、顔候補領域Z2の2次元座標を算出する。本実施形態の顔候補領域Z2は、矩形状であって、その大きさの初期値は一定であるが、楕円形状等、その他の形状でもよい。
【0035】
顔候補領域Z2を示す座標を算出すると、その座標は、顔位置検出部23に送られる。このとき、既に顔候補領域Z2が絞り込まれているため、画像データD1又はエッジ強調データD2の全領域に対して、テンプレートマッチングや肌色検出等の顔位置検出処理を実行する場合に比べ、顔位置検出の処理量が大きく軽減されるので、より詳細な画像処理を行うことができる。即ち、画像データD1又はエッジ強調データD2に対して、より多くの数のテンプレートを用いてマッチングを行っても良いし、複数の画像処理方法を試みても良い。また、ノイズ除去、コントラスト調整、色調補正等の前処理を行ってもよい。
【0036】
顔位置を検出すると、顔位置検出部23は、顔検出データ25を格納する。また、顔位置の座標と、上記マッチング領域Z1との中心座標P1を関連付けて、位置学習データ32として蓄積する。顔候補領域特定部29は、位置学習データ32が蓄積されると、その蓄積された位置学習データ32に基づき、相対位置データ31をフィードバック補正する。例えば、複数の位置学習データ32に基づき、顔位置が、顔候補領域Z2の右側の領域で偏って検出される傾向にあると判定できる場合、顔位置が顔候補領域Z2の中央で検出されるように相対位置データ31を補正する。また、顔候補領域Z2内において顔位置が検出される領域を統計し、顔候補領域Z2の大きさを縮小するようにしてもよい。
(処理手順)
次に、本実施形態の処理手順について、図7〜図9に従って説明する。図7に示すように、位置検出ECU10は、乗員位置検出を開始するか否かを判断する(ステップS1)。本実施形態では、上記したようにバックルスイッチ12が、タングの差し込みを検出した際に、乗員位置検出を開始する。又は、シフトポジションセンサ等に基づき、シフトポジションがパーキングポジションから、それ以外のポジションに変更された際に、乗員位置検出を開始すると判断してもよい。又は、ACCスイッチがオン状態とされた際に、乗員位置検出を開始すると判断してもよいし、インストルメントパネル15等に設けられた所定のボタンが押釦され、ボタンに連動したスイッチがオン状態とされた際に、乗員位置検出を開始すると判断してもよい。
【0037】
乗員位置の検出を開始すると判断すると(ステップS1においてYES)、位置検出ECU10は、カメラ11から画像データD1を取得する(ステップS2)。そして、候補領域特定処理(ステップS3)を行う。また、乗員位置の検出を開始しないと判断した場合には(ステップS1においてNO)、乗員位置の検出を開始すると判断するまでステップS1を繰り返す。
【0038】
この候補領域特定処理について、図9に従って説明する。位置検出ECU10は、ステップS2で取得した画像データD1に対し、上記したエッジ強調処理を行う(ステップS
3−1)。図10(a)は、カメラ11から取得した画像データD1を表し、図10(b)は、図10(a)の画像データD1に対するエッジ強調処理を行ったエッジ強調データD2を表す。図10(b)のエッジ強調データD2は、顔のパーツや輪郭のエッジが抽出されないか、或いは不連続であるのに比べ、肩検出エッジE1は連続的且つ明瞭に抽出され、ベルト検出エッジE2も連続的且つ明瞭に検出されている。
【0039】
また、図11(a)は、図10(a)の人物とは異なる人物を、異なる照明条件で撮影した画像データD1を示し、図11(b)は、そのエッジ強調データD2を示す。また、図11(a)の画像データD1は、図10(a)の画像データD1に比べ、照度が低い状態で撮影されている。図11(b)に示すように、照度が不足し、顔のエッジが検出されない場合でも、肩検出エッジE1やベルト検出エッジE2は、連続的且つ明瞭に抽出される。また、図10(b)と図11(b)とを比較して判るように、異なる体格、又は異なる顔輪郭の人物でも、肩検出エッジE1及びベルト検出エッジE2がなすエッジパターンは、ほぼ一定である。従って、体格の差異、顔輪郭の差異、肌色の差異といった個人差に左右されることがなく、照明条件による影響が少ないため、高精度に肩検出エッジE1及びベルト検出エッジE2がなすエッジパターンを検出できる。
【0040】
エッジ強調データD2を生成すると、位置検出ECU10は、装着部テンプレートTを読み出す(ステップS3−2)。そして、読み出した装着部テンプレートTを用い、エッジ強調データD2に対して、上記したようにテンプレートマッチングを行う(ステップS3−3)。
【0041】
さらに、位置検出ECU10は、上記したように、テンプレートマッチングが成功したか否かを判断する(ステップS3−4)。エッジ強調データD2のうち、類似度の最大値が閾値未満であった場合には、テンプレートマッチングが不成功であったと判断し(ステップS3−4においてNO)、マッチング結果を記憶する(ステップS3−5)。このテンプレートマッチングが不成功である場合、シートベルト5が、何らかの物体によって隠されている等、特異な事態が想定されるが、通常は、テンプレートマッチングが成功する確率が高い。
【0042】
一方、テンプレートマッチングが成功したと判断すると(ステップS3−4においてYES)、マッチングしたマッチング領域Z1の中心座標P1を取得する(ステップS3−6)。中心座標P1を取得すると、その中心座標P1と相対位置データ31とを用いて、顔候補領域Z2を特定する(ステップS3−7)。図10(c)では、図10(b)のエッジ強調データD2に対し特定された顔候補領域Z2を鎖線で示し、図11(c)では、図11(b)のエッジ強調データD2に対し特定された顔候補領域Z2を鎖線で示している。
【0043】
顔候補領域Z2を算出すると、その顔候補領域Z2を示す座標を記憶して、図7に示すステップS4に進む。
ステップS4では、位置検出ECU10は、候補領域特定処理によって、顔候補領域Z2が特定されたか否かを判断する。顔候補領域Z2が特定されなかった場合(ステップS4においてNO)、ステップS11に進み、乗員位置検出を終了するか否かを判断する。このとき、バックルスイッチ12のオン状態が維持されている場合には、乗員位置検出が終了しないと判断し(ステップS11においてNO)、ステップS2に戻る。尚、ここではステップS2に戻るようにしたが、ステップS3に戻り、顔候補領域Z2の特定を再度試みてもよい。
【0044】
一方、顔候補領域Z2が特定されたと判断すると(ステップS4においてYES)、顔候補領域Z2を特定する際に用いた画像データD1、又はその画像データD1にエッジ強
調処理を行ったエッジ強調データD2を取得し(ステップS5)、顔候補領域Z2に対して上記顔位置検出処理を行う(ステップS6)。
【0045】
ステップS6で実行される顔位置検出処理では、画像処理を行う対象である顔候補領域Z2が絞り込まれているため、詳細な画像処理を行うことができる。
そして、図8に示すステップ7に進み、顔候補領域Z2を絞り込んだ顔位置検出処理が成功したか否かを判断する。顔位置検出処理が成功しなかったと判断すると(ステップS7においてNO)、上記したステップS11に進む。顔位置検出処理が成功したと判断すると(ステップS7においてYES)、顔位置及び顔向きを含む顔検出データ25を生成し(ステップS8)、顔検出データ25をRAMに登録する(ステップS9)。また、顔位置を示す座標と、上記マッチング領域Z1の中心座標P1とを関連付けた位置学習データ32を生成し、生成した位置学習データ32を蓄積する(ステップS10)。
【0046】
そして、ステップS11において、バックルスイッチ12がオフ状態とされたと判断すると(ステップS11においてYES)、一旦処理を終了し、ステップS1に戻る。
また、図12に示すように、位置検出ECU10は、相対位置データ31のフィードバック補正を行う。まず、位置検出ECU10は、位置学習データ32が所定数だけ蓄積されたか否かを判断し(ステップ17)、蓄積されたと判断すると(ステップS17においてYES)、その位置学習データ32を用いて、相対位置データ31を補正する(ステップS18)。上記したように、位置学習データ32の傾向に応じて、マッチング領域Z1の中心座標P1と、顔候補領域Z2との位置関係を補正してもよいし、顔候補領域Z2を縮小してもよい。このため、位置検出の繰り返しに伴い、相対位置データ31を最適化することができる。
【0047】
第1実施形態によれば、以下のような効果を得ることができる。
(1)第1実施形態では、ドライバー2を撮影した画像データD1をカメラ11から取得し、この画像データD1に対してエッジ強調処理を行った。また、ドライバー2に装着されたシートベルト5と当該ドライバー2の身体の一部とによって特徴付けられる装着部テンプレートTのエッジパターンと類似度が高いマッチング領域Z1を検出した。また、マッチング領域Z1の中心座標及びドライバー2の顔位置があると想定される顔候補領域Z2を関連付けた相対位置データ31に基づき、顔候補領域Z2を特定し、顔候補領域Z2に対して顔位置を検出するための画像処理を行った。従って、個人差がなく、他の物体によって遮蔽され難く、周囲の物体との輝度差が発生しやすいシートベルト5を検出対象とするため、シートベルト装着位置の検出率及び検出精度を向上することができる。また、このように特定されたマッチング領域Z1から顔候補領域Z2を特定するため、顔候補領域Z2の検出率及び検出精度を向上することができる。さらに、顔候補領域Z2を絞り込んだ画像処理では、画像全域に対して画像処理を行う場合に比べ、顔位置検出の対象となる画素数が大幅に減るため、詳細な画像処理を行うことで、顔位置の検出率及び検出精度を向上することができる。
【0048】
(2)第1実施形態では、エッジ強調データD2に対し、シートベルト5と肩が交差する部分であって、殆どのエッジ強調データD2で検出可能な最小限の標準エッジパターンを装着部テンプレートTとして格納した。また、その装着部テンプレートTを用いて、エッジ強調データD2における装着部テンプレートTとの類似度を判断するテンプレートマッチング処理を行った。こうすることで、容易にシートベルト装着位置を検出するとともに、検出率を向上することが出来る。
【0049】
(3)第1実施形態では、取得した画像データD1に対し、エッジ強調処理を行ってエッジ強調データD2を生成し、エッジ強調データD2のエッジパターンに基づき、シートベルト5と肩が交差する部分の検出を行った。即ち、シートベルト5は、乗員の着衣、背
景等に対して輝度差が生じやすいので、エッジ強調データ内での検出率を向上することができる。また、シートベルト5の形状が長尺状であることから、シートベルト5を、平行に長く延びる2本のエッジとして検出しやすい。このため、特徴点検出等の他の画像処理と比べ、エッジ強調処理は、シートベルト装着位置を検出するのに適しているため、より確実にシートベルト装着位置を検出することができる。
【0050】
(4)第1実施形態では、生成した顔検出データ25に基づき、相対位置データ31をフィードバック補正した。このため、顔位置検出の繰り返しに伴い、相対位置データ31が最適化されていくため、最適化された相対位置データ31により、さらに高精度に顔位置又は顔の向きを検出することができる。
【0051】
尚、上記実施形態は以下のように変更してもよい。
・カメラ11は、インストルメントパネル15に固定したが、車体の他の位置に取り付けるようにしてもよい。
【0052】
・上記実施形態では、画像データD1に対し、エッジ強調処理を行ってから、装着部テンプレートTを用いたが、エッジ強調処理を省略してもよい。この場合、コーナー検出(特徴点検出)、2値化処理等を替わりに行ってもよい。その際、それらの画像処理によって得られる、シートベルト5と乗員の身体の一部とによって特徴付けられる特徴パターンを装着部テンプレートTとする。
【0053】
・上記実施形態では、ドライバー2の顔位置を検出したが、助手席に着座した乗員、又は後部座席に着座した乗員の顔位置を検出するようにしてもよい。
・上記実施形態では、画像データD1に対し、エッジ強調処理を行ったが、SUSANオペレータ等のコーナー検出を行ってもよい。この場合、装着部テンプレートTは、エッジパターンの特徴を示すテンプレートではなく、コーナー特徴点の分散のパターンを示すテンプレートとなる。
【0054】
・上記実施形態では、画像データD1を用いて、シートベルト装着位置を検出したが、さらに画像データD1(画像フレーム)中におけるシートベルトの幅を検出してもよい。画像データD1中におけるシートベルトの幅は、カメラ11に対するドライバーの位置や姿勢に応じて変化するので、シートベルト装着位置に加え、シートベルトの幅を考慮することにより、顔候補領域Z2をさらに精度よく特定することができる。この場合、位置検出ECU10は、ベルト幅検出手段として機能する。例えば、相対位置データ31では、上記中心座標P1及び画像データD1中におけるシートベルトの幅といった2つのパラメータと、顔候補領域Z2との相対位置関係が関連付けられ、算出した中心座標P1及びシートベルトの幅と、相対位置データ31とを用いて、顔候補領域Z2を特定することができる。或いは、テンプレートマッチング処理で用いる装着部テンプレートTを、ドライバーの姿勢に合わせて複数格納し、検出したシートベルトの幅に基づき、各装着部テンプレートTのうち一つを選択するようにしてもよい。例えば、ドライバーが左側又は右側を向くと、シートベルト5の前面がカメラ11に対して傾斜して、画像データD1中のシートベルトの幅は狭くなる。このため、検出したシートベルトの幅が小さい値の場合には、ドライバーが左側又は右側を向いた場合を想定した装着部テンプレートTを選択する。
【0055】
・上記実施形態では、シートベルト位置検出手段、顔情報生成手段を位置検出ECU10として具体化したが、それぞれ別のECUから構成してもよい。例えば、シートベルト位置検出手段をカメラ11のECUから構成し、顔情報生成手段をナビゲーション装置のECUから構成してもよい。
【図面の簡単な説明】
【0056】
【図1】乗員位置検出システムの概略図。
【図2】カメラの撮影範囲を示す模式図。
【図3】カメラの撮影範囲を示す模式図。
【図4】位置検出ECUの機能ブロック図
【図5】装着部テンプレートの模式図。
【図6】顔候補領域を特定する際の模式図。
【図7】第1実施形態の処理手順を示すフローチャート。
【図8】同処理手順を示すフローチャート。
【図9】候補領域特定処理のフローチャート。
【図10】(a)は画像データ、(b)はエッジ強調データ、(c)は顔候補領域を特定した写真図。
【図11】異なる人物を撮影した画像を示し、(a)は画像データ、(b)はエッジ強調データ、(c)は顔候補領域を特定した写真図。
【図12】学習処理のフローチャート。
【符号の説明】
【0057】
1…乗員位置検出システム、2…乗員としてのドライバー、5…シートベルト、10…画像データ取得手段、シートベルト位置検出手段、顔情報生成手段、学習手段、ベルト幅検出手段、乗員位置検出装置及び制御手段としての位置検出ECU、11…撮影手段としてのカメラ、25…顔情報としての顔検出データ、31…位置関係情報としての相対位置データ、D1…画像データ、D2…エッジ強調データ、T…装着部テンプレート、Z2…顔候補領域。
【技術分野】
【0001】
本発明は、乗員位置検出装置、乗員位置検出方法及び乗員位置検出プログラムに関する。
【背景技術】
【0002】
最近、ドライバーに対する運転支援や非常時の乗員保護等といった各種支援は、高度化且つ多様化する傾向にある。それらの中には、乗員の顔の位置、顔の向き等といった乗員位置の検出を必要とする支援方法がある。このため、高精度且つ高速な乗員位置の検出が要請されており、既に様々な検出方法が提案されている。
【0003】
例えば、乗員を撮影した画像データを取得し、画像データの肌色領域を顔の位置として検出する方法(例えば特許文献1参照)や、顔の輪郭形状を検出し、該輪郭形状が含まれる範囲を顔の位置とする方法がある。肌色領域を検出する方法では、例えば肌色の色相に含まれる基準画素を設定し、当該基準画素の画素値と近接する画素の画素値との差分が所定値以下となる場合に、その近接画素を、基準画素と同じ特徴量を有する集合としてみなす。そして、以下同様に次の近接画素を探索し、基準画素と同じ特徴量を有する集合を肌色領域として設定する。また、顔の輪郭形状を検出する方法では、例えば、輪郭形状のテンプレートを予め複数準備しておき、このテンプレートを画像データに対して相対移動させ、テンプレートと類似度が大きい範囲を顔の位置として設定する。
【特許文献1】特開2008−182591号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
ところが、上記した各方法を車載システムに適用した場合、以下のような問題点がある。例えば、肌色領域を検出する方法の場合、肌色には個人差があるとともに、移動中の車内では頻繁に照明条件が変化するため、顔位置の輝度や色相が安定せず、顔の位置の検出精度が低下する虞がある。また、顔の輪郭形状を検出する方法の場合、輪郭形状には個人差がある他、乗員の顔に照射される外光が十分でない場合、撮影画像中の顔輪郭を特定し難く、顔の位置を精度よく検出することが困難である。さらに、カメラの光学機構の特性により、撮影された顔の大きさが変化したり、輪郭形状の歪みが生じるため、顔の位置の検出率が低下する。
【0005】
また、上記した各方法では、画像全体に対して処理を行うため、車両における支援のように処理速度の向上が要請される場合には、検出精度の低い画像処理であることも多く、そのことが顔位置の検出精度及び検出率の低下の原因ともなっていた。
【0006】
本発明は、上記問題点に鑑みてなされたものであり、その目的は、顔情報の検出精度や検出率を向上することができる乗員位置検出装置、乗員位置検出方法及び乗員位置検出プログラムを提供することにある。
【課題を解決するための手段】
【0007】
上記問題点を解決するために、請求項1に記載の発明は、乗員を撮影した画像データを撮影手段から取得する画像データ取得手段と、前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の
顔情報を生成するための画像処理を行う顔情報生成手段とを備えたことを要旨とする。
【0008】
この発明によれば、顔情報を生成するために、シートベルト装着位置を検出し、シートベルト装着位置及び顔候補領域を関連付けた位置関係情報を用いて顔候補領域を絞り込む。そして、顔候補領域を対象として顔情報を生成するための画像処理を行う。ここで、シートベルト装着位置は、顔の位置の動きに合わせて動くため、顔との位置関係の変化が少ない上に個人差がなく、他の物体に遮蔽されにくく、且つ外的要因による影響を受けにくいので、高い検出率で検出できる。そして、このシートベルト装着位置を用いて顔候補領域を特定することで、顔候補領域を、顔位置を含む位置に確実に設定することができる。従って、顔候補領域を絞り込み、絞り込まれた顔候補領域に対して顔情報生成のための詳細な画像処理を行うことができるため、高精度な顔情報を生成することができる。
【0009】
請求項2に記載の発明は、請求項1に記載の乗員位置検出装置において、前記シートベルト位置検出手段は、前記シートベルト装着位置の標準パターンをテンプレートとして記憶するとともに、前記画像データ中における当該テンプレートとの類似度を判断するテンプレートマッチング処理を行うことを要旨とする。
【0010】
この発明によれば、シートベルト装着位置の標準パターンをテンプレートとして記憶し、画像データ中における当該テンプレートとの類似度を判断する、テンプレートマッチング処理によりシートベルト装着位置を検出する。即ち、検出率が高いシートベルトのパターンを検出対象とするため、容易に検出を行うことが出来る。
【0011】
請求項3に記載の発明は、請求項1又は2に記載の乗員位置検出装置において、前記シートベルト位置検出手段は、取得した前記画像データに対し、エッジ強調処理を行ってエッジ強調データを生成し、当該エッジ強調データのエッジパターンに基づき、前記シートベルト装着位置の検出を行うことを要旨とする。
【0012】
この発明によれば、画像データに対しエッジ強調が行われたエッジ強調データに対し、シートベルト装着位置の検出が行われる。シートベルトは、乗員の着衣、背景等に対して輝度差が生じやすいので、エッジ強調データ内でのシートベルト装着位置の検出率を向上することができる。
【0013】
請求項4に記載の発明は、請求項1〜3のいずれか1項に記載の乗員位置検出装置において、前記顔情報生成手段により生成された前記顔情報に基づき、前記位置関係情報を補正する学習手段をさらに備えたことを要旨とする。
【0014】
この発明によれば、生成した顔情報を、位置関係情報にフィードバックして補正する学習が行われる。このため、顔情報の生成が繰り返されるに伴い、位置関係情報が最適化されるため、最適化された位置関係情報により、さらに高精度に顔位置又は顔の向きを検出することができる。
【0015】
請求項5に記載の発明は、請求項1〜4のいずれか1項に記載の乗員位置検出装置において、前記位置関係情報には、前記顔候補領域と関連付けられたシートベルトの幅が含まれており、前記画像データにおける前記シートベルトの幅を検出するベルト幅検出手段をさらに備え、前記顔情報生成手段は、前記検出したシートベルトの幅と、前記シートベルト装着位置と、前記位置関係情報とに基づいて、前記画像データ中における前記顔候補領域を特定することを要旨とする。
【0016】
この発明によれば、位置関係情報は、顔候補領域と関連付けられたシートベルトの幅を含む。そして、画像データにおけるシートベルトの幅を検出し、その検出したシートベル
トの幅及びシートベルト装着位置と、シートベルトの幅を含む位置関係情報とに基づき、顔候補領域を特定する。従って、シートベルト装着位置だけでなくシートベルトの幅に応じて顔候補領域を設定するので、顔候補領域の精度をより向上させることができる。
【0017】
請求項6に記載の発明は、乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出方法において、前記制御手段が、前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出し、前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行うことを要旨とする。
【0018】
この発明によれば、顔情報を生成するために、シートベルト装着位置を検出し、シートベルト装着位置及び顔候補領域を関連付けた位置関係情報を用いて顔候補領域を絞り込む。そして、顔候補領域を対象として顔情報を生成するための画像処理を行う。ここで、シートベルト装着位置は、顔の位置の動きに合わせて動くため、顔との位置関係の変化が少ない上に個人差がなく、他の物体に遮蔽されにくく、且つ外的要因による影響を受けにくいので、高い検出率で検出できる。そして、このシートベルト装着位置を用いて顔候補領域を特定することで、顔候補領域を、顔位置を含む位置に確実に設定することができる。従って、顔候補領域を絞り込み、絞り込まれた顔候補領域に対して顔情報生成のための詳細な画像処理を行うことができるため、高精度な顔情報を生成することができる。
【0019】
請求項7に記載の発明は、乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出プログラムにおいて、前記制御手段を、前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、前記シートベルト装着位置及び前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行う顔情報生成手段として機能させることを要旨とする。
【0020】
この発明によれば、乗員位置検出プログラムを用いて、顔情報を生成するために、シートベルト装着位置を検出し、シートベルト装着位置及び顔候補領域を関連付けた位置関係情報を用いて顔候補領域を絞り込む。そして、顔候補領域を対象として顔情報を生成するための画像処理を行う。ここで、シートベルト装着位置は、顔の位置の動きに合わせて動くため、顔との位置関係の変化が少ない上に個人差がなく、他の物体に遮蔽されにくく、且つ外的要因による影響を受けにくいので、高い検出率で検出できる。そして、このシートベルト装着位置を用いて顔候補領域を特定することで、顔候補領域を、顔位置を含む位置に確実に設定することができる。従って、顔候補領域を絞り込み、絞り込まれた顔候補領域に対して顔情報生成のための詳細な画像処理を行うことができるため、高精度な顔情報を生成することができる。
【発明を実施するための最良の形態】
【0021】
以下、本発明を具体化した第1実施形態を図1〜図12に従って説明する。図1は、乗員位置検出システム1の概略図である。乗員位置検出システム1は、位置検出ECU10を備えている。位置検出ECU10は、画像データ取得手段、シートベルト位置検出手段、顔情報生成手段、学習手段、乗員位置検出装置及び制御手段に対応し、CPU、RAM、ROMや、画像処理用のLSI等を備え、乗員位置検出プログラムを格納している。
【0022】
位置検出ECU10は、車両に取り付けられた撮影手段としてのカメラ11から画像デ
ータを入力する。カメラ11は、広角レンズを含む光学機構、CCD、CMOS等の撮像素子、ゲイン補正等を行う信号処理部、A/D変換器等を有している。図2及び図3に示すように、カメラ11は、その撮影範囲20に、シート3に着座したドライバー2の顔及び肩部を含む上半身が含まれるように、車両のインストルメントパネル15等に固定されている。
【0023】
また、カメラ11の撮影範囲20には、ドライバー2の上半身の他に、シート3のヘッドレスト3A及びシートバック3Bの上部と、シートベルト装置を構成するシートベルト5(ウェビング)の一部とが含まれる。カメラ視点からみると、ヘッドレスト3Aは、その一部がドライバー2の頭部によって遮蔽され、シートバック3Bの大部分はドライバー2の肩及び胸部によって遮蔽されるが、シートベルト5はドライバー2の着衣の上から装着されるため、他の物体によって遮蔽され難い。
【0024】
また、本実施形態のシートベルト装置は、3点式シートベルト装置であって、その一端がシートクッション3Cの側部に固定され、その他端が、車体であって、ドライバー2の上方付近に設けられた図示しない巻き取り装置に固定されている。また、シートベルト装置は、帯状の上記シートベルト5の他、シートベルト5の長手方向に対して移動可能に取り付けられたタングと、シート側に固定されたバックル(いずれも図示略)を有しており、シートベルト5は、タングをバックルに差し込むことによって、ドライバー2の右肩付近から、下方左側に向かって斜めに装着される。また、バックルの内部には、タングの差し込みの有無を検知するバックルスイッチ12(図1参照)が設けられている。当該スイッチ12は、タングの差し込みを検知するとオン状態となり、タングを検知しない場合にはオフ状態となる。尚、シートベルト装置は、3点式の装置以外にも、4点式シートベルト装置でもよい。また、本実施形態では、右側に運転席がある車両を前提に説明しているが、左側に運転席がある車両に適用してもよい。
【0025】
また、位置検出ECU10は、イグニッションモジュール13から、ACC(アクセサリ)スイッチのオン信号を入力する。位置検出ECU10は、ACCスイッチのオン信号をトリガとして、カメラ11を起動する。そして、上記バックルスイッチ12がオン状態とされると、カメラ11が撮影した画像データの取得を開始し、ドライバー2の顔の位置及び顔の向きを示すパラメータを含む顔検出データを生成するための処理を行う。生成した顔検出データは、運転支援ECU14に出力され、運転支援ECU14は、上記パラメータを用いて各種支援を行う。この支援としては、ドライバーの脇見運転に対する警告、右左折意思の確認、死角領域の画像表示、居眠り運転に対する警告、非常時のエアバック展開方向の算出等が挙げられるが、本発明では特に限定されない。
【0026】
図4は、位置検出ECU10の機能ブロック図である。画像取得部21は、バックルスイッチ12がオン状態とされたタイミングで、画像データD1の取得を開始する。画像データD1の取得が開始された後は、所定間隔で画像データD1を取得する。
【0027】
次に、取得された画像データD1を用いて顔候補領域を特定する。まず、エッジ強調処理部22が、画像データD1に対し、エッジ強調処理を行う。エッジ強調処理部22は、画像データD1の注目画素と隣接画素との輝度差をエッジとして抽出するエッジ強調を行う処理部であり、ソーベルフィルタ、ラプラシアンフィルタ等を用いた公知のアルゴリズムによって、エッジ強調データD2を生成する。このエッジ強調処理により、撮影画像のうち、画像の濃淡(明るさ)の境目を検出することができる。尚、エッジ強調処理を行う前に、ノイズを除去するための平滑化処理等を行ってもよい。また、エッジ強調データD2に対し、さらに2値化処理を行ってもよいし、公知のノイズを除去するためのアルゴリズムを用いてもよい。
【0028】
ここで、車外から入射する光により、車内が明るい場合には、その被撮影体の輪郭をエッジとして抽出される確率が高いが、明るさが十分でない場合には、その被撮影体の輪郭をエッジとして抽出できる確率は低下する。車内の照明条件は、天候によっても変化し、走行道路によって刻々と変化するため、照明条件が悪いときが多々ある。その中で、車外から入射する光量等の外的要因による影響が小さく、検出率が高いものとして、シートベルト5の長手方向に沿った側端と、ドライバー2の肩部との境目が挙げられる。即ち、一般的なシートベルト5は、ポリエチレン繊維等の光沢性を有する材質から構成されているため、シートベルト5に反射した光の鏡面反射成分が大きく、着衣等の周囲の被撮影物に対して輝度差が出やすい。また、上記したように、シートベルト5は、ドライバー2の着衣の上から装着されるため、遮蔽物によって遮蔽されにくく、また車両のウィンドウを介して入射した外光が照射されやすい位置に配置されているといった利点も有する。一方、ドライバー2の顔や、シート3等は、シートベルト5に比べ、光を拡散反射するため、周囲の物体等との輝度差が生じにくく、エッジを比較的抽出し難い。
【0029】
次に、マッチング処理部26により、ベルト装着位置を検出するためのテンプレートマッチング処理が行われる。マッチング処理部26は、顔位置検出部23の検出結果を受けて、エッジ強調処理部22からエッジ強調データD2を取得する。また、テンプレート記憶部27に記憶された装着部テンプレートTを読み出し、エッジ強調データD2に対して、装着部テンプレートTを所定の走査方向に相対移動させる。このときの探索方法は、特に限定されず、疎密探索法等、各種探索法を用いることができる。そして、装着部テンプレートTのパターンと最も類似度が高い(又は相違度が低い)領域を特定する。
【0030】
図5に示すように、装着部テンプレートTは、ドライバー2に装着されたシートベルト5とドライバー2の身体の一部とによって特徴付けられる標準エッジパターンをテンプレートとしたものである。具体的には、シートベルト5が右肩の稜線付近に掛かる、シートベルト装着位置のエッジパターンであって、ドライバー2の肩と背景との境目を抽出したエッジと、シートベルト5の側端を抽出したエッジとが交差している。
【0031】
装着部テンプレートTに描画されたエッジパターンは、1対の屈曲形状のエッジEからなる。各エッジEは、ドライバー2の肩と背景との境目をエッジEとして検出した肩検出エッジE1と、シートベルト5の側端をエッジとして検出したベルト検出エッジE2とからそれぞれ構成される。左側のエッジEは、肩の稜線に沿って、上方右側又は右側に延びた後、その略中央で、下方右側に向かって屈曲する。右側のエッジEは、一端から、肩の稜線に沿って上方右側又は右側に向かって延びた後、その略中央で、下方右側に向かって屈曲する。また、エッジパターンは、2本のベルト検出エッジE2が、ほぼ平行に延びている特徴を有する。このエッジパターンは、殆どのエッジ強調データD2で検出可能な最小限のパターンである。
【0032】
マッチング処理部26は、例えばエッジ強調データD2の全範囲に亘って、マッチングを行いながら類似度を算出する。そして、類似度が最も高い2次元領域を検出すると、その領域の中心座標を取得する。例えば、図6に示すように、エッジ強調データD2のうち、マッチング領域Z1がテンプレートTとの類似度が最も高い領域である場合、そのマッチング領域Z1の中心座標P1を取得する。尚、最も高い類似度が予め定めた閾値を満たしていない場合には、マッチング不成功とみなし、類似度が閾値を満たしている場合には、マッチング成功とみなす。
【0033】
マッチングが成功した場合、マッチング処理部26は、類似度が最も高いマッチング領域Z1の中心座標P1を示すデータを、顔候補領域特定部29に送る。顔候補領域特定部29は、中心座標P1を取得すると、相対位置記憶部30から、位置関係情報としての相対位置データ31を読み出し、顔位置の検出対象範囲を絞り込むための顔候補領域を特定
する。このとき用いられる相対位置データ31は、マッチング領域Z1の上記中心座標P1と顔候補領域との相対位置関係を予め関連付けたデータである。即ち、ドライバー2の顔位置は、右肩に掛けられたシートベルト5付近に位置しているため、マッチング領域Z1から、顔位置があると想定される顔候補領域を確実に絞り込むことができる。また、シートベルト5は、ドライバー2が姿勢を変えても、その身体の動きに従動するため、上記マッチング領域Z1と顔位置との相対距離及び相対方向はほぼ一定である。従って、顔候補領域Z2を、顔位置が存在する領域に高精度に設定することができる。尚、相対位置データ31は、中心座標P1から顔候補領域Z2の座標を算出するための演算式でもよいし、マップでもよい。
【0034】
顔候補領域特定部29は、図6に示すように、取得した中心座標P1と相対位置データ31とに基づき、顔候補領域Z2の2次元座標を算出する。本実施形態の顔候補領域Z2は、矩形状であって、その大きさの初期値は一定であるが、楕円形状等、その他の形状でもよい。
【0035】
顔候補領域Z2を示す座標を算出すると、その座標は、顔位置検出部23に送られる。このとき、既に顔候補領域Z2が絞り込まれているため、画像データD1又はエッジ強調データD2の全領域に対して、テンプレートマッチングや肌色検出等の顔位置検出処理を実行する場合に比べ、顔位置検出の処理量が大きく軽減されるので、より詳細な画像処理を行うことができる。即ち、画像データD1又はエッジ強調データD2に対して、より多くの数のテンプレートを用いてマッチングを行っても良いし、複数の画像処理方法を試みても良い。また、ノイズ除去、コントラスト調整、色調補正等の前処理を行ってもよい。
【0036】
顔位置を検出すると、顔位置検出部23は、顔検出データ25を格納する。また、顔位置の座標と、上記マッチング領域Z1との中心座標P1を関連付けて、位置学習データ32として蓄積する。顔候補領域特定部29は、位置学習データ32が蓄積されると、その蓄積された位置学習データ32に基づき、相対位置データ31をフィードバック補正する。例えば、複数の位置学習データ32に基づき、顔位置が、顔候補領域Z2の右側の領域で偏って検出される傾向にあると判定できる場合、顔位置が顔候補領域Z2の中央で検出されるように相対位置データ31を補正する。また、顔候補領域Z2内において顔位置が検出される領域を統計し、顔候補領域Z2の大きさを縮小するようにしてもよい。
(処理手順)
次に、本実施形態の処理手順について、図7〜図9に従って説明する。図7に示すように、位置検出ECU10は、乗員位置検出を開始するか否かを判断する(ステップS1)。本実施形態では、上記したようにバックルスイッチ12が、タングの差し込みを検出した際に、乗員位置検出を開始する。又は、シフトポジションセンサ等に基づき、シフトポジションがパーキングポジションから、それ以外のポジションに変更された際に、乗員位置検出を開始すると判断してもよい。又は、ACCスイッチがオン状態とされた際に、乗員位置検出を開始すると判断してもよいし、インストルメントパネル15等に設けられた所定のボタンが押釦され、ボタンに連動したスイッチがオン状態とされた際に、乗員位置検出を開始すると判断してもよい。
【0037】
乗員位置の検出を開始すると判断すると(ステップS1においてYES)、位置検出ECU10は、カメラ11から画像データD1を取得する(ステップS2)。そして、候補領域特定処理(ステップS3)を行う。また、乗員位置の検出を開始しないと判断した場合には(ステップS1においてNO)、乗員位置の検出を開始すると判断するまでステップS1を繰り返す。
【0038】
この候補領域特定処理について、図9に従って説明する。位置検出ECU10は、ステップS2で取得した画像データD1に対し、上記したエッジ強調処理を行う(ステップS
3−1)。図10(a)は、カメラ11から取得した画像データD1を表し、図10(b)は、図10(a)の画像データD1に対するエッジ強調処理を行ったエッジ強調データD2を表す。図10(b)のエッジ強調データD2は、顔のパーツや輪郭のエッジが抽出されないか、或いは不連続であるのに比べ、肩検出エッジE1は連続的且つ明瞭に抽出され、ベルト検出エッジE2も連続的且つ明瞭に検出されている。
【0039】
また、図11(a)は、図10(a)の人物とは異なる人物を、異なる照明条件で撮影した画像データD1を示し、図11(b)は、そのエッジ強調データD2を示す。また、図11(a)の画像データD1は、図10(a)の画像データD1に比べ、照度が低い状態で撮影されている。図11(b)に示すように、照度が不足し、顔のエッジが検出されない場合でも、肩検出エッジE1やベルト検出エッジE2は、連続的且つ明瞭に抽出される。また、図10(b)と図11(b)とを比較して判るように、異なる体格、又は異なる顔輪郭の人物でも、肩検出エッジE1及びベルト検出エッジE2がなすエッジパターンは、ほぼ一定である。従って、体格の差異、顔輪郭の差異、肌色の差異といった個人差に左右されることがなく、照明条件による影響が少ないため、高精度に肩検出エッジE1及びベルト検出エッジE2がなすエッジパターンを検出できる。
【0040】
エッジ強調データD2を生成すると、位置検出ECU10は、装着部テンプレートTを読み出す(ステップS3−2)。そして、読み出した装着部テンプレートTを用い、エッジ強調データD2に対して、上記したようにテンプレートマッチングを行う(ステップS3−3)。
【0041】
さらに、位置検出ECU10は、上記したように、テンプレートマッチングが成功したか否かを判断する(ステップS3−4)。エッジ強調データD2のうち、類似度の最大値が閾値未満であった場合には、テンプレートマッチングが不成功であったと判断し(ステップS3−4においてNO)、マッチング結果を記憶する(ステップS3−5)。このテンプレートマッチングが不成功である場合、シートベルト5が、何らかの物体によって隠されている等、特異な事態が想定されるが、通常は、テンプレートマッチングが成功する確率が高い。
【0042】
一方、テンプレートマッチングが成功したと判断すると(ステップS3−4においてYES)、マッチングしたマッチング領域Z1の中心座標P1を取得する(ステップS3−6)。中心座標P1を取得すると、その中心座標P1と相対位置データ31とを用いて、顔候補領域Z2を特定する(ステップS3−7)。図10(c)では、図10(b)のエッジ強調データD2に対し特定された顔候補領域Z2を鎖線で示し、図11(c)では、図11(b)のエッジ強調データD2に対し特定された顔候補領域Z2を鎖線で示している。
【0043】
顔候補領域Z2を算出すると、その顔候補領域Z2を示す座標を記憶して、図7に示すステップS4に進む。
ステップS4では、位置検出ECU10は、候補領域特定処理によって、顔候補領域Z2が特定されたか否かを判断する。顔候補領域Z2が特定されなかった場合(ステップS4においてNO)、ステップS11に進み、乗員位置検出を終了するか否かを判断する。このとき、バックルスイッチ12のオン状態が維持されている場合には、乗員位置検出が終了しないと判断し(ステップS11においてNO)、ステップS2に戻る。尚、ここではステップS2に戻るようにしたが、ステップS3に戻り、顔候補領域Z2の特定を再度試みてもよい。
【0044】
一方、顔候補領域Z2が特定されたと判断すると(ステップS4においてYES)、顔候補領域Z2を特定する際に用いた画像データD1、又はその画像データD1にエッジ強
調処理を行ったエッジ強調データD2を取得し(ステップS5)、顔候補領域Z2に対して上記顔位置検出処理を行う(ステップS6)。
【0045】
ステップS6で実行される顔位置検出処理では、画像処理を行う対象である顔候補領域Z2が絞り込まれているため、詳細な画像処理を行うことができる。
そして、図8に示すステップ7に進み、顔候補領域Z2を絞り込んだ顔位置検出処理が成功したか否かを判断する。顔位置検出処理が成功しなかったと判断すると(ステップS7においてNO)、上記したステップS11に進む。顔位置検出処理が成功したと判断すると(ステップS7においてYES)、顔位置及び顔向きを含む顔検出データ25を生成し(ステップS8)、顔検出データ25をRAMに登録する(ステップS9)。また、顔位置を示す座標と、上記マッチング領域Z1の中心座標P1とを関連付けた位置学習データ32を生成し、生成した位置学習データ32を蓄積する(ステップS10)。
【0046】
そして、ステップS11において、バックルスイッチ12がオフ状態とされたと判断すると(ステップS11においてYES)、一旦処理を終了し、ステップS1に戻る。
また、図12に示すように、位置検出ECU10は、相対位置データ31のフィードバック補正を行う。まず、位置検出ECU10は、位置学習データ32が所定数だけ蓄積されたか否かを判断し(ステップ17)、蓄積されたと判断すると(ステップS17においてYES)、その位置学習データ32を用いて、相対位置データ31を補正する(ステップS18)。上記したように、位置学習データ32の傾向に応じて、マッチング領域Z1の中心座標P1と、顔候補領域Z2との位置関係を補正してもよいし、顔候補領域Z2を縮小してもよい。このため、位置検出の繰り返しに伴い、相対位置データ31を最適化することができる。
【0047】
第1実施形態によれば、以下のような効果を得ることができる。
(1)第1実施形態では、ドライバー2を撮影した画像データD1をカメラ11から取得し、この画像データD1に対してエッジ強調処理を行った。また、ドライバー2に装着されたシートベルト5と当該ドライバー2の身体の一部とによって特徴付けられる装着部テンプレートTのエッジパターンと類似度が高いマッチング領域Z1を検出した。また、マッチング領域Z1の中心座標及びドライバー2の顔位置があると想定される顔候補領域Z2を関連付けた相対位置データ31に基づき、顔候補領域Z2を特定し、顔候補領域Z2に対して顔位置を検出するための画像処理を行った。従って、個人差がなく、他の物体によって遮蔽され難く、周囲の物体との輝度差が発生しやすいシートベルト5を検出対象とするため、シートベルト装着位置の検出率及び検出精度を向上することができる。また、このように特定されたマッチング領域Z1から顔候補領域Z2を特定するため、顔候補領域Z2の検出率及び検出精度を向上することができる。さらに、顔候補領域Z2を絞り込んだ画像処理では、画像全域に対して画像処理を行う場合に比べ、顔位置検出の対象となる画素数が大幅に減るため、詳細な画像処理を行うことで、顔位置の検出率及び検出精度を向上することができる。
【0048】
(2)第1実施形態では、エッジ強調データD2に対し、シートベルト5と肩が交差する部分であって、殆どのエッジ強調データD2で検出可能な最小限の標準エッジパターンを装着部テンプレートTとして格納した。また、その装着部テンプレートTを用いて、エッジ強調データD2における装着部テンプレートTとの類似度を判断するテンプレートマッチング処理を行った。こうすることで、容易にシートベルト装着位置を検出するとともに、検出率を向上することが出来る。
【0049】
(3)第1実施形態では、取得した画像データD1に対し、エッジ強調処理を行ってエッジ強調データD2を生成し、エッジ強調データD2のエッジパターンに基づき、シートベルト5と肩が交差する部分の検出を行った。即ち、シートベルト5は、乗員の着衣、背
景等に対して輝度差が生じやすいので、エッジ強調データ内での検出率を向上することができる。また、シートベルト5の形状が長尺状であることから、シートベルト5を、平行に長く延びる2本のエッジとして検出しやすい。このため、特徴点検出等の他の画像処理と比べ、エッジ強調処理は、シートベルト装着位置を検出するのに適しているため、より確実にシートベルト装着位置を検出することができる。
【0050】
(4)第1実施形態では、生成した顔検出データ25に基づき、相対位置データ31をフィードバック補正した。このため、顔位置検出の繰り返しに伴い、相対位置データ31が最適化されていくため、最適化された相対位置データ31により、さらに高精度に顔位置又は顔の向きを検出することができる。
【0051】
尚、上記実施形態は以下のように変更してもよい。
・カメラ11は、インストルメントパネル15に固定したが、車体の他の位置に取り付けるようにしてもよい。
【0052】
・上記実施形態では、画像データD1に対し、エッジ強調処理を行ってから、装着部テンプレートTを用いたが、エッジ強調処理を省略してもよい。この場合、コーナー検出(特徴点検出)、2値化処理等を替わりに行ってもよい。その際、それらの画像処理によって得られる、シートベルト5と乗員の身体の一部とによって特徴付けられる特徴パターンを装着部テンプレートTとする。
【0053】
・上記実施形態では、ドライバー2の顔位置を検出したが、助手席に着座した乗員、又は後部座席に着座した乗員の顔位置を検出するようにしてもよい。
・上記実施形態では、画像データD1に対し、エッジ強調処理を行ったが、SUSANオペレータ等のコーナー検出を行ってもよい。この場合、装着部テンプレートTは、エッジパターンの特徴を示すテンプレートではなく、コーナー特徴点の分散のパターンを示すテンプレートとなる。
【0054】
・上記実施形態では、画像データD1を用いて、シートベルト装着位置を検出したが、さらに画像データD1(画像フレーム)中におけるシートベルトの幅を検出してもよい。画像データD1中におけるシートベルトの幅は、カメラ11に対するドライバーの位置や姿勢に応じて変化するので、シートベルト装着位置に加え、シートベルトの幅を考慮することにより、顔候補領域Z2をさらに精度よく特定することができる。この場合、位置検出ECU10は、ベルト幅検出手段として機能する。例えば、相対位置データ31では、上記中心座標P1及び画像データD1中におけるシートベルトの幅といった2つのパラメータと、顔候補領域Z2との相対位置関係が関連付けられ、算出した中心座標P1及びシートベルトの幅と、相対位置データ31とを用いて、顔候補領域Z2を特定することができる。或いは、テンプレートマッチング処理で用いる装着部テンプレートTを、ドライバーの姿勢に合わせて複数格納し、検出したシートベルトの幅に基づき、各装着部テンプレートTのうち一つを選択するようにしてもよい。例えば、ドライバーが左側又は右側を向くと、シートベルト5の前面がカメラ11に対して傾斜して、画像データD1中のシートベルトの幅は狭くなる。このため、検出したシートベルトの幅が小さい値の場合には、ドライバーが左側又は右側を向いた場合を想定した装着部テンプレートTを選択する。
【0055】
・上記実施形態では、シートベルト位置検出手段、顔情報生成手段を位置検出ECU10として具体化したが、それぞれ別のECUから構成してもよい。例えば、シートベルト位置検出手段をカメラ11のECUから構成し、顔情報生成手段をナビゲーション装置のECUから構成してもよい。
【図面の簡単な説明】
【0056】
【図1】乗員位置検出システムの概略図。
【図2】カメラの撮影範囲を示す模式図。
【図3】カメラの撮影範囲を示す模式図。
【図4】位置検出ECUの機能ブロック図
【図5】装着部テンプレートの模式図。
【図6】顔候補領域を特定する際の模式図。
【図7】第1実施形態の処理手順を示すフローチャート。
【図8】同処理手順を示すフローチャート。
【図9】候補領域特定処理のフローチャート。
【図10】(a)は画像データ、(b)はエッジ強調データ、(c)は顔候補領域を特定した写真図。
【図11】異なる人物を撮影した画像を示し、(a)は画像データ、(b)はエッジ強調データ、(c)は顔候補領域を特定した写真図。
【図12】学習処理のフローチャート。
【符号の説明】
【0057】
1…乗員位置検出システム、2…乗員としてのドライバー、5…シートベルト、10…画像データ取得手段、シートベルト位置検出手段、顔情報生成手段、学習手段、ベルト幅検出手段、乗員位置検出装置及び制御手段としての位置検出ECU、11…撮影手段としてのカメラ、25…顔情報としての顔検出データ、31…位置関係情報としての相対位置データ、D1…画像データ、D2…エッジ強調データ、T…装着部テンプレート、Z2…顔候補領域。
【特許請求の範囲】
【請求項1】
乗員を撮影した画像データを撮影手段から取得する画像データ取得手段と、
前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、
前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行う顔情報生成手段とを備えたことを特徴とする乗員位置検出装置。
【請求項2】
請求項1に記載の乗員位置検出装置において、
前記シートベルト位置検出手段は、
前記シートベルト装着位置の標準パターンをテンプレートとして記憶するとともに、前記画像データ中における当該テンプレートとの類似度を判断するテンプレートマッチング処理を行うことを特徴とする乗員位置検出装置。
【請求項3】
請求項1又は2に記載の乗員位置検出装置において、
前記シートベルト位置検出手段は、
取得した前記画像データに対し、エッジ強調処理を行ってエッジ強調データを生成し、当該エッジ強調データのエッジパターンに基づき、前記シートベルト装着位置の検出を行うことを特徴とする乗員位置検出装置。
【請求項4】
請求項1〜3のいずれか1項に記載の乗員位置検出装置において、
前記顔情報生成手段により生成された前記顔情報に基づき、前記位置関係情報を補正する学習手段をさらに備えたことを特徴とする乗員位置検出装置。
【請求項5】
請求項1〜4のいずれか1項に記載の乗員位置検出装置において、
前記位置関係情報には、前記顔候補領域と関連付けられたシートベルトの幅が含まれており、
前記画像データを用いて前記シートベルトの幅を検出するベルト幅検出手段をさらに備え、
前記顔情報生成手段は、
前記検出したシートベルトの幅と、前記シートベルト装着位置と、前記位置関係情報とに基づいて、前記画像データ中における前記顔候補領域を特定することを特徴とする乗員位置検出装置。
【請求項6】
乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出方法において、
前記制御手段が、
前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出し、
前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行うことを特徴とする乗員位置検出方法。
【請求項7】
乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出プログラムにおいて、
前記制御手段を、
前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、
前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行う顔情報生成手段として機能させることを特徴とする乗員位置検出プログラム。
【請求項1】
乗員を撮影した画像データを撮影手段から取得する画像データ取得手段と、
前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、
前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行う顔情報生成手段とを備えたことを特徴とする乗員位置検出装置。
【請求項2】
請求項1に記載の乗員位置検出装置において、
前記シートベルト位置検出手段は、
前記シートベルト装着位置の標準パターンをテンプレートとして記憶するとともに、前記画像データ中における当該テンプレートとの類似度を判断するテンプレートマッチング処理を行うことを特徴とする乗員位置検出装置。
【請求項3】
請求項1又は2に記載の乗員位置検出装置において、
前記シートベルト位置検出手段は、
取得した前記画像データに対し、エッジ強調処理を行ってエッジ強調データを生成し、当該エッジ強調データのエッジパターンに基づき、前記シートベルト装着位置の検出を行うことを特徴とする乗員位置検出装置。
【請求項4】
請求項1〜3のいずれか1項に記載の乗員位置検出装置において、
前記顔情報生成手段により生成された前記顔情報に基づき、前記位置関係情報を補正する学習手段をさらに備えたことを特徴とする乗員位置検出装置。
【請求項5】
請求項1〜4のいずれか1項に記載の乗員位置検出装置において、
前記位置関係情報には、前記顔候補領域と関連付けられたシートベルトの幅が含まれており、
前記画像データを用いて前記シートベルトの幅を検出するベルト幅検出手段をさらに備え、
前記顔情報生成手段は、
前記検出したシートベルトの幅と、前記シートベルト装着位置と、前記位置関係情報とに基づいて、前記画像データ中における前記顔候補領域を特定することを特徴とする乗員位置検出装置。
【請求項6】
乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出方法において、
前記制御手段が、
前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出し、
前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行うことを特徴とする乗員位置検出方法。
【請求項7】
乗員を撮影した画像データを撮影手段から取得する制御手段を用いた乗員位置検出プログラムにおいて、
前記制御手段を、
前記画像データを用いて、前記乗員に装着されたシートベルトと当該乗員の身体の一部とによって特徴付けられるシートベルト装着位置を検出するシートベルト位置検出手段と、
前記シートベルト装着位置と、前記乗員の顔位置があると想定される顔候補領域とを関連付けた位置関係情報に基づき、前記画像データ中における前記顔候補領域を特定し、特定した前記顔候補領域に対して、前記乗員の顔情報を生成するための画像処理を行う顔情報生成手段として機能させることを特徴とする乗員位置検出プログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図12】
【図10】
【図11】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図12】
【図10】
【図11】
【公開番号】特開2010−113506(P2010−113506A)
【公開日】平成22年5月20日(2010.5.20)
【国際特許分類】
【出願番号】特願2008−285402(P2008−285402)
【出願日】平成20年11月6日(2008.11.6)
【出願人】(000100768)アイシン・エィ・ダブリュ株式会社 (3,717)
【Fターム(参考)】
【公開日】平成22年5月20日(2010.5.20)
【国際特許分類】
【出願日】平成20年11月6日(2008.11.6)
【出願人】(000100768)アイシン・エィ・ダブリュ株式会社 (3,717)
【Fターム(参考)】
[ Back to top ]