説明

車両周辺監視装置

【課題】そこで、本発明は、眼鏡を掛けた歩行者や帽子を被った歩行者について、歩行者であることの判定ができなくなることを抑制した車両周辺監視装置を提供する。
【解決手段】赤外線カメラの撮像画像のグレースケール画像を2値化処理して生成された2値画像から、処理対象画像部分を抽出する2値画像候補抽出手段20と、処理対象画像部分が歩行者の頭部の特徴を有するか否かを判断して、処理対象画像部分に対応する実空上の物体が歩行者であるか否かを識別する歩行者識別手段21とを備え、歩行者識別手段20は、所定範囲内の間隔をもって垂直方向に対向した二つの処理対象画像部分75,76が抽出されたときには、該間隔部分を埋めて該二つの画像部分を一体化した画像部分について歩行者の頭部の特徴を有するか否かを判断して、該二つの画像部分に対応する実空間上の物体が歩行者であるか否かを識別する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両に取り付けられたカメラによる撮像画像から、車両周辺の監視対象物を認識する車両周辺監視装置に関する。
【背景技術】
【0002】
従来より、カメラにより撮像された自車両周辺の画像から、自車両に接触する可能性がある歩行者等の監視対象物を検知して、運転者に報知するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。
【0003】
特許文献1に記載された車両周辺監視装置においては、赤外線カメラにより撮像されたグレースケール画像を2値化処理した2値画像から、歩行者の頭部の形状と類似した画像部分を抽出し、この画像部分について歩行者判定の処理を行うようにしている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第4283266号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
赤外線カメラにより歩行者を撮像した場合、歩行者の頭部は周囲に比べて温度が高いためグレースケール画像においては高輝度の領域となる。そのため、通常であれば、このグレースケール画像を2値化処理した2値画像から、比較的容易に頭部の特徴を有する画像部分を抽出することができる。
【0006】
しかし、歩行者が眼鏡を掛けているときには、眼鏡の温度は歩行者の頭部よりも低い、反射率・放射率が歩行者と異なる、歩行者頭部からの赤外線を遮断してしまう等の影響により、2値画像において眼鏡の部分が黒(低輝度域)となり、白(高輝度域)となる頭部の画像部分が眼鏡の部分により上下2つに分断される場合がある。また、頭部の画像部分の一部が眼鏡の部分により大きく欠損する場合がある。そして、これらの場合には、歩行者の頭部の画像部分が頭部の特徴を有しないものとなって、歩行者の判定ができなくなる。
【0007】
また、歩行者が帽子(サンバイザー等)を被っているときにも、同様にして、歩行者の頭部の画像部分の分断や欠損が生じ得る。
【0008】
そこで、本発明は、眼鏡を掛けた歩行者や帽子を被った歩行者について、歩行者であることの判定ができなくなることを抑制した車両周辺監視装置を提供することを目的とする。
【課題を解決するための手段】
【0009】
本発明は上記目的を達成するためになされたものであり、車載の赤外線カメラによる撮像画像に基づいて、自車両周辺の監視対象物を認識する車両周辺監視装置であって、前記撮像画像のグレースケール画像を2値化処理して生成された2値画像から、処理対象画像部分を抽出する2値画像候補抽出手段と、前記処理対象画像部分が歩行者の頭部の特徴を有するか否かを判断して、前記処理対象画像部分に対応する実空上の物体が歩行者であるか否かを識別する歩行者識別手段とを備えた車両周辺監視装置に関する。
【0010】
そして、本発明の第1の態様は、前記歩行者識別手段は、前記処理対象画像部分として、所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が抽出されたときには、該間隔部分を埋めて該二つの画像部分を一体化し、該一体化した画像部分が歩行者の頭部の特徴を有するか否かを判断して、該二つの画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする。
【0011】
かかる本発明によれば、歩行者が眼鏡を掛けているため或いは歩行者が帽子を被っているために、その頭部の2値画像が眼鏡或いは帽子のつば部等の画像部分で上下に分断され、前記2値画像候補抽出手段により、前記所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が、前記処理対象画像部分として抽出されたときに、前記歩行者識別手段は、該間隔部分を埋めて該二つの画像部分を一体化する。そして、前記歩行者識別手段は、この一体化された画像部分について、歩行者の特徴部分の有無を判断する。
【0012】
そのため、歩行者の頭部の画像部分が眼鏡或いは帽子のつば部等の画像部分により上下に分断され、分断された各画像部分が頭部の特徴(高さ、幅、縦横比等)を有しなくなっている場合であっても、前記一体化された画像部分について歩行者の頭部の特徴の有無を判断することで、歩行者が識別できなくなることを抑制することができる。
【0013】
次に、本発明の第2の態様は、前記歩行者識別手段は、前記処理対象画像部分として、略中央部に水平方向に長い欠損部を有する画像部分が抽出されたときには、該欠損部を埋めた画像部分が歩行者の頭部の特徴を有するか否かを判断して、該欠損部を有する画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする。
【0014】
かかる本発明によれば、歩行者が眼鏡を掛けているため或いは歩行者が帽子を被っているために、その頭部の2値画像の略中央部に、眼鏡の画像部分或いは帽子のつばの画像部分による水平方向に長い欠損部がある処理対象画像部分が抽出されたときに、前記歩行者識別手段は該欠損部を埋める。そして、前記歩行者識別手段は、このようにして欠損部が埋められた画像部分について、歩行者の特徴の有無を判断する。
【0015】
そのため、歩行者の頭部の画像部分に眼鏡或いは帽子のつば部等による欠損部があるために、該画像部分が頭部の特徴(面積、充足率等)を有しなくなっている場合であっても、該欠損部を埋めた画像部分について歩行者の頭部の特徴の有無を判断することで、歩行者が識別できなくなることを抑制することができる。
【図面の簡単な説明】
【0016】
【図1】本発明の車両周辺監視装置の構成図。
【図2】図1に示した車両周辺監視装置の車両への取り付け態様の説明図。
【図3】図1に示した画像処理ユニットによる処理手順を示したフローチャート。
【図4】歩行者識別処理のフローチャート。
【図5】二つの処理対象画像部分を一体化する処理の説明図。
【図6】処理対象画像部分の欠損部を埋める処理の説明図。
【発明を実施するための形態】
【0017】
本発明の実施形態について、図1〜図6を参照して説明する。図1を参照して、本発明の車両周辺監視装置は、遠赤外線を検出可能な赤外線カメラ2R,2Lと、車両のヨーレートを検出するヨーレートセンサ3と、車両の走行速度を検出する車速センサ4と、運転者によるブレーキの操作量を検出するブレーキセンサ5と、赤外線カメラ2により得られる画像から車両前方の監視対象物(歩行者等)を検出し、この監視対象物と車両が接触する可能性が高い場合に警報を出力する画像処理ユニット1と、音声により警報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより得られた画像を表示すると共に、接触の可能性が高い監視対象物を運転者に視認させる表示を行うための表示装置7とを備えている。
【0018】
図2を参照して、赤外線カメラ2R,2Lは、車両10の前部に、車両10の車幅方向の中央部に対してほぼ対称な位置に配置されている。また、2台の赤外線カメラ2R,2Lは、光軸を互いに平行とし、且つ、路面からの高さを等しくして固定されている。なお、赤外線カメラ2R,2Lは、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。また、表示装置7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。
【0019】
また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2R,2Lから出力されるアナログ映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、該画像メモリに取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。
【0020】
そして、該マイクロコンピュータに車両周辺監視用のプログラムを実行させることによって、画像処理ユニット1は、処理対象画像抽出手段20及び歩行者識別手段21として機能する。
【0021】
次に、図3に示したフローチャートに従って、画像処理ユニット1による監視対象物の検出及び注意喚起処理について説明する。
【0022】
画像処理ユニット1は、先ずSTEP1で赤外線カメラ2R,2Lから出力される赤外線画像のアナログ信号を入力し、続くSTEP2で該アナログ信号をA/D変換によりデジタル化したグレースケール画像を画像メモリに格納する。なお、STEP1〜STEP2では、赤外線カメラ2Rによるグレースケール画像(以下、右画像という)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という)とが取得される。そして、右画像と左画像では、同一の対象物の画像部分の水平位置にずれ(視差)が生じるため、この視差に基づいて実空間における車両10から該対象物までの距離を算出することができる。
【0023】
続くSTEP3で、画像処理ユニット1は、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。
【0024】
次のSTEP4〜STEP6は処理対象画像抽出手段20による処理である。処理対象画像抽出手段20は、STEP4で、2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。また、処理対象画像抽出手段20は、STEP5で、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、STEP6で、ラベリングした画像部分を処理対象画像部分として抽出する。
【0025】
次のSTEP7で、画像処理ユニット1は、各処理対象画像部分の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、例えば前掲した特許第4283266号公報に詳説されているので、ここでは説明を省略する。そして、画像処理ユニット1は、続くSTEP8〜STEP9と、STEP20〜STEP22を並行して実行する。
【0026】
STEP8で、画像処理ユニット1は、所定のサンプリング周期毎に赤外線カメラ2R,2Lにより撮像された画像に基づく2値画像から抽出された対象物の画像について同一性判定を行い、同一の対象物の画像であると判定された画像の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。また、STEP9で、画像処理ユニット1は、車速センサ4により検出される車速VCAR及びヨーレートセンサ3により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θrを算出する。
【0027】
一方、STEP20において、画像処理ユニット1は、基準画像(右画像)の2値画像によって追跡される対象物の画像候補の中の一つを選択して、右画像のグレースケール画像から探索画像R1(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。続くSTEP21で、画像処理ユニット1は、左画像のグレースケール画像から探索画像R1に対応する画像(以下、対応画像R1’という)を探索する探索領域を設定し、探索画像R1との相間演算を実行して対応画像R1’を抽出する。そして、STEP22で、画像処理ユニット1は、探索画像R1の重心位置と対応画像R1’の重心位置との差を視差量Δd(画素数)として算出し、STEP10に進む。
【0028】
STEP10で、画像処理ユニット1は、視差量Δdに基づいて車両10と対象物との距離zを算出し、探索画像の座標(x,y)と距離zを、実空間座標(X,Y,Z)に変換して、探索画像に対応する実空間位置の座標を算出する。なお、実空間座標(X,Y,Z)は、図2に示したように、赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方方向に設定されている。また、画像座標は、画像の中心を原点とし、水平方向がx、垂直方向がyに設定されている。
【0029】
続くSTEP11で、画像処理ユニット1は、車両10が回頭することによる画像上の位置ずれを補正する回頭角補正を行う。続くSTEP12は、移動ベクトル算出手段21による処理であり、移動ベクトル算出手段21は、所定のモニタ期間内に撮像された複数の画像から得られた回頭角補正後の同一の対象物の実空間位置の時系列データから、対象物と車両10との相対的な移動ベクトルを算出する。
【0030】
なお、実空間座標(X,Y,Z)及び移動ベクトルの具体的な算出方法については、前掲した特許第4283266号公報に詳説されているので、ここでは説明を省略する。
【0031】
次に、STEP13で、画像処理ユニット1は、車両10と検出した対象物との接触の可能性を判断して、注意喚起を行う必要があるか否かを判定する「注意喚起判定処理」を実行する。そして、「注意喚起判定処理」により、注意喚起を行う必要があると判定されたときは、STEP30に分岐してブザー6による注意喚起音の出力と、表示装置7への注意喚起表示を行う。一方、「注意喚起判定処理」により注意喚起を行う必要がないと判定されたときには、STEP1に戻り、画像処理ユニット1は注意喚起を行わない。
【0032】
次に、「注意喚起判定処理」において実行される歩行者識別手段21による処理について、図4に示したフローチャートに従って説明する。歩行者識別手段21は、処理対象画像抽出手段20により抽出された各処理対象画像部分について、歩行者の頭部の特徴を有するか否かを判定する。
【0033】
歩行者識別手段21は、図4のSTEP50で、処理対象画像部分の大きさが、処理対象画像部分に対応する実空間位置と車両10との距離に基づいて設定した、歩行者の頭部相当の大きさであるか否かを判断する。そして、処理対象画像部分の大きさが歩行者の頭部相当の大きさであったときにはSTEP51に進み、頭部相当の大きさでなかったときにはSTEP60に分岐する。
【0034】
ここで、図5の(a)に示したように、眼鏡を掛けた歩行者の頭部部分のグレースケール画像70を2値化すると、温度の低い眼鏡の部分で頭部の画像部分が、(b)に示したように上下2つの部分71,71に分断され、(c)に示したように、2つの処理対象画像部分75,76として抽出される場合がある。そして、この場合には、処理対象画像部分75,76は、歩行者の頭部の特徴(大きさ、重心、縦横比等)を有しないため、歩行者の頭部の画像部分として抽出されないことになる。
【0035】
そこで、歩行者識別手段21は、STEP60で、処理対象画像部分71の下方に、所定範囲内の間隔をもって対向した他の処理対象画像部分を探索する。そして、他の処理対象画像部分が探知されなかったときは、次のSTEP61からSTEP70に進み、歩行者識別手段21は、処理対象画像部分71が歩行者の頭部の画像部分ではないと判定してSTEP55に進み、処理を終了する(他の処理対象画像部分があれば、その処理対象画像部分について再度図4のフローチャートによる処理を実行する)。
【0036】
一方、STEP60で、図5の(c)に示したように、他の処理対象画像部分72が探知されたときにはSTEP61からSTEP62に進み、歩行者識別手段21は、上部の処理対象画像部分75と、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を合わせた部分の大きさが、歩行者の頭部の上部の大きさに相当するものであるか否かを判断する。
【0037】
そして、上部の処理対象画像部分75と、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を合わせた部分の大きさが、歩行者の頭部の上部の大きさに相当するものであるときはSTEP63に進み、歩行者識別手段21は、図6の(a)に示したように、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を埋めて(間隔部分の画素を「1(白)」とする)、一体化する。
【0038】
そして、STEP54に進み、歩行者識別手段21は、一体化した処理対象画像部分80について、歩行者の頭部の特徴を有するか否かを判定して、この画像部分に対応する実空間上の物体が歩行者であるか否かを判断する。これにより、眼鏡の画像部分により歩行者の頭部の画像部分が上下に分断された場合であっても、歩行者の頭部の画像部分を抽出することができる。
【0039】
一方、上部の処理対象画像部分75と下部の処理対象画像部分76との間隔部分を合わせた部分の大きさが、歩行者の頭部の上部の大きさに相当するものでなかったときにはSTEP70に分岐し、歩行者識別手段21は、上部の処理対象画像部分75が歩行者の画像部分ではないと判定してSTEP7に進み、処理を終了する。
【0040】
次に、STEP51で、歩行者識別手段21は、処理対象画像部分に、図5の(b)に示したように、処理対象画像部分80に、水平方向に長い欠損部(白領域で三方又は四方を囲まれた黒領域)があるか否かを判断する。そして、欠損部があるときはSTEP52に進み、欠損部がないときにはSTEP54に分岐する。
【0041】
STEP52で、歩行者識別手段21は、処理対象画像部分80における欠損部の大きさ及び位置が、眼鏡相当の大きさ及び位置であるか否かを判断する。そして、処理対象画像部分80における欠損部の大きさ及び位置が、眼鏡相当の大きさ及び位置であるときはSTEP53に進み、歩行者識別手段21は欠損部を埋める(欠損部の画素を「1(白)」とする)。例えば、図6の(b)の場合には、欠損部91が埋められて、図6の(a)の状態となる。
【0042】
そして、STEP54に進み、歩行者識別手段21は、欠損部が生められた画像部分について、歩行者の頭部の特徴を有するか否かを判定して、この画像部分に対応する実空間上の物体が歩行者であるか否かを判断する。これにより、眼鏡の画像部分により歩行者の頭部の画像に欠損部分が生じ、面積や充足率を基準とした判定では、処理対象画像部分が歩行者の頭部の画像であることが認識できなくなっている場合であっても、歩行者の頭部の画像部分を抽出することができる。
【0043】
なお、本実施の形態においては、眼鏡を掛けた歩行者の画像について説明したが、帽子を被った歩行者の画像についても、同様の処理を行うことで、帽子の画像部分により分断あるいは欠損が生じた歩行者の画像部分に対して、頭部の特徴を判断して歩行者であるか否かを識別することができる。
【0044】
また、本実施の形態においては、処理対象画像部分の中央部よりも上の箇所に欠損を有する場合を例として説明したが、人の顔形状や撮像時の角度、又は髪の毛により頭頂部が見え難い等の要因により、欠損の位置は必ずしも中央部よりも上の箇所とは限らず、中央部の下部に欠損が生じる場合もある。
【符号の説明】
【0045】
1…画像処理ユニット、2R,2L…赤外線カメラ、20…処理対象画像部分抽出手段、21…歩行者識別手段、70…処理対象画像部分、71,72…眼鏡の画像部分により上限に分断された頭部の画像部分、75,76…所定間隔をもって垂直方向に対向した対象画像部分、80…間隔部分が埋められて一体化された処理対象画像部分、90…欠損部91を有する処理対象画像部分。

【特許請求の範囲】
【請求項1】
車載の赤外線カメラによる撮像画像に基づいて、自車両周辺の監視対象物を認識する車両周辺監視装置であって、
前記撮像画像のグレースケール画像を2値化処理して生成された2値画像から、処理対象画像部分を抽出する2値画像候補抽出手段と、
前記処理対象画像部分が歩行者の頭部の特徴を有するか否かを判断して、前記処理対象画像部分に対応する実空上の物体が歩行者であるか否かを識別する歩行者識別手段とを備えた車両周辺監視装置において、
前記歩行者識別手段は、前記処理対象画像部分として、所定範囲内の間隔をもって垂直方向に対向した二つの画像部分が抽出されたときには、該間隔部分を埋めて該二つの画像部分を一体化し、該一体化した画像部分が歩行者の頭部の特徴を有するか否かを判断して、該二つの画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする車両周辺監視装置。
【請求項2】
車載の赤外線カメラによる撮像画像に基づいて、自車両周辺の監視対象物を認識する車両周辺監視装置であって、
前記撮像画像のグレースケール画像を2値化処理して生成された2値画像から、処理対象画像部分を抽出する2値画像候補抽出手段と、
前記処理対象画像部分が歩行者の頭部の特徴を有するか否かを判断して、前記処理対象画像部分に対応する実空上の物体が歩行者であるか否かを識別する歩行者識別手段とを備えた車両周辺監視装置において、
前記歩行者識別手段は、前記処理対象画像部分として、略中央部に水平方向に長い欠損部を有する画像部分が抽出されたときには、該欠損部を埋めた画像部分が歩行者の頭部の特徴を有するか否かを判断して、該欠損部を有する画像部分に対応する実空間上の物体が歩行者であるか否かを識別することを特徴とする車両周辺監視装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate


【公開番号】特開2011−138265(P2011−138265A)
【公開日】平成23年7月14日(2011.7.14)
【国際特許分類】
【出願番号】特願2009−297064(P2009−297064)
【出願日】平成21年12月28日(2009.12.28)
【出願人】(000005326)本田技研工業株式会社 (23,863)
【Fターム(参考)】