説明

車両用運転支援システム

【課題】 ドライバーが、頭部や視線の向きにかかわらず、運転支援情報を視覚的に得ることができる運転支援システムを提供すること。
【解決手段】 運転支援システムは、ナビゲーション情報を提供するナビゲーションユニット40と、車両の外部を撮影する撮影カメラ31と、車両のドライバーの頭部に装着され運転支援情報を表示部に表示する頭部装着型表示装置20と、ナビゲーションユニット40から提供されるナビゲーション情報及び撮影された画像の少なくともいずれか一方に基づいて作成される画像を頭部装着型表示装置20に供給する画像処理部10とを備える。ここで、頭部装着型表示装置20の表示部22は、ドライバーの左右いずれか一方の眼前に設けられる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両用運転支援システムに関する。
【背景技術】
【0002】
ナビゲーション装置などにより提供される運転支援情報は運転時の利便性向上に大きく役立っている。その一方で、そのような運転支援情報を車両のどの部分にどのようにして表示するとよいかが、車両走行における安全性の観点から問題となっている。
【0003】
例えば、フロントウィンドウに運転支援情報を投影表示する技術が提案されている。しかし、ドライバーは運転中、絶えず顔の向きや視線を動かしているのであり、フロントウィンドウの情報表示部に視線を固定しているわけにはいかない。
【0004】
これに対し、特許文献1,2は、頭部装着型表示装置(ヘッドマウントディスプレイ、以下「HMD」という。)に運転支援情報を表示することにより、ドライバーの頭の向きにかかわらずドライバーに運転支援情報を提供できるようにした技術が開示されている。とりわけ、特許文献1は、ドライバーの両目を覆う複眼タイプのHMDを開示し(特許文献1の図2を参照)、特許文献2は、ドライバーの片目側にのみ表示装置を有する一眼タイプのHMDを開示している(特許文献2の図3を参照)。
【0005】
【特許文献1】特開平7−294842号公報
【特許文献2】特開2006−040123号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
しかし、実際の運転環境を考慮した場合、特許文献1に開示された複眼タイプのHMDには、両画像の視差によりちらつきが発生しやすく、視認性に劣るという問題がある。
【0007】
一方の一眼タイプのHMDは、複眼タイプのHMDに比べて軽量かつ装着性に優れる点で有利であろう。しかし、特許文献2の図3に開示されているHMDはドライバーの一方の眼の下部に表示部が位置する構成となっており、ドライバーが運転支援情報を見るためには、その表示部に視線を落とさなくてはならない。すなわち、特許文献2の技術によれば、HMDの採用によってドライバーは頭の向きにかかわらず運転支援情報を得ることはできるけれども、視線は表示部に移さないと運転支援情報を視認することはできないという問題を解決するには至っていない。
【0008】
本発明は、ドライバーが、頭部や視線の向きにかかわらず、運転支援情報を視覚的に得ることができる運転支援システムを提供することを目的とする。
【課題を解決するための手段】
【0009】
本発明の一側面によれば、ナビゲーション情報を提供するナビゲーション装置と、車両の外部を撮影する撮影カメラと、車両のドライバーの頭部に装着され運転支援情報を表示部に表示する頭部装着型表示装置と、前記ナビゲーション装置から提供されるナビゲーション情報及び前記撮影カメラにより撮影された画像の少なくともいずれか一方に基づいて作成される画像を前記頭部装着型表示装置に供給する画像処理手段とを備え、前記頭部装着型表示装置の前記表示部は、ドライバーの左右いずれか一方の眼前に設けられることを特徴とする運転支援システムが提供される。
【0010】
この構成によれば、ドライバーは、頭部や視線の向きを運転方向から移さずに運転支援情報を視認することができる。
【0011】
本発明の好適な実施形態によれば、前記頭部装着型表示装置の前記表示部は、ドライバーが該表示部の後方の眼によって該表示部越しの実像を視認可能に構成されている。
【0012】
また、本発明の好適な実施形態によれば、前記頭部装着型表示装置の位置姿勢を検出する検出手段と、ドライバーの視線方向を推定する推定手段とを更に備え、前記画像処理手段は、前記撮影カメラにより撮影された画像を、ドライバーの視点から視認される実像と同じ方向、大きさとなるように、前記検出手段により検出された前記頭部装着表示装置の位置姿勢及び前記推定手段により推定されたドライバーの視線方向に基づき変換する変換手段を有し、前記頭部装着表示装置は、前記変換手段により変換された画像を前記表示部に表示することが好ましい。
【0013】
この構成によれば、違和感のない画像を提供することができる。
【0014】
また、本発明の好適な実施形態によれば、ドライバーの顔画像を撮影する顔画像撮影カメラを更に備え、前記推定手段は、前記検出手段により検出された前記頭部装着表示装置の位置姿勢に基づいてドライバーの顔の向きを推定する第1推定手段と、前記顔画像撮影カメラにより撮影されたドライバーの顔画像に基づいて前記第1推定手段が推定した顔の向きに対する視線方向を推定する第2推定手段とを有することが好ましい。
【0015】
この構成によれば、簡易にドライバーの視線方向を推定することができる。
【0016】
また、本発明の好適な実施形態によれば、前記画像処理手段は、前記撮影カメラにより撮影された画像から高危険度対象物を抽出する抽出手段と、前記抽出手段が抽出した前記高危険度対象物に識別マークを重畳した画像を、前記頭部装着表示装置に供給する手段とを有することが好ましい。
【0017】
また、本発明の好適な実施形態によれば、前記抽出手段は、熟練ドライバーの注視行動に基づくモデル、例えばニューラルネットワークや教科学習、を利用して、前記撮影カメラにより撮影された画像から高危険度対象物を抽出することが好ましい。
【0018】
また、本発明の好適な実施形態によれば、前記撮影カメラは、赤外線カメラであるとよい。また、前記撮影カメラは、ドライバーの視線に対する死角の画像を撮影することが好ましい。
【0019】
また、本発明の好適な実施形態によれば、前記画像処理手段は、前記撮影カメラにより撮影された画像に高輝度物体が含まれる場合に、該画像の輝度分布の平滑化を行う分光補正手段を更に有するとよい。
【0020】
また、前記画像処理手段は、前記撮影カメラにより撮影された画像に高速移動物体が含まれる場合に、該移動物体の予測位置を算出し、該予測位置に該移動物体を描画する追従遅れ補正手段を更に有するとよい。
【0021】
また、前記画像処理手段は、前記撮影カメラにより撮影された画像における、該撮影カメラのレンズ特性に依存して生じる歪みを補正するレンズ歪み補正手段を更に有するとよい。
【発明の効果】
【0022】
本発明によれば、ドライバーは頭部や視線の向きにかかわらず、運転支援情報を視覚的に得ることができる。
【発明を実施するための最良の形態】
【0023】
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決手段として必須のものであるとは限らない。
【0024】
図1は、本実施形態に係る運転支援システムの基本構成を示す図である。
【0025】
図1において、10は画像処理部で、典型的には、図示しないCPU,RAM,ROM等を備えるコンピュータシステムで構成され、図示された画像処理部10内の各ブロックで示される処理が、CPUによって実行される。
【0026】
本システムは、例えばドライバーズシートのバックレスト30の上部に車両前方に向けて設けられる第1前方撮影カメラ31、例えばインストルメントパネルの上部に車両前方に向けて設けられる第2前方撮影カメラ32、例えばフロントドア下部に車両外側斜め前方に向けて設けられ車両前方の死角を撮影する前方死角撮影カメラ33、例えばリヤダッシュボードの上部に車両後方に向けて設けられる後方死角撮影カメラ34を備え、これらは画像処理部10内のカメラ画像取得部11に接続されている。これらのカメラは、その組み合わせによって車両全周囲の画像を得る全方位カメラを構成することが好ましい。また、個々のカメラはより広い範囲の画像を得るために超広角レンズを備えていることが好ましい。また、第2前方撮影カメラ32、前方死角撮影カメラ33、及び後方死角撮影カメラ34はそれぞれ、夜間撮影も行えるよう、赤外線カメラ(暗視カメラ)であることが望ましい。さらに、照度センサ35が設けられ、この照度センサ35の出力もカメラ画像取得部11に供給される。
【0027】
20はドライバーDの頭部に装着されるHMDである。このHMDは、図2に示されるような、一眼タイプのHMDで、装着したドライバーの左右いずれか一方の眼の前部に位置する表示部22を有している。この表示部22はシースルー機能を備え、ドライバーは、この表示部22の後方の眼によって表示部22越しの実像を視認可能であるとともに、そこにナビゲーション情報等の情報画像を重畳表示することができる。また、そのようなシースルー機能をオフして、上記したカメラが撮影したカメラ画像に、ナビゲーション情報(運転支援情報)等の情報画像が重畳された複合現実空間画像を表示することもできる。本実施形態では、この表示部22に表示する画像は画像処理部10によって生成される。図3に示されるように、このHMD20を装着したドライバーDは、HMD20がかからない方の眼によってSで示される領域を直接視認する一方、HMD20がかかる他方の眼によって、Sの領域の画像とマッチする複合現実空間画像を視認することができる。
【0028】
車室内の所定位置(例えば、ドライバーズシート上方のルーフトリム)には検出手段としての位置センサ36が設けられている。この位置センサ36は例えば磁気センサ等で構成され、HMD20の位置姿勢を示す信号を出力するように構成されている。なお、この位置姿勢を示す信号には、位置センサ36を基準とする位置(x,y,z)及び姿勢(roll, pitch, yaw)のパラメータが含まれる。位置センサ36が出力するHMD20の位置姿勢を示す信号は画像処理部10内の視線方向推定部14に入力される。
【0029】
画像処理部10は、カメラキャリブレーションによって、予め位置センサ36の位置に対する、第1及び第2前方撮影カメラ31,32、前方死角撮影カメラ33、後方死角撮影カメラ34の位置関係を保持しているものとする。よって、画像処理部10は位置センサ36より入力した信号に基づき、第1及び第2前方撮影カメラ31,32、前方死角撮影カメラ33、後方死角撮影カメラ34と、HMD20との位置関係を求めることが可能である。
【0030】
HMD20には、このHMD20を装着しているドライバーの顔画像を撮影する顔画像撮影カメラ21も取り付けられている。この顔画像撮影カメラ21が撮影したドライバーの顔画像データは、画像処理部10内の視線方向推定部14に供給される。もっとも、この顔画像撮影カメラ21は、HMD20に一体的に取り付けるかわりに、車両のダッシュボード等に取り付けるようにしてもよい。
【0031】
なお、画像処理部10とHMD20との接続、具体的には、視線方向推定部14と顔画像撮影カメラ21との接続、並びに、画像合成部18と表示部22との接続は、それぞれ、有線でもよいし無線でもよい。
【0032】
本システムは更に、GPS信号を受信して地図データに基づき経路情報、交通情報等(ナビゲーション情報)を提供するナビゲーションユニット40、車速センサ等の各種センサ類を含む車両状態センサ50を備えている。
【0033】
画像処理部10は、カメラ画像取得部11及び視線方向14の他に、取得した画像のレンズ歪み(収差)を補正するレンズ歪み補正部12、画像の幾何変換及び画像切り出しを行う幾何変換・切り出し部13、画像の描画位置及びサイズを算出する描画位置・サイズ算出部15、カメラ画像の加工を行うカメラ画像加工処理部16、ナビゲーションユニット40及び車両状態センサ50から入力したデータに基づきナビゲーション情報等の情報画像を作成する情報画像作成部17、及び画像合成部18を備えている。ナビゲーションユニット40及び車両状態センサ50は、画像処理部10の情報画像作成部(2D画像作成部)17に接続されている。
【0034】
図4は、本実施形態における画像処理部10によるHMD20の画像表示制御処理を示すフローチャートである。
【0035】
カメラ画像取得部11は、第1及び第2前方撮影カメラ31,32、前方死角撮影カメラ33、後方死角撮影カメラ34からそれぞれ画像データを受信するとともに、照度センサ35からの出力データを順次受信している(ステップS1)。またこれと並行して、視線方向推定部14は、位置センサ36からのHMD20の位置姿勢を示す信号及び、顔画像撮影カメラ21からの顔画像データを受信している(ステップS2)。視線方向推定部14は、位置センサ36からのHMD20の位置姿勢を示す信号からドライバーの顔の向きを推定するとともに、顔画像撮影カメラ21からの顔画像データに基づき、ドライバーの顔の肌領域と瞳領域との像域分離を行いその結果から顔の向きに対する視線方向を推定する。そして、これらの結果から、基準である位置センサ36に対する視線方向を推定する。
【0036】
上記ステップS1では、例えば、推定された視線方向が車両前方と判断され、照度センサ35からの受信データに基づき照度が所定値より明るいと判断される場合には、第1前方撮影カメラ31と前方死角撮影カメラ33の画像データを取得する。また、推定された視線方向が車両前方と判断され、照度は上記所定値以下に暗いと判断される場合には、第2前方撮影カメラ(赤外線カメラ)32の画像データを取得する。また、推定された視線方向が車両後方と判断されたときは、後方死角撮影カメラ34の画像データを取得する。
【0037】
次に、レンズ歪み補正部12は、ステップS1で取得した画像データに対して、当該画像データを取得したカメラのレンズ特性に依存して生じる歪み(収差)を補正する(ステップS3)。この補正は例えば、カメラキャリブレーションによって得られる、位置センサ36の位置に対する当該画像データを取得したカメラの位置を示すカメラ内部パラメータに基づいて行われる。
【0038】
一方、視線方向推定部14は、ステップS2で受信した位置センサ36からのHMD20の位置姿勢を示す信号に基づいて、HMD20の位置姿勢データを、予め行われた位置キャリブレーションによって得られる、センサ・HMD補正パラメータに基づいて補正する(ステップS4)。
【0039】
次に、幾何変換・切り出し部13は、ステップS3で得られたレンズ歪み補正後の画像データの、HMD20の表示領域に合わせた画像の切り出し及び幾何変換を行う(ステップS5)。具体的には例えば、図8に示すように、ステップS3で得られたレンズ歪み後の画像データから、その画像が、ドライバーの視点から視認される現実空間像Sと同じ方向、大きさになるように、HMD20の位置センサ36に対する位置姿勢及び視線方向推定部14が推定した視線方向に合わせて必要な画像領域を切り出し、アフィン変換を行う。
【0040】
次に、カメラ画像加工処理部16は、ステップS5での処理後の画像データに対して、グレア対策として、高輝度の物体を認識して、分光画像処理し、輝度分布を平滑にして違和感や不快がないように調光する、分光補正処理を行う(ステップS6)。なお、グレアには、眼球内での光の散乱の程度が増加し、これによって対象物が見えにくくなる減能グレアと、視野内に高輝度の物体があるときに不快に感じやすくなる不快グレアとがあり、両者とも一般に加齢とともに増大する。ステップS6の分光補正処理はこのようなグレアに対処するものである。
【0041】
図5は、このステップS6の分光補正処理の一例を示すフローチャートである。まず、ステップS5での処理後の画像データに対して、輝度分布分析を行う(ステップS61)。そして、得られた輝度分布に基づいて高輝度物体が存在するかどうかを判定し(ステップS62)、高輝度物体が存在する場合には輝度分布の平滑化を行う(ステップS63)。
【0042】
次に、カメラ画像加工処理部16は、追従遅れ補正処理を行う(ステップS7)。これは、加齢により移動物を目で追う際の眼球運動が遅くなることに対処するものであり、その具体的処理例を図6のフローチャートに示す。
【0043】
まず、入力した動画像データから移動物体を抽出し(ステップS71)、そこに高速移動物体が存在するかどうかを判定する(ステップS72)。ここで、高速移動物体が存在する場合には、その移動物体の移動方向、移動速度、及び位置を検出し(ステップS73)、その検出結果に基づいてその移動物体の予測位置を算出する(ステップS74)。その後、移動物体をその予測位置に描画する(ステップS75)。
【0044】
次に、カメラ画像加工処理部16は、危険対象物検出処理を実行する(ステップS8)。この処理の具体例を図7のフローチャートに示す。
【0045】
まず、入力した画像データから、歩行者、他車両等の対象物を抽出し(ステップS81)、抽出した対象物の配置パターンを抽出する(ステップS82)。次に、予めメモリに記憶してある熟練ドライバーの注視行動モデルを読み出す(ステップS83)。図9に熟練ドライバーの注視行動モデルの概念図を示す。そして、熟練ドライバーの注視行動モデルに基づくニューラルネットワークあるいは強化学習を構成し、これを利用して、ステップS82で抽出した対象物の配置パターンから、高危険度対象物を抽出する(ステップS84)。
【0046】
高危険度対象物が抽出された場合にはその画像はカメラ画像としてHMD20の表示部22に表示されることになる。このとき、その画像が高危険度対象物としてドライバーに認知されやすいように、囲み枠線などの識別マークを重畳表示させるとよいであろう。
【0047】
次に、描画位置・サイズ算出部15は、HMD20の表示部22に表示する2D画像の描画位置およびそのサイズを計算する(ステップS9)。また、情報画像作成部17は、ナビゲーションユニット40及び車両状態センサ50から入力したデータに基づいて作成したナビゲーション情報等の情報画像(2D画像)を作成する。このとき、情報画像作成部17は、ステップS7の追従遅れ補正処理において検出した高速移動物体についてその移動方向を示す矢印画像等を情報画像に含めるようにしても良い。
【0048】
次に、画像合成部18は、カメラ画像をHMD20の表示部22に表示するかどうかを判断する(ステップS10)。例えば、次の少なくともいずれかの場合には、車両走行上の危険度が相対的に高い状況であり、カメラ画像をHMD20の表示部22に表示すると判断する。
(1)ステップS6の分光補正処理において、ステップS63の輝度分布平滑化が実行された場合。
(2)ステップS7の追従遅れ補正処理において、ステップS73〜S75の処理が実行された場合。
(3)ドライバーの視線方向に死角がある場合。
(4)照度が暗い場合。
【0049】
画像合成部18は、ステップS10でカメラ画像をHMD20の表示部22に表示すると判断した場合は、ステップS9での計算結果に基づいて、上述のステップS5〜S8の処理で得られたカメラ画像と、情報画像作成部17がナビゲーションユニット40及び車両状態センサ50から入力したデータに基づいて作成したナビゲーション情報等の情報画像(2D画像)とを合成した画像を作成し(ステップS11)、その合成画像をHMD20の表示部22に表示する(ステップS12)。
【0050】
一方、画像合成部18は、ステップS10でカメラ画像をHMD20の表示部22に表示しないと判断した場合は、情報画像作成部17がナビゲーションユニット40及び車両状態センサ50から入力したデータに基づいて作成したナビゲーション情報等の情報画像(2D画像)のみを描画して(ステップS13)、これをHMD20の表示部22に表示する(ステップS12)。このときのHMD20の表示部22はシースルー機能をオンとし、この表示部22越しの実像をドライバーに提供しつつ、情報画像をHMD20の表示部22に表示する(ステップS12)。
【0051】
以上説明した画像処理部10によるHMD20の画像表示制御によって、ドライバーに視認される画像の例を図10に示す。
【0052】
図10の(a)に示される画像において、自車前方には晴天時の空が大きく広がっており、不快グレアが発生しやすい状況である。これに対して、本実施形態では、ステップS6において分光補正処理が施され、輝度分布が平滑化されるので、眩しさが軽減される。
【0053】
また、同じく(a)において、自車前方左方からバス80が横切るように移動中である。これに対しては、本実施形態では、ステップS7において追従遅れ補正が施され、移動物体であるバス80の位置が補正される。このとき、図示の如く移動方向を示す矢印マーク81を重畳表示するとよい。
【0054】
図10の(b)では、ナビゲーション情報である「100m先右折」との文字表示及び、そのことを示す矢印による右折マーク82が重畳表示されている。(c)は、ステップS8の危険対象物抽出処理において先行車両が危険対象物と判定され、ドライバーの注意を喚起するために、それに囲み枠線が重畳表示されるとともに、「前方障害物」、「車間確保」とのメッセージが表示されている。この(c)の状態が所定時間経過しても解消されない場合には、(d)に示されるように、音声による警告メッセージを発するようにしてもよい。
【0055】
ここで、(b)〜(d)に示されるような、ナビゲーション情報である右折マーク82は、ドライバーの視線方向に適合した位置や態様で表示されることが好ましい。一方、(d)に示すように、「5kM前方渋滞1KM」といったナビゲーション情報のうちの交通情報については、ドライバーの視線方向には関係なく、図示のように下方端部などの固定された位置で表示されればよいであろう。
【図面の簡単な説明】
【0056】
【図1】実施形態に係る運転支援システムの基本構成を示す図である。
【図2】実施形態におけるHMDの例を示す図である。
【図3】実施形態におけるHMDを装着したドライバーに提供される複合現実空間の視野を説明する図である。
【図4】実施形態における画像処理部によるHMDの画像表示制御処理を示すフローチャートである。
【図5】実施形態における分光補正処理の一例を示すフローチャートである。
【図6】実施形態における追従遅れ補正処理の一例を示すフローチャートである。
【図7】実施形態における危険対象物抽出処理の一例を示すフローチャートである。
【図8】実施形態における幾何変換・切り出し部による処理を説明する図である。
【図9】熟練ドライバーの注視行動モデルの概念図である。
【図10】画像処理部によるHMDの画像表示制御によって、ドライバーに視認される画像の例を示す図である。
【符号の説明】
【0057】
10 画像処理部
11 カメラ画像取得部
12 レンズ歪み補正部
13 幾何変換・切り出し部
14 視線方向推定部
15 描画位置・サイズ算出部
16 カメラ画像加工処理部
17 情報画像作成部
18 画像合成部
20 HMD
31 第1前方撮影カメラ
32 第2前方撮影カメラ
33 前方死角撮影カメラ
34 後方死角撮影カメラ
35 照度センサ
36 位置センサ
40 ナビゲーションユニット
50 車両状態センサ

【特許請求の範囲】
【請求項1】
ナビゲーション情報を提供するナビゲーション装置と、
車両の外部を撮影する撮影カメラと、
車両のドライバーの頭部に装着され運転支援情報を表示部に表示する頭部装着型表示装置と、
前記ナビゲーション装置から提供されるナビゲーション情報及び前記撮影カメラにより撮影された画像の少なくともいずれか一方に基づいて作成される画像を前記頭部装着型表示装置に供給する画像処理手段と、
を備え、
前記頭部装着型表示装置の前記表示部は、ドライバーの左右いずれか一方の眼前に設けられることを特徴とする運転支援システム。
【請求項2】
前記頭部装着型表示装置の前記表示部は、ドライバーが該表示部の後方の眼によって該表示部越しの実像を視認可能に構成されていることを特徴とする請求項1に記載の運転支援システム。
【請求項3】
前記頭部装着型表示装置の位置姿勢を検出する検出手段と、
ドライバーの視線方向を推定する推定手段と、
を更に備え、
前記画像処理手段は、前記撮影カメラにより撮影された画像を、ドライバーの視点から視認される実像と同じ方向、大きさとなるように、前記検出手段により検出された前記頭部装着表示装置の位置姿勢及び前記推定手段により推定されたドライバーの視線方向に基づき変換する変換手段を有し、
前記頭部装着表示装置は、前記変換手段により変換された画像を前記表示部に表示する
ことを特徴とする請求項1に記載の運転支援システム。
【請求項4】
ドライバーの顔画像を撮影する顔画像撮影カメラを更に備え、
前記推定手段は、
前記検出手段により検出された前記頭部装着表示装置の位置姿勢に基づいてドライバーの顔の向きを推定する第1推定手段と、
前記顔画像撮影カメラにより撮影されたドライバーの顔画像に基づいて前記第1推定手段が推定した顔の向きに対する視線方向を推定する第2推定手段と
を有することを特徴とする請求項3に記載の運転支援システム。
【請求項5】
前記画像処理手段は、
前記撮影カメラにより撮影された画像から高危険度対象物を抽出する抽出手段と、
前記抽出手段が抽出した前記高危険度対象物に識別マークを重畳した画像を、前記頭部装着表示装置に供給する手段と、
を有することを特徴とする請求項1から4までのいずれか1項に記載の運転支援システム。
【請求項6】
前記抽出手段は、熟練ドライバーの注視行動に基づくモデルを利用して、前記撮影カメラにより撮影された画像から高危険度対象物を抽出することを特徴とする請求項5に記載の運転支援システム。
【請求項7】
前記撮影カメラは、赤外線カメラであることを特徴とする請求項1から6までのいずれか1項に記載の運転支援システム。
【請求項8】
前記撮影カメラは、ドライバーの視線に対する死角の画像を撮影することを特徴とする請求項1から6までのいずれか1項に記載の運転支援システム。
【請求項9】
前記ナビゲーション装置により提供されるナビゲーション情報は、推定されたドライバーの視線方向に適合した態様で表示されることを特徴とする請求項1から8までのいずれか1項に記載の運転支援システム。
【請求項10】
前記ナビゲーション情報は、前記頭部装着表示装置の前記表示部の固定された位置に表示されることを特徴とする請求項1から8までのいずれか1項に記載の運転支援システム。
【請求項11】
前記画像処理手段は、前記撮影カメラにより撮影された画像に高輝度物体が含まれる場合に、該画像の輝度分布の平滑化を行う分光補正手段を更に有することを特徴とする請求項1から10までのいずれか1項に記載の運転支援システム。
【請求項12】
前記画像処理手段は、前記撮影カメラにより撮影された画像に高速移動物体が含まれる場合に、該移動物体の予測位置を算出し、該予測位置に該移動物体を描画する追従遅れ補正手段を更に有することを特徴とする請求項1から11までのいずれか1項に記載の運転支援システム。
【請求項13】
前記画像処理手段は、前記撮影カメラにより撮影された画像における、該撮影カメラのレンズ特性に依存して生じる歪みを補正するレンズ歪み補正手段を更に有することを特徴とする請求項1から12までのいずれか1項に記載の運転支援システム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate


【公開番号】特開2008−230296(P2008−230296A)
【公開日】平成20年10月2日(2008.10.2)
【国際特許分類】
【出願番号】特願2007−69022(P2007−69022)
【出願日】平成19年3月16日(2007.3.16)
【出願人】(000003137)マツダ株式会社 (6,115)
【Fターム(参考)】