説明

車両用情報表示装置

【課題】HMDを通じて種々の情報を視覚的に提供するだけでなく、目の疲れを防止する。
【解決手段】携帯端末Mを所持した乗員がHMD30を装着しているときには、携帯端末MからIDを取得し、このIDによって乗員を間接的に特定し、このIDに関連した乗員に対応した光量が目Eに入るように、携帯端末Mのメモリに予め用意した目標照度に基づいてHMD30のレンズ32(液晶パネル40)を通過する光量が調整される。この目標照度は、携帯端末Mのメモリ92に含まれる瞳の色、性別、年齢という属性を取り込んで、これらの情報に基づいて調整した後に、調整後の目標照度に基づいてHMD30の液晶パネル30の光透過度が制御される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は車両用情報表示装置に関する。
【背景技術】
【0002】
ナビゲーション装置などにより提供される運転支援情報は運転時の利便性向上に大きく役立っている。その一方で、そのような運転支援情報を車両のどの部分にどのようにして表示するとよいかが、車両走行における安全性の観点から問題となっている。
【0003】
例えば、フロントウィンドウに運転支援情報を投影表示する技術が提案されている。しかし、ドライバは運転中、絶えず顔の向きや視線を動かしているのであり、フロントウィンドウの情報表示部に視線を固定しているわけにはいかない。
【0004】
これに対し、特許文献1は、頭部装着型表示装置(MHD:ヘッドマウントディスプレイ)に運転支援情報を表示することにより、ドライバの頭の向きにかかわらずドライバに運転支援情報を提供できるようにした技術が開示されている。HMDに関して、特許文献1は、ドライバの両目を覆う複眼タイプ(ゴーグルタイプ)のHMDを開示しており、このHMDは、左右のレンズがカラー表示液晶パネルで構成されている(特許文献1の図2を参照)。
【0005】
特許文献1と同様に、特許文献2もゴーグルタイプのHMDを開示し、このHMDの左右のレンズを通じて乗員の周囲の環境を見ることができると共に車両の外部状況をドライバの眼前に立体画像として表示することを提案している。
【0006】
【特許文献1】特開平7−294842号公報
【特許文献2】特開平10−206789号公報
【発明の開示】
【発明が解決しようとする課題】
【0007】
複眼タイプのHMDは、これを装着した乗員が外部からの光を左右の目で受け止めるため、外部からの光の照度が大きいと眩しさを感じ、ひいては目の疲れを誘発してしまう可能性がある。
【0008】
本発明の目的は、HMDを通じて種々の情報を視覚的に提供するだけでなく、目の疲れを防止することのできる情報表示装置を提供することにある。
【課題を解決するための手段】
【0009】
上記の技術的課題は、本発明によれば、
光透過度が制御可能な左右のレンズを備え、該左右のレンズを通じて周囲の環境を見ることができると共に車両の外部状況を眼前に立体画像として表示することのできるHMDを含む車両用情報表示装置であって、
前記HMDを装着した乗員に入射する光の照度を検出する照度センサと、
前記HMDを装着した乗員の瞳の開度を検出する瞳開度検出手段と、
該瞳開度検出手段により検出した乗員の瞳の開度と前記照度センサにより検出した光の照度とに基づいて前記左右のレンズの光透過度を制御する光透過度制御手段と、
前記照度センサ、前記瞳開度検出手段、前記光透過度制御手段との間でデータを送受信する通信ネットワーク手段とを有することを特徴とする車両用情報表示装置を提供することにより達成される。
【0010】
すなわち、本発明によれば、乗員に入射する光の照度及び乗員の瞳の開度によって左右のレンズの光透過度が調整されるため、乗員の目に好ましい光の量が入ることで目の疲れを抑えることができる。
【0011】
本発明の好ましい実施の形態では、
前記通信ネットワーク手段の一部を構成する記憶手段を更に有し、
該記憶手段に、乗員毎に予め目標照度が記憶されており、
該記憶手段に記憶されている目標照度に基づいて前記光透過度制御手段が制御される。この実施の形態によれば、乗員がHMDを装着した早い段階で、乗員の目に入る光の照度を最適化することができる。
【0012】
本発明の好ましい実施の形態では、また、
前記照度センサが、前記通信ネットワーク手段の一部を構成し且つ前記HMDに装着されたセンサノードで構成され、該センサノードのメモリに、乗員を間接的に特定することのできる属性データと、該属性データに関連付けて当該乗員の目標照度のデータとが記憶されている。このように、HMDに装着したセンサノードに照度センサの機能を付与することで、乗員に入射する光の照度を検出するのが容易となるだけでなく、乗員の目標照度をHMDのセンサノードに記憶させておくことで、乗員と目標照度との関連付けが明確になり、別の乗員の目標照度が設定されてしまう可能性を低減することができる。
【0013】
本発明の好ましい実施の形態では、また、
通信ネットワーク手段に組み込み可能な携帯端末を更に有し、
該携帯端末のIDに関連して、当該携帯端末を所有する乗員の目標照度のデータが該携帯端末のメモリに記憶されている。
【0014】
上記携帯端末は典型的には携帯電話機である。携帯電話機は固有のIDが記憶されており、このIDを使うことで携帯電話機を特定することができる。携帯電話機は、これを所持する人間が特定されるのが通常であることから、携帯電話機のIDを介して、これを所持する乗員を特定することができる。また、この携帯電話機のメモリに、当該乗員の目標照度を記憶させておき、この目標照度に基づいてHMDのレンズの光透過度を制御することで、携帯電話機を所持する乗員と、当該乗員の目標照度とを間違えることなく目標照度を設定することができる。
【0015】
本発明の好ましい実施の形態では、通信ネットワーク手段を構成する複数のセンサノードが、HMDを装着した乗員を特定することのできる検出機能を備えている。具体的には、シートに設置したセンサノードに圧力センサの機能を付与しておき、シートに着座した乗員の体重を検出することで、この検出した体重から乗員を特定することができる。
【0016】
本発明の好ましい実施の形態では、
前記目標照度が、前記瞳開度検出手段で検出した乗員の瞳開度及び前記照度センサからの光の照度に基づいて調整される。例えばドライバは、目線や顔の向きを変えながら運転するのが常である。この変化に対応して目標照度を調整することで、HMDのレンズの光透過度を状況変化に追従させることができる。
【0017】
本発明の好ましい実施の形態では、
前記携帯端末のメモリに、乗員の目に関する属性が記憶されており、
該乗員の属性を取り込んで、該属性に基づいて前記目標照度を調整した後に、前記レンズの光透過度の制御が実行される。乗員の目に関する属性として、瞳の色、性別、年齢を挙げることでき、これらの要素によって目標照度を調整することで、個体差に対応した目標照度を設定することができる。
【発明を実施するための最良の形態】
【0018】
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決手段として必須のものであるとは限らない。
【0019】
図1は、本実施形態に係る情報表示装置の基本構成を示す図である。
【0020】
図1において、10は制御部で、典型的には、図示しないCPU,RAM,ROM等を備えるコンピュータシステムで構成され、図示された制御部10内の各ブロックで示される処理が、CPUによって実行される。
【0021】
この情報表示装置は、例えばドライバズシートのバックレスト12のショルダに車両前方に向けて設けられる第1前方撮影カメラ14、例えばインストルメントパネルの上部に車両前方に向けて設けられる第2前方撮影カメラ16、例えばフロントドア下部に車両外側斜め前方に向けて設けられ車両前方の死角を撮影する前方死角撮影カメラ18、例えばリヤダッシュボードの上部に車両後方に向けて設けられる後方死角撮影カメラ20を備え、これらは制御部10内のカメラ画像取得部22に接続されている。これらのカメラ14〜20は、自車の周囲の画像情報を取得する画像情報取得手段を構成するものであり、その組み合わせによって車両全周囲の画像を得る全方位カメラとして機能させるのが好ましい。また、個々のカメラはより広い範囲の画像を得るために超広角レンズを備えていることが好ましい。また、第2前方撮影カメラ16、前方死角撮影カメラ18、及び後方死角撮影カメラ20はそれぞれ、夜間撮影も行えるよう、赤外線カメラ(暗視カメラ)であることが望ましい。さらに、ドライバDの顔面に入射する光の照度を検出する照度センサ24が設けられ、この照度センサ24の出力もカメラ画像取得部22に供給される。
【0022】
30はドライバDが装着する視角補助手段としてのHMD(ヘッドマウントディスプレイ)である。このHMD30は、図2に示されるような、眼鏡タイプのHMDであり、この眼鏡タイプのHMD30の左右のレンズ32は光透過液晶カラーモニタで構成されている。HMD30を装着した乗員は、左右のレンズ32を通じて乗員の周囲の環境を見ることができると共に、後に説明するように外部状況などを眼前に立体画像として見ることができる。勿論、HMD30は特許文献1に開示のようなゴーグルタイプであってもよい。
【0023】
図3はHMD30のレンズ32の分解斜視図である。レンズ32は、一対の保護パネル34、36と、これら保護パネル34、36間に位置するカラー画像表示パネル38と液晶パネル40とで構成されており、カラー画像表示パネル38は、赤色用パネル38aと、緑色用パネル38bと、青色用パネル38cとで構成されている。
【0024】
レンズ32の一部を構成するカラー画像表示パネル38は、赤色、緑色、青色用のパネル38a〜38cが表示駆動回路42から供給される駆動信号に応じて動作することにより互いに協働してカラー画像を表示する。また、液晶パネル40は、液晶駆動回路44から供給される駆動信号の電圧が高くなる程、光透過度が低下する。換言すると、液晶駆動回路44から供給される駆動信号の電圧がゼロVとなると、光透過度が最大となる。
【0025】
車室内の所定位置(例えば、ドライバズシート上方のルーフトリム)には位置センサ50が設けられている。この位置センサ50は例えば磁気センサ等で構成され、HMD30の位置姿勢を示す信号を出力するように構成されている。なお、この位置姿勢を示す信号には、位置センサ50を基準とする位置(x,y,z)及び姿勢(roll, pitch, yaw)のパラメータが含まれる。位置センサ50が出力するHMD30の位置姿勢を示す信号は制御部10内の視線方向推定部52に入力される。
【0026】
制御部10は、カメラキャリブレーションによって、予め位置センサ50の位置に対する、第1及び第2前方撮影カメラ14、16、前方死角撮影カメラ18、後方死角撮影カメラ20の位置関係が保持されている。よって、制御部10は位置センサ50より入力した信号に基づき、第1及び第2前方撮影カメラ14、16、前方死角撮影カメラ18、後方死角撮影カメラ20と、HMD30との位置関係を求めることが可能である。
【0027】
ドライバDの前方には、このHMD30を装着しているドライバDの瞳を含む顔画像を撮影する顔画像撮影カメラ54が設置されている。この顔画像撮影カメラ54が撮影したドライバの顔画像及び瞳開度データは、制御部10内の視線方向推定部52に供給される。顔画像撮影カメラ54の設置位置は任意であるが、例えば車両のダッシュボード等に取り付けるようにしてもよい。なお、制御部10とHMD30との接続は有線でもよいし無線でもよい。
【0028】
実施例の情報表示装置は、更に、GPS信号を受信して地図データに基づき経路情報、交通情報等(ナビゲーション情報)など自車の走行情報を取得するナビゲーションユニット60、車速センサ等の各種センサ類を含む車両状態センサ62を備えている。
【0029】
制御部10は、カメラ画像取得部22及び視線方向推定部52の他に、取得した画像のレンズ歪み(収差)を補正するレンズ歪み補正部64、画像の幾何変換及び画像切り出しを行う幾何変換・切り出し部66、画像の描画位置及びサイズを算出する描画位置・サイズ算出部68、カメラ画像の加工を行うカメラ画像加工処理部70、ナビゲーションユニット60及び車両状態センサ62から入力したデータに基づきナビゲーション情報等の情報画像を作成する情報画像作成部72、及び画像合成部74を備えている。ナビゲーションユニット60及び車両状態センサ62は、制御部10の情報画像作成部(2D画像作成部)72に接続されている。
【0030】
図4は、本実施形態における制御部10によるHMD30の画像表示制御処理を示すフローチャートである。
【0031】
カメラ画像取得部11は、第1及び第2前方撮影カメラ14、16、前方死角撮影カメラ18、後方死角撮影カメラ20からそれぞれ画像データを受信するとともに、照度センサ24からの出力データを順次受信している(ステップS1)。またこれと並行して、視線方向推定部52は、位置センサ50からのHMD30の位置姿勢を示す信号及び、顔画像撮影カメラ54からの顔画像データを受信している(ステップS2)。視線方向推定部52は、位置センサ50からのHMD30の位置姿勢を示す信号からドライバの顔の向きを推定するとともに、顔画像撮影カメラ54からの顔画像データに基づき、ドライバの顔の肌領域と瞳領域との像域分離を行いその結果から顔の向きに対する視線方向を推定する。そして、これらの結果から、基準である位置センサ50に対する視線方向を推定する。
【0032】
上記ステップS1では、例えば、推定された視線方向が車両前方と判断され、照度センサ24からの受信データに基づき照度が所定値より明るいと判断される場合には、第1前方撮影カメラ14と前方死角撮影カメラ18の画像データを取得する。また、推定された視線方向が車両前方と判断され、照度は上記所定値以下に暗いと判断される場合には、第2前方撮影カメラ(赤外線カメラ)16の画像データを取得する。また、推定された視線方向が車両後方と判断されたときは、後方死角撮影カメラ20の画像データを取得する。
【0033】
次に、レンズ歪み補正部64は、ステップS1で取得した画像データに対して、当該画像データを取得したカメラのレンズ特性に依存して生じる歪み(収差)を補正する(ステップS3)。この補正は例えば、カメラキャリブレーションによって得られる、位置センサ50の位置に対する当該画像データを取得したカメラの位置を示すカメラ内部パラメータに基づいて行われる。
【0034】
一方、視線方向推定部52は、ステップS2で受信した位置センサ50からのHMD30の位置姿勢を示す信号に基づいて、HMD30の位置姿勢データを、予め行われた位置キャリブレーションによって得られる、センサ・HMD補正パラメータに基づいて補正する(ステップS4)。
【0035】
次に、幾何変換・切り出し部66は、ステップS3で得られたレンズ歪み補正後の画像データに対して、HMD30の表示領域に合わせた画像の切り出し及び幾何変換を行う(ステップS5)。具体的には例えばステップS3で得られたレンズ歪み後の画像データから、その画像が、ドライバの視点から視認される立体的な現実空間像Sと同じ方向、大きさになるように、HMD30の位置センサ50に対する位置姿勢及び視線方向推定部52が推定した視線方向に合わせて必要な画像領域を切り出し、アフィン変換を行う。
【0036】
次に、カメラ画像加工処理部70は、ステップS5での処理後の画像データに対して、グレア対策として、高輝度の物体を認識して、分光画像処理し、輝度分布を平滑にして違和感や不快がないように調光する、分光補正処理を行う(ステップS6)。なお、グレアには、眼球内での光の散乱の程度が増加し、これによって対象物が見えにくくなる減能グレアと、視野内に高輝度の物体があるときに不快に感じやすくなる不快グレアとがあり、両者とも一般に加齢とともに増大する。ステップS6の分光補正処理はこのようなグレアに対処するものである。
【0037】
図5は、このステップS6の分光補正処理の一例を示すフローチャートである。まず、ステップS5での処理後の画像データに対して、輝度分布分析を行う(ステップS61)。そして、得られた輝度分布に基づいて高輝度物体が存在するかどうかを判定し(ステップS62)、高輝度物体が存在する場合には輝度分布の平滑化を行う(ステップS63)。
【0038】
次に、カメラ画像加工処理部70は、追従遅れ補正処理を行う(ステップS7)。これは、加齢により移動物を目で追う際の眼球運動が遅くなることに対処するものであり、その具体的処理例を図6のフローチャートに示す。
【0039】
まず、入力した動画像データから移動物体を抽出し(ステップS71)、そこに高速移動物体が存在するかどうかを判定する(ステップS72)。ここで、高速移動物体が存在する場合には、その移動物体の移動方向、移動速度、及び位置を検出し(ステップS73)、その検出結果に基づいてその移動物体の予測位置を算出する(ステップS74)。その後、移動物体をその予測位置に描画する(ステップS75)。
【0040】
次に、カメラ画像加工処理部70は、危険対象物検出処理を実行する(ステップS8)。この処理の具体例を図7のフローチャートに示す。
【0041】
まず、入力した画像データから、歩行者、他車両等の対象物を抽出し(ステップS81)、抽出した対象物の配置パターンを抽出する(ステップS82)。次に、予めメモリに記憶してある熟練ドライバDの注視行動モデルを読み出す(ステップS83)。図8に熟練ドライバDの注視行動モデルの概念図を示す。そして、熟練ドライバDの注視行動モデルに基づくニューラルネットワークあるいは強化学習を構成し、これを利用して、ステップS82で抽出した対象物の配置パターンから、高危険度対象物を抽出する(ステップS84)。
【0042】
高危険度対象物が抽出された場合にはその画像はカメラ画像としてHMD30のレンズ32に表示されることになる。このとき、その画像が高危険度対象物としてドライバに認知されやすいように、囲み枠線などの識別マークを重畳表示させるとよいであろう。
【0043】
次に、描画位置・サイズ算出部68は、HMD30のレンズ32に表示する2D画像の描画位置およびそのサイズを計算する(ステップS9)。また、情報画像作成部72は、ナビゲーションユニット60及び車両状態センサ50から入力したデータに基づいて作成したナビゲーション情報等の情報画像(2D画像)を作成する。このとき、情報画像作成部72は、ステップS7の追従遅れ補正処理において検出した高速移動物体についてその移動方向を示す矢印画像等を情報画像に含めるようにしても良い。
【0044】
次に、画像合成部56は、カメラ画像をHMD30のレンズ32に表示するかどうかを判断する(ステップS10)。例えば、次の少なくともいずれかの場合には、車両走行上の危険度が相対的に高い状況であり、カメラ画像をHMD30のレンズ32に表示すると判断する。
(1)ステップS6の分光補正処理において、ステップS63の輝度分布平滑化が実行された場合。
(2)ステップS7の追従遅れ補正処理において、ステップS73〜S75の処理が実行された場合。
(3)ドライバの視線方向に死角がある場合。
(4)照度が暗い場合。
【0045】
画像合成部56は、ステップS10でカメラ画像をHMD30のレンズ32に表示すると判断した場合は、ステップS9での計算結果に基づいて、上述のステップS5〜S8の処理で得られたカメラ画像と、情報画像作成部72がナビゲーションユニット60及び車両状態センサ50から入力したデータに基づいて作成したナビゲーション情報等の情報画像(2D画像)とを合成した画像を作成し(ステップS11)、その合成画像をHMD30のレンズ32に表示する(ステップS12)。
【0046】
一方、画像合成部56は、ステップS10でカメラ画像をHMD30のレンズ32に表示しないと判断した場合は、情報画像作成部72がナビゲーションユニット60及び車両状態センサ50から入力したデータに基づいて作成したナビゲーション情報等の情報画像(2D画像)のみを描画して(ステップS13)、これをHMD30のレンズ32に表示する(ステップS12)。
【0047】
以上説明した制御部10によるHMD30の画像表示制御によって、ドライバに視認される画像の例を図9に示す。
【0048】
図9の(a)に示される画像において、自車前方には晴天時の空が大きく広がっており、不快グレアが発生しやすい状況である。これに対して、本実施形態では、ステップS6において分光補正処理が施され、輝度分布が平滑化されるので、眩しさが軽減される。また、この図9の(a)において、自車前方左方からバス80が横切るように移動中である。これに対しては、本実施形態では、ステップS7において追従遅れ補正が施され、移動物体であるバス80の位置が補正される。このとき、図示の如く移動方向を示す矢印マーク81を重畳表示するとよい。
【0049】
図9の(b)では、ナビゲーション情報である「100m先右折」との文字表示及び、そのことを示す矢印による右折マーク82が重畳表示されている。図9の(c)は、ステップS8の危険対象物抽出処理において先行車両が危険対象物と判定され、ドライバの注意を喚起するために、それに囲み枠線が重畳表示されるとともに、「前方障害物」、「車間確保」とのメッセージが表示されている。この図9の(c)の状態が所定時間経過しても解消されない場合には、図9の(d)に示されるように、音声による警告メッセージを発するようにしてもよい。
【0050】
ここで、図9の(b)〜(d)に示されるような、ナビゲーション情報である右折マーク82は、ドライバの視線方向に適合した位置や態様で表示されることが好ましい。一方、図9の(d)に示すように、「5KM前方渋滞1KM」といったナビゲーション情報のうちの交通情報については、ドライバの視線方向には関係なく、図示のように下方端部などの固定された位置で表示されればよいであろう。
【0051】
以上、ドライバDに対する運転支援を説明したが、眼鏡タイプのHMD30はドライバDに限定されず助手席や後席の乗員が装着するのに都合がよい。運転席以外のシートに着座した乗員がHMD30を装着したときには、例えばHMD30を介して映画や周囲環境の案内などの表示が行われる。
【0052】
図10及び図11は、車両に搭載されたネットワークの全体構成図であり、図12は、センサノードを示すブロック図であり、図13は、ゲートウェイポイントを示すブロック図であり、図14は、携帯端末を示すブロック図であり、図15は、センサノード及びゲートウェイ間のネットワーク情報を可視化すると共にゲートウェイポイントにより制御される機器を模式的に表した図であり、図16は、携帯端末、センサノード及びゲートウェイ間のネットワーク情報を可視化すると共にゲートウェイポイントにより制御される機器を模式的に表した図である。
【0053】
先ず、図10及び図11に示すように、車両には、複数のセンサノードSN及びゲートウェイポイントGが搭載されている。また、前述したHMD30にも左右一対のセンサノードSNが組み込まれている。ゲートウェイポイントGは、本実施形態では、ナビゲーション装置に内蔵されたCPU、メモリ及び無線通信インターフェースで構成される。図10に示すように、ゲートウェイポイントGには、機器D(例えば複数の送風口を有する空調機器)が接続され、ゲートウェイポイントGの後述する機器制御部により各送風口から送出される空気の温度及び量が制御される。
【0054】
センサノードSNはコイン大の大きさで比較的薄いものであり、車室内の様々な部位に取り付けることが出来るものである。本実施形態では、図11に示すように、各座席のシート内や各座席に対応したルーフ部分などに複数設けられている。この図11に示すように、センサノードSNは3次元的に配置することが出来る。これらのセンサノードSN及びHMD30に組み込まれたセンサノードSNは、互いに無線でネットワーク(図15参照)を形成する。
【0055】
ゲートウェイポイントGは、各センサノードSNからの無線通信による情報を受けて、車載機器、例えば、ナビゲーション装置のナビ機能とテレビ機能の操作の制限や、空調装置の各座席に応じた冷暖の調整などを行う(図15参照)。ゲートウェイポイントGは、センサノードSNと情報(信号)の送受信を行うほか、例えば各座席の目標温度の算出や各座席に対応した空調装置の制御量の算出を行う。このゲートウェイポイントGも、上述した複数のセンサノードSNと無線でネットワーク(図15参照)を形成する。
【0056】
図11に示すように、各センサノードSNには、例えばボタン電池のような電源、CPUであるプロセッサー、及び、センサノードSNに内蔵されており、その外部に取り付けられる各種センサを有する。例えば、HMD30に組み込まれたセンサノードSNには、前述した照度センサ24が組み込まれている。車両に搭載されたセンサノードSNには、照度センサ、温度センサ、圧力センサなどを含み、圧力センサは、乗員の着座を検知する着座センサとして機能する。また、センサノードSNには、他のセンサノードSN、携帯電話のような携帯端末M及び後述するゲートウェイポイントGと無線通信可能なインターフェースを有する。
【0057】
また、センサノードSNにはメモリが搭載されており、このメモリには、圧力センサの情報を処理したり、他の携帯端末Mや他のセンサノードSNとの信号の入出力を行うためのプログラムが内蔵されたソフトウェアが記憶されている。ソフトウェアは、オペレーティングソフトウェアと、アプリケーションソフトウェアとからなり、オペレーティングソフトウェアには、オペレーティングシステムが含まれ、アプリケーションソフトウェアにはプログラムモジュールが含まれる。また、メモリには、アプリケーションデータが記憶されている。
【0058】
このセンサノードSNのメモリは、そのセンサノードSNのセンサによる検出結果を記憶するようになっている。このセンサノードSNのプロセッサー(データ処理部)は、センサによる検出結果に基づいて機器Dを制御するための目標制御量を算出する。この算出は、センサによる検出結果をそのまま使用して行っても良いし、センサノードSNのメモリ、或いは、後述するゲートウェイポイントのメモリに記憶された検出結果を使用して行われる。また、センサノードSNのプロセッサーは、所定のデータベースに記憶された検出結果に基づいて機器Dを制御するための目標制御量を算出することも出来る。所定のデータベースは、センサノードSNのメモリ、或いは、ゲートウェイポイントのメモリに備えられるものである。
【0059】
算出された目標制御量は、ゲートウェイポイントGのプロセッサー及び機器制御部で使用され、ゲートウェイポイントGの機器制御部がその目標制御量が得られるように機器Dを制御する。また、算出された目標制御量は、センサノードSNのメモリ、或いは、後述するゲートウェイポイントのメモリに記憶され、ゲートウェイポイントGのプロセッサー及び機器制御部がその記憶された目標制御量を使用して、機器制御部によりその目標制御量が得られるように機器Dを制御するようにしても良い。
【0060】
このようなセンサノードSNの通信方式として、例えば、「ZigBee」といわれるものがある。これは、規格が「IEEE802.15.4」、伝送速度(bps)が「250K」、利用周波数帯が「2.4GHz(全世界)、868MHz(欧州)、915MHz(米国)」、伝送距離が「最大10-75m」、消費電力(通信)が「<60mW」のものである。これ以外にも、方式として、「微弱無線」、「特定小電力無線」、「Bluetooth」、「UWB」などの他の方式もある。
【0061】
図13に示すように、ゲートウェイポイントGには、車両のバッテリーから引き出される電源、CPUであるプロセッサー、複数のセンサノードSNと無線通信可能なインターフェース、メモリ、及び、機器制御部を有する。このメモリには、センサノードSNや携帯端末Mとの信号の入出力を行うためのプログラムが内蔵されたソフトウェアが記憶されている。ソフトウェアは、オペレーティングソフトウェアと、アプリケーションソフトウェアとからなり、オペレーティングソフトウェアには、オペレーティングシステムが含まれ、アプリケーションソフトウェアにはプログラムモジュールが含まれる。また、メモリには、アプリケーションデータが記憶されている。
【0062】
ゲートウェイポイントGは、各センサノードSN及びそのネットワークから得られる情報を集中管理すると共に外部の機器、例えば、空調機器、ナビゲーション装置、電動シート装置、パワーウィンドウなどを制御する。また、ゲートウェイポイントGや携帯端末Mを通して車両の外部のサーバーに情報を蓄積することも可能である。また、ゲートウェイポイントGには、携帯端末MのIDなどの情報が記憶されている。なお、このような情報は各センサノードSNに記憶させても良い。
【0063】
このゲートウェイポイントGのメモリ88は、そのセンサノードSNのセンサによる検出結果を記憶するようになっている。このゲートウェイポイントGのプロセッサー(データ処理部)は、センサノードSNのセンサによる検出結果に基づいて機器Dを制御するための目標制御量を算出する。この算出は、センサによる検出結果をそのまま使用して行っても良いし、上述したセンサノードSNのメモリ90、或いは、ゲートウェイポイントのメモリ88に記憶された検出結果を使用して行われる。また、ゲートウェイポイントGのプロセッサーは、上述した所定のデータベース、即ち、センサノードSNのメモリ90、或いは、ゲートウェイポイントのメモリ88に備えられたデータベースに記憶された検出結果に基づいて機器Dを制御するための目標制御量を算出することも出来る。
【0064】
算出された目標制御量は、ゲートウェイポイントGのプロセッサー及び機器制御部で使用され、ゲートウェイポイントGの機器制御部がその目標制御量が得られるように機器Dを制御する。また、センサノードSNのメモリ、或いは、後述するゲートウェイポイントのメモリ88に記憶された目標制御量を、ゲートウェイポイントGのプロセッサー及び機器制御部が使用して、機器制御部によりその目標制御量が得られるように機器Dを制御するようにしても良い。
【0065】
図14に示すように、典型的には携帯電話機である携帯端末Mには、携帯電話基盤ミドルウェアと、CPUであるプロセッサー、複数のセンサノードSNと無線通信可能なインターフェース及びメモリを有する。このメモリには、センサノードSNとの信号の入出力を行うためのプログラムが内蔵されたソフトウェアが記憶されている。ソフトウェアは、オペレーティングソフトウェアと、アプリケーションソフトウェアとからなり、オペレーティングソフトウェアには、オペレーティングシステムが含まれ、アプリケーションソフトウェアにはプログラムモジュールが含まれる。また、メモリには、アプリケーションデータが記憶されている。この携帯端末Mも、上述した複数のセンサノードSNと無線でネットワーク(図16参照)を形成する。
【0066】
次に、センサネットワークの概念について説明する。上述したように、センサノードSNに、所定のセンシングを行うセンサの他に、メモリ、アプリケーション、無線機能などが内蔵されている。このセンサノードSNは、センサにより得られた情報を保持出来るほか、無線により他のセンサノードSNや携帯端末Mとの間で送受信することが出来る。そのような機能により、或るセンサノードSNは、他のセンサノードSNや携帯端末Mの情報、即ち、他のセンサノードSNが有するセンサにより得られた情報や記憶されている情報を得ることも出来る。このようにして、複数のセンサノードSN及び携帯端末Mがネットワークでつながっており(図15参照)、仮に1つのセンサノードSNが故障又は携帯端末Mが存在していない場合であっても、他のセンサノードSNでネットワークを形成することが出来る。これにより、配線でつながっている車内LANとは異なり、配線の不要なネットワークを形成することが出来る。また、或る位置のセンサノードSNの情報を他のセンサノードSNの情報と共に多角的に得ることが出来る。
【0067】
図1に戻って、液晶駆動回路44には、HMD30に設置したセンサノードSNで構成された照度センサ24と、ドライバDの瞳を含む顔面像撮影カメラ54からの情報が入力される。顔面像撮影カメラ54と液晶駆動回路44との間には瞳開度検出処理回路86が介在しており、この瞳開度検出処理回路86によってドライバDの瞳の開度が検出され、この瞳開度情報が液晶駆動回路44に入力される。
【0068】
図17は、HMD30を装着した乗員が所持している、典型的には携帯電話機である携帯端末Mを組み込んだネットワークを模式的に示す。ゲートウェイポイントGには、過去に車両に乗車した人間の情報が記憶されている。この情報は、各人の体重と、当該個人の目に適した目標照度とを含む。また、HMD30を使用する人間が例えばドライバや家族に限定されているときには、当該HMD30のセンサノードSNのメモリ90(図17)に、各人の「体重―目標照度」データを記憶しておいてもよい。また、携帯端末Mには、そのメモリ92(図4)に、当該携帯端末MのIDや使用者のID、当該携帯端末Mの使用者の個人特性データ(体重、瞳の色、目標照度、年齢、平均血圧や最高、最小血圧、平均脈拍など)が予め記憶されている。
【0069】
携帯端末Mを所持した乗員がHMD30を装着しているときには、携帯端末MからIDを取得し、このIDによって乗員を間接的に特定し、このIDに関連した乗員に対応した光量が目Eに入るように、予め用意した目標照度に基づいてHMD30のレンズ32(液晶パネル40)を通過する光量が調整される。この目標照度は、携帯端末Mのメモリに含まれる瞳の色、性別、年齢という属性を取り込んで、これらの情報に基づいて調整した後に、調整後の目標照度に基づいてHMD30の液晶パネル40の光透過度を制御するようにしてもよい。
【0070】
この基本制御に加えて、顔面像撮影カメラ54から取得した瞳開度及び実際の照度に基づいて液晶パネル40に対する目標値を修正して、HMD30を装着した乗員にとって好ましい光量が目Eに入るように液晶パネル40の光透過度合いがフィードバック制御される。このフィードバック制御によって、HMD30を装着した乗員にとって、実際の照度との関係で好ましい光量が目Eに入る状態を生成することができる。特に、ドライバは目線、顔の向きなどを変化させて運転しているが、このドライバの目線などの変化に対応して目に入る照度を好ましい照度に調整することができる。そして、フィードバック制御によって獲得した目標照度に基づいて、ゲートウェイポイントG、HMD30のセンサノードSN、携帯端末Mの各メモリ88、90、92の記憶値が更新される。
【0071】
図18、図19は、HMD30の光透過制御の一つの具体例を説明するためのフローチャートであり、図19は、図18に続くフローを示してある。先ず、図18を参照して、HMD30に内蔵されているセンサノードSNを含むセンサノードSNはゲートウェイポイントDとネットワークを形成し(S100)、そして各センサノードSNは他のセンサノードSNの中継処理(S101)によって、各センサノードSNの位置を検出する処理が行われる(S102)。
【0072】
また、各センサノードSNのデータ、例えば位置データ、乗員の瞳の開度データ、実際の照度データがゲートウェイポイントGに供給され(S103)、ゲートウェイポイントGはこれを受信する(S104)。
【0073】
携帯電話機などの携帯端末Mを所持した人間が乗車すると(S105)、当該携帯端末Mを含むネットワークが形成され(S106)、当該携帯端末Mの位置検出が行われる(S107)。次いで、この位置データと共に、携帯端末Mに予め記憶されているID、体重、血圧、脈拍などの個人特性データ、目標照度データがセンサノードSNを経由してゲートウェイポイントGに送信される(S108)。もし、この携帯IDが新規であれば、ゲートウェイポイントGのメモリ88に、これらの情報が記憶される(図19のS109)。
【0074】
図19を参照して、ゲートウェイポイントGでは、受信した携帯端末Mの位置データとセンサノードSNの位置データとに基づいて、当該携帯端末Mに最も近いセンサノードSNを選択する(S110)。勿論、複数人が夫々携帯端末Mを所持しているときには各携帯端末M毎に最寄りのセンサノードSNが選択される。そして、各携帯端末MのIDの目標照度に基づいて各センサノードSNに対して目標照度データを送信し(S111)、該当するセンサノードSNは、これを受けて光量制御を実行して、HMD30のレンズ32を透過する光量が液晶パネル40の光透過度によって調整される(S112)。この液晶パネル40は前述したようにフィードバック制御される。
【0075】
HMD30を装着している乗員にとって、上記S112の光量制御によって、目Eに入る光量が好ましいものとなるが、この乗員の瞳開度は顔画像撮影カメラ54によって検出され(S113)、瞳開度が適正の範囲であれば、ステップS114からステップS115に進んで、目標照度の算出及びゲートウェイポイントGの記憶データの更新が実行される。これにより、眩しさの個人差を補償した各人の最適な目標照度を記憶させることができる。この更新用の目標照度データは、センサノードSN及び携帯端末Mに供給されてデータの更新が行われる(S116、S117)。
【0076】
図20、図21は、HMD30の光透過制御の他の具体例を説明するためのフローチャートであり、図21は、図20に続くフローを示してある。これら図20、図21の例は、乗員が携帯端末Mを所持していない場合の例であり、乗員が着座したシートの圧力センサ(センサノードSN)によって乗員の体重を検出して、検出した体重から間接的に乗員を特定する。そして、予め記憶してある「体重-目標照度」のデータから、検出した体重に基づいて目標照度を抽出して、この目標照度に基づいてHMD30の液晶パネル40の光透過度合いを制御する。また、液晶パネル40の制御は、HMD30を装着している乗員の瞳開度によってフィードバック制御され、最適な照度となるように目標照度が修正される。そして、この修正した目標照度によってゲートウェイポイントGの記憶データが更新される。
【0077】
以上のことを前提として、図20を参照して、HMD30に内蔵されているセンサノードSNを含むセンサノードSNはゲートウェイポイントDとネットワークを形成し(S200)、そして、各センサノードSNは他のセンサノードSNの中継処理(S201)によって、各センサノードSNの位置を検出する処理が行われる(S202)。また、各センサノードSNのデータ、例えば位置データ、乗員の瞳の開度データ、実際の照度データがゲートウェイポイントGに供給され(S203)、ゲートウェイポイントGはこれを受信する(S204)。
【0078】
各シートに設置したセンサノードSNは、他のセンサノードSN及びゲートウェイポイントDとネットワークを形成し(S205)、そして、各センサノードSNは他のセンサノードSNの中継処理(S206)によって、各センサノードSNの位置を検出する処理が行われる(S207)。また、HMD30を装着した乗員が着座したシートの各センサノードSNは、シートに着座した乗員からの圧力を検出し、この圧力のデータは、センサノードSN毎にその位置データと共にゲートウェイポイントGに送信される(S208)。
【0079】
図21を参照して、ゲートウェイポイントGでは、受信したセンサノードSNの位置データに基づいて、当該圧力センサノードSNに最も近いHND30及び照度センサ24を選択する(S209)。勿論、複数人が乗車しているときには、該当するシートの圧力センサノードSNに最も近いHND30及び照度センサ24が夫々選択される。
【0080】
圧力センサノードSNから送られてきた圧力つまり乗員を体重に基づいて乗員を間接的に特定し、そして、この体重に基づいて、予め記憶されている体重―目標照度データから、当該体重に対応する目標照度が抽出され、そして抽出した目標照度は該当するセンサノードSNに送信される(S210)。これを受信したセンサノードSNは(S211)、これを受けて光量制御を実行して、HMD30のレンズ32を透過する光量が液晶パネル40の光透過度によって調整される(S212)。この液晶パネル40は前述したようにフィードバック制御される。このフィードバック制御を行うことで、乗員の目線、顔の向きなどを変化させたときに、これに対応して目に入る照度を好ましい照度に調整することができる。
【0081】
HMD30を装着している乗員にとって、上記S212の光量制御によって、目Eに入る光量が好ましいものとなるが、この乗員の瞳開度を顔画像撮影カメラ54によって検出してゲートウェイポイントGに送信され(S213)、これを受けたゲートウェイポイントG(S214)は、瞳開度が適正の範囲の判断を行って(S215)、瞳開度が適正の範囲であれば、ステップS215からステップS216に進んで、目標照度の算出及びゲートウェイポイントGのメモリ88の記憶値の更新が実行され、また、センサノードSNに送信される。これにより、眩しさの個人差を補償した各人の最適な目標照度をゲートウェイポイントG及びセンサノードSNのメモリ88、90のデータの更新が行われる(S217)。
【図面の簡単な説明】
【0082】
【図1】実施例の車両用情報表示装置の基本構成を示す図である。
【図2】実施例で採用した眼鏡タイプのHMDを示す図である。
【図3】図2の眼鏡タイプのHMDの左右のレンズの構造を説明するための分解斜視図である。
【図4】実施例における画像処理部によるHMDの画像表示制御処理を示すフローチャートである。
【図5】実施例における分光補正処理の一例を示すフローチャートである。
【図6】実施例における追従遅れ補正処理の一例を示すフローチャートである。
【図7】実施例における危険対象物抽出処理の一例を示すフローチャートである。
【図8】熟練ドライバの注視行動モデルの概念図である。
【図9】画像処理部によるHMDの画像表示制御によって、ドライバに視認される画像の例を示す図である。
【図10】センサノード及びゲートウェイポイントで構成される車両内通信ネットワークを平面視した図である。
【図11】センサノードの配置を側面視した図である。
【図12】センサノードのブロック図である。
【図13】ゲートウェイポイントのブロック図である。
【図14】携帯端末のブロック図である。
【図15】センサノード及びゲートウェイ間のネットワーク情報の授受を可視化すると共にゲートウェイポイントにより制御される機器を模式的に表した図である。
【図16】携帯端末、センサノード及びゲートウェイ間のネットワーク情報を授受を可視化すると共にゲートウェイポイントにより制御される機器を模式的に表した図である。
【図17】HMDのレンズの光透過度を制御するために、シートに装着したセンサノードと、HMDに装着したセンサノードと、ゲートウェイポイントとの間の通信ネットワークを模式的に表した図である。
【図18】HMDのレンズの光透過度を制御に関する具体的な手順の第1の例を説明するためのフローチャートである。
【図19】図18に続いて、HMDのレンズの光透過度を制御に関する具体的な手順の第1の例を説明するためのフローチャートである。
【図20】HMDのレンズの光透過度を制御に関する具体的な手順の第2の例を説明するためのフローチャートである。
【図21】図20に続いて、HMDのレンズの光透過度を制御に関する具体的な手順の第2の例を説明するためのフローチャートである。
【符号の説明】
【0083】
14 第1前方撮影カメラ
16 第2前方撮影カメラ
18 前方死角撮影カメラ
20 後方死角撮影カメラ
24 照度センサ
30 HMD
32 レンズ(光透過液晶)
34、36 保護パネル
38 カラー画像表示パネル
40 液晶パネル
42 表示駆動回路
44 液晶駆動回路
50 位置センサ
52 視線方向推定部
54 顔画像撮影カメラ
62 車両状態センサ
86 瞳開度検出処理回路
88 ゲートウェイポイントのメモリ
90 HMDのセンサノードSNのメモリ
92 携帯端末のメモリ
M 携帯端末(携帯電話機)

【特許請求の範囲】
【請求項1】
光透過度が制御可能な左右のレンズを備え、該左右のレンズを通じて周囲の環境を見ることができると共に車両の外部状況を眼前に立体画像として表示することのできるHMDを含む車両用情報表示装置であって、
前記HMDを装着した乗員に入射する光の照度を検出する照度センサと、
前記HMDを装着した乗員の瞳の開度を検出する瞳開度検出手段と、
該瞳開度検出手段により検出した乗員の瞳の開度と前記照度センサにより検出した光の照度とに基づいて前記左右のレンズの光透過度を制御する光透過度制御手段と、
前記照度センサ、前記瞳開度検出手段、前記光透過度制御手段との間でデータを送受信する通信ネットワーク手段とを有することを特徴とする車両用情報表示装置。
【請求項2】
前記通信ネットワーク手段の一部を構成する記憶手段を更に有し、
該記憶手段に、乗員毎に予め目標照度が記憶されており、
該記憶手段に記憶されている目標照度に基づいて前記光透過度制御手段が制御される、請求項1に記載の車両用情報表示装置。
【請求項3】
前記照度センサが、前記通信ネットワーク手段の一部を構成し且つ前記HMDに装着されたセンサノードで構成され、該センサノードのメモリに、乗員を間接的に特定することのできる属性データと、該属性データに関連付けて当該乗員の目標照度のデータとが記憶されている、請求項1に記載の車両用情報表示装置。
【請求項4】
前記通信ネットワーク手段に組み込み可能な携帯端末を更に有し、
該携帯端末のIDに関連して、当該携帯端末を所有する乗員の目標照度のデータが該携帯端末のメモリに記憶されている、請求項3に記載の車両用情報表示装置。
【請求項5】
前記通信ネットワーク手段を構成する複数のセンサノードが、前記HMDを装着した乗員を特定することのできる検出機能を備えている、請求項3に記載の車両用情報表示装置。
【請求項6】
前記目標照度が、前記瞳開度検出手段で検出した乗員の瞳開度及び前記照度センサからの光の照度に基づいて調整される、請求項3又は4に記載の車両用情報表示装置。
【請求項7】
前記携帯端末のメモリに、乗員の目に関する属性が記憶されており、
該乗員の属性を取り込んで、該属性に基づいて前記目標照度を調整した後に、前記レンズの光透過度の制御が実行される、請求項4に記載の車両用情報表示装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate


【公開番号】特開2010−58631(P2010−58631A)
【公開日】平成22年3月18日(2010.3.18)
【国際特許分類】
【出願番号】特願2008−225832(P2008−225832)
【出願日】平成20年9月3日(2008.9.3)
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.ZIGBEE
2.Bluetooth
【出願人】(000003137)マツダ株式会社 (6,115)
【Fターム(参考)】