説明

指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース

【課題】ユーザのトラッキングに基づいてユーザインタフェースと相互作用する適用インタフェースシステムの提供。
【解決手段】本発明の適応インタフェースシステム10は、車両システムをコントロールするためのユーザインタフェース16、ユーザの肢の位置を検出して、肢の位置を示すセンサ信号を生成するためのセンサ12、並びに、センサ12及びユーザインタフェース16と通信するプロセッサを備える。このプロセッサは、センサ信号を受信して、センサ信号を命令セットに基づいて分析してユーザのポインティングベクトル21を決定し、ユーザのポインティングベクトル21に基づいてユーザインタフェース16を設定する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、一般に、ヒューマンマシンインタフェース(human-machine-interface)に関する。特に、本発明は、ユーザのトラッキングに基づいてユーザインタフェースと相互作用する適応インタフェースシステム及び方法を目的とする。
【背景技術】
【0002】
最新の車両システムは、下記の1つ以上の要素を備えたユーザインタフェースを有する。ディスプレイ、タッチスクリーン、タッチセンサ、コントロールノブ、ユーザが係合可能なボタン、及び他のコントロール装置。一般的に、ユーザは、直接接触又は物理的操作によってコントロール装置を作動させる。また、ごく最近では、車両は、ユーザを車両HMIと相互作用させるために、音声指令を使用する。加えて、簡単な手/指ジェスチャ又は手書きジェスチャを特徴とするいくつかの進化した自動車概念が明らかにされた。
【0003】
例えば、米国特許出願公開第2009/0309765号明細書には、三次元ユーザインタフェースによって、デジタルカメラからコントロールナビゲーションに取り込まれた画像を使用するシステム及び方法が開示されている。
【0004】
米国特許第6,624,833号明細書には、陰影検出を備えた、ジェスチャに基づく入力インタフェースシステムが開示されている。この入力インタフェースシステムは、画像信号のユーザジェスチャの分類による、コンピュータ上のアプリケーション実行のジェスチャに基づくユーザコントロールを提供する。
【0005】
米国特許第7,598,942号明細書には、ジェスチャに基づくコントロールのシステム及び方法が明らかにされている。このシステムは、ディスプレイスクリーンに示されるさまざまな視覚要素にジェスチャインタフェースを提供する。
【0006】
米国特許出願公開第2008/0065291号明細書には、車両の乗員の画像を受信する画像受信システムを備えた、車両内でコンポーネントをコントロールするシステム及び方法を開示されている。このシステムは、例えば、手のジェスチャといった、受け取った画像のジェスチャを認識するように配置される。また、この米国特許出願公開第2008/0065291号明細書には、認識されたジェスチャに基づいてコンポーネントをコントロールする、画像受信システムに接続されたコントロールシステムが開示されている。
【0007】
しかしながら、車両環境でユーザインタフェースと相互作用する正確でタッチレスな手段の必要性は残されたままである。
【0008】
したがって、ポインティングベクトルと実質的に一致した視覚的な出力を強調するように、ユーザの身体の一部の位置から導出されるポインティングベクトルに基づいてユーザインタフェースの視覚的な出力が自動的に設定(構成)される、適応ユーザインタフェースを開発することが望まれている。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】米国特許出願公開第2009/0309765号明細書
【特許文献2】米国特許第6,624,833号明細書
【特許文献3】米国特許第7,598,942号明細書
【特許文献4】米国特許出願公開第2008/0065291号明細書
【発明の概要】
【0010】
本発明と調和及び一致した、ポインティングベクトルと実質的に一致した視覚的な出力を強調するために、ユーザの身体の一部の位置から導出されるポインティングベクトルに基づいてユーザインタフェースの視覚的な出力が自動的に設定される適応ユーザインタフェースが驚くべきことに発見された。
【0011】
一実施形態においては、適応インタフェースシステムは、以下のものを備える。車両システムをコントロールするためのユーザインタフェース、ユーザの肢の位置を検出して、肢の位置を示したセンサ信号を生成するためのセンサ、並びに、センサ及びユーザインタフェースと通信をするプロセッサ、このプロセッサは、センサ信号を受信して、センサ信号を命令セットに基づいて分析してユーザのポインティングベクトルを決定し、ユーザのポインティングベクトルに基づいてユーザインタフェースを設定する。
【0012】
別の実施形態においては、車両用適応インタフェースシステムは、以下のものを備える。車両内部に配置されたユーザインタフェース、このユーザインタフェースは、車両システムの状況を示した情報をユーザに通信するためのディスプレイを有する。ユーザの肢の位置を検出して、ユーザインタフェースに最も近いユーザの一部の肢の位置を示したセンサ信号を生成するためのセンサ、ユーザの身体の一部の推定位置(estimated position)を示したベクトルノードを記憶するための記憶デバイス、並びに、センサ、記憶デバイス及びユーザインタフェースと通信をするプロセッサ、このプロセッサは、センサ信号を受信して、少なくともユーザインタフェースに最も近いユーザの肢の一部の位置とベクトルノードに基づいて、ユーザの肢のポインティングベクトルを決定し、ディスプレイに示される特定の視覚的な出力を強調するように、ユーザの肢のポインティングベクトルに基づいてディスプレイを設定する。
【0013】
また、ディスプレイを設定する方法も開示される。
【0014】
1つの方法は、次の工程を備える。車両システムのコントロールをユーザインタフェースに提供すること、少なくともユーザの身体の一部の肢の位置を検出するためにセンサを提供すること、ユーザの身体の予め定められた部分の推定位置と関連したベクトルノードを定義すること、ユーザの身体の肢の位置及びノードから導出されるポインティングベクトルを決定すること、及び、ポインティングベクトルのポインティングフィールド内に少なくともユーザインタフェースの一部を表すように、ポインティングベクトルに基づいてユーザインタフェースを設定すること。
【0015】
上記の内容は、本発明の他の利点と同様に、以下の添付の図面と照らして考慮されるときに、好ましい実施形態の下記の詳細な説明から当業者に容易に明らかとなるであろう。
【図面の簡単な説明】
【0016】
【図1】本発明の一実施形態による適応インタフェースシステムを備えた車両内部の部分斜視図である。
【図2】図1のインタフェースシステムの概略ブロック図である。
【図3】インタフェースシステムを使用しているドライバを示した、図1のインタフェースシステムを備えた車両内部の部分上部平面図である。
【図4】インタフェースシステムを使用している同乗者を示した、図1のインタフェースシステムを備えた車両内部の部分上部平面図である。
【発明を実施するための形態】
【0017】
以下の詳細な説明及び添付の図面は、本発明のさまざまな実施形態を説明及び図示する。この説明及び図面は、当業者が本発明を製作及び使用可能とするのに役立つものであり、何らかの方法で本発明の範囲を限定することを意図しない。開示される方法に関しては、示される工程は事実上例示的であり、したがって、工程の順序は、必要又は重要なものではない。
【0018】
図1及び図2は、本発明の一実施形態による車両11のための適応インタフェースシステム10を示す。図示のように、インタフェースシステム10は、センサ12、プロセッサ14、及びユーザインタフェース16(又はコントロールデバイス)を備える。インタフェースシステム10は、必要に応じてさまざまなコンポーネントを備えることができる。インタフェースシステム10は、任意のユーザ環境下で一体化することができる。
【0019】
センサ12は、ユーザの少なくとも一部の身体の位置を検出することが可能なユーザトラッキングデバイスである。非限定的な例として、センサ12は、ユーザの肢(例えば、指先、手、腕など)の位置を検出する。
【0020】
ある実施形態では、センサ12は、ユーザの少なくとも腕の一部(例えば手、指など)の画像を取り込んで、取り込まれた画像を示したセンサ信号を生成する、相補型金属酸化物半導体(complementary metal-oxide-semiconductor:CMOS)カメラである。しかしながら、他のカメラ及び画像取込デバイスが使用可能であることはいうまでもない。さらに、例えば、ユーザインタフェース16と一体化された赤外線センサ又は投影型静電容量センサ12’といった(例えば、独立して、又は、カメラセンサと組み合わせられた)他のセンサが使用可能であることはいうまでもない。
【0021】
ある実施形態では、放射エネルギーの発生源18が、ユーザの肢の少なくとも一部を照らすために配置される。非限定的な例として、放射エネルギーの発生源18は、赤外線放射用ダイオードとすることができる。しかしながら、他の放射エネルギーの発生源を使用することが可能である。
【0022】
プロセッサ14は、入力信号(例えば、センサ信号)を受信し、入力信号を分析し、そして、入力信号の分析に応答してユーザインタフェース16を設定するのに適した任意のデバイス又はシステムとすることができる。ある実施形態では、プロセッサ14はマイクロコンピュータである。図示の実施形態では、プロセッサ14は、センサ12、12’、及びユーザインタフェース16を介してユーザによって提供された入力の少なくとも1つから入力信号を受信する。
【0023】
図示のように、プロセッサ14は、命令セット20に基づいて入力信号を分析する。命令セット20は、任意のコンピュータ可読媒体で実施することができ、さまざまなタスクを実行するためにプロセッサ14を設定するプロセッサ実行可能命令を備える。プロセッサ14は、例えば、センサ12、12’及びユーザインタフェース16の動作をコントロールするといった、さまざまな機能を実行することができる。さまざまなアルゴリズム及びソフトウェアが、少なくともユーザの肢のポインティング方向を示したポインティングベクトル21を決定すべく、ユーザの肢の画像を分析するために使用可能であることはいうまでもない。
【0024】
非限定的な例として、命令セット20は、(例えば、センサ信号を介して)プロセッサ14が受信した情報に基づいてユーザの肢のポインティングベクトル21を決定するのに適した学習アルゴリズムである。更に非限定的な例として、プロセッサ14は、ユーザの肢のポインティングベクトル21に基づいて、ポインティングフィールド22(すなわち指示フィールド)を決定する。このポインティングフィールド22は、ポインティングベクトル21と相違する予め定められた角度の範囲(例えば、+/−5度)によって定義される。計算されたポインティングベクトル21と関連する任意の角度の範囲が、ポインティングフィールド22を定義するために使用可能であることはいうまでもない。
【0025】
ある実施形態では、プロセッサ14は、記憶デバイス23を備える。記憶デバイス23は、単一の記憶デバイスでもよいし、複数の記憶デバイスでもよい。さらに、記憶デバイス23は、ソリッドステート記憶システム、磁気記憶システム、光記憶システム、又は、他の任意の適切な記憶システム又はデバイスとすることができる。記憶デバイス23が命令セット20を記憶するのに適していてもよいことはいうまでもない。例えば、センサ12、12’及びユーザインタフェース16によって獲得されたデータ、計算されたポインティングベクトル21、並びに、ポインティングフィールド22といった、他のデータ及び情報が、記憶デバイス23に記憶及び分類されてもよい。ある実施形態では、ユーザの身体の一部の位置を示す予め定義されたベクトルノード24を、次の読み出しのために計算して記憶デバイス23に記憶することができる。任意の数のさまざまなベクトルノード24を、ポインティングベクトル21を決定するために、計算し記憶できることはいうまでもない。さらに、それぞれのベクトルノード24が、ユーザの身体の任意の部分を示すことができることはいうまでもない。
【0026】
プロセッサ14は、更に、プログラム可能なコンポーネント25を備えることができる。プログラム可能なコンポーネント25は、例えば、センサ12、12’及びユーザインタフェース16といった、インタフェースシステム10の他の任意のコンポーネントと通信できることはいうまでもない。ある実施形態では、プログラム可能なコンポーネント25は、プロセッサ14の処理機能を管理及びコントロールするのに適している。特に、プログラム可能なコンポーネント25は、命令セット20を修正し、プロセッサ14が受信した信号及び情報の分析をコントロールするのに適している。プログラム可能なコンポーネント25が、センサ12及びユーザインタフェース16を管理及びコントロールするのに適していることはいうまでもない。さらに、プログラム可能なコンポーネント25が、記憶デバイス23にデータ及び情報を記憶させ、記憶デバイス23からデータ及び情報を引き出すように構成されていることはいうまでもない。
【0027】
ユーザインタフェース16は、車両11と関連した機能をコントロールするために、任意のデバイス又はコンポーネント(例えば、ボタン、タッチスクリーン、ノブなど)を備えることができる。ユーザインタフェース16を、例えば、ボタン又はコントロール装置といった、単一のデバイスと定義することができることはいうまでもない。さらに、ユーザインタフェース16は、車両11全体にわたるさまざまな位置に配置可能であることはいうまでもない。
【0028】
図示のように、ユーザインタフェース16は、ユーザに可視出力を示すためのディスプレイ26を備える。1を含む任意の数のディスプレイ26が使用可能であることはいうまでもない。さらに、二次元ディスプレイ、三次元ディスプレイ、タッチスクリーンなどの、任意の型のディスプレイが使用可能であることはいうまでもない。
【0029】
図の実施形態では、ディスプレイ26は、その上に示されたユーザが係合可能な複数のボタン28を有するタッチ感知ディスプレイ(すなわちタッチスクリーン)である。ボタン28は、例えば、ナビゲーションシステム、ラジオ、インターネットに接続するのに適した通信デバイス、及び、クライメイトコントロールシステムといった、車両システム30の実行可能な機能と関連している。しかしながら、任意の車両システムを、ユーザが係合可能なボタン28と関連させることができる。さらに、任意の数のボタン28を、例えばハンドル又はコンソール上などの、車両11全体にわたるさまざまな位置に具備及び配置させることが可能であることはいうまでもない。
【0030】
動作中、ユーザは、タッチレスな方法でインタフェースシステム10と相互作用する。プロセッサ14は、ユーザの位置に関する入力信号(例えばセンサ信号)及び情報を絶えず受信する。プロセッサ14は、ユーザのポインティングベクトル21を決定して、ポインティングベクトル21に応答してユーザインタフェース16の個人化された設定(又はアクティブ化)を生成するために、命令セット20に基づいて入力信号及び情報を分析する。ディスプレイ26と一体化するか、車両11全体にわたるさまざまな位置に(例えば、ハンドル、ダッシュボード、コンソール、又は、センタースタックに)配置された、ユーザが係合可能なボタン28の1つと(タッチレスな方法で)ユーザが相互作用できることはいうまでもない。
【0031】
非限定的な例として、ユーザの肢の少なくとも1つの画像が取り込まれる。画像は、ポインティングベクトル21を計算するプロセッサ14に、センサ信号を介して出力される。さらに、非限定的な例として、投影型静電容量センサ12’をセンサ12’の検出ゾーン内でユーザの身体の肢の存在を検出するために使用することができる。センサ12’によって集められた情報は、ポインティングベクトル21を計算するプロセッサ14に、センサ信号を介して出力される。
【0032】
プロセッサ14は、ユーザインタフェース16に対するユーザの肢(例えば、指、手、腕)の位置を決定するために、入力信号(例えば、センサ信号)を分析する。非限定的な例として、センサ信号によって示された画像データは、取り込まれた画像内で肢を定義するために、プロセッサ14によって分析される。ある実施形態では、取り込まれた画像のピクセルが、ユーザの肢の周端部を定義するために、分析(例えば、閾値分析)される。
【0033】
一旦、画像内で肢が定義されると、ユーザインタフェース16に最も近いユーザの肢の一部(例えば指先)の相対位置が決定可能となる。ユーザインタフェース16に対する肢の位置を、ユーザインタフェース16の公知の位置、又は、更に、従来技術において公知の画像処理技術に基づいて、計算可能であることはいうまでもない。さらに、投影型静電容量センサ12’が、従来技術において理解されるように、センサ12’の容量検出ゾーンで検出された外乱に基づいて、ユーザの肢を位置決定できることはいうまでもない。当業者によって理解されるように、他のセンサ及び位置決定技術を使用することが可能である。
【0034】
ユーザインタフェース16に最も近いユーザの肢の部分の相対位置は、ベクトルノード24の1つとして記憶される。ユーザの肢のさまざまな部分をベクトルノード24が表し、記憶することができることはいうまでもない。非限定的な例として、ユーザの肩の位置が、ベクトルノード24の別の1つとして、独立して推定され、記憶される。ユーザの身体の任意の部分の位置が、推定可能であることはいうまでもない。しかしながら、ユーザが車両11内にいる間に、ユーザの身体の比較的静的な部分(例えば、肩、臀部など)の位置を推定するときに、充分な処理結果が獲得されている。
【0035】
また、プロセッサ14は、ベクトルノード24のうちの少なくとも2つに最適線形アルゴリズムを適用することによって、ポインティングベクトル21を計算することができる。複数のベクトルノード24を、入力信号の分析に基づいてプロセッサ14が生成可能であることはいうまでもない。更に、さまざまな最適線形アルゴリズム及び演算式を、ベクトルノード24上にポインティングベクトル21を「適合させる(fit)」ために使用できることはいうまでもない。
【0036】
一旦ポインティングベクトル21が生成されると、プロセッサ14は、ユーザインタフェース16(又は、例えば、ユーザが係合可能なボタン28の1つといった、プロセッサ14と通信する任意のコンポーネント)へのポインティングベクトル21の拡張をシミュレートする。ポインティングベクトル21が交差するユーザインタフェース16(又は、他のコンポーネント、例えばユーザが係合可能なボタン28)の部分は、ポインティングフィールド22の中心を示す。ポインティングフィールド22の中心点のまわりの許容差範囲は、プロセッサ14及び命令セット20の予め定義されたセッティングによって、定義することができる。
【0037】
ユーザインタフェース16は、ユーザのポインティングベクトル21に基づいて、プロセッサ14によって自動的に設定される。非限定的な例として、プロセッサ14は、自動的に、ユーザの手の検出された位置及び計算されたポインティングベクトル21に応答して、ディスプレイ26に示される可視出力を設定する。さらに、非限定的な例として、プロセッサ14は、ユーザのポインティングベクトル21に基づいて、ユーザインタフェース16(例えば、ボタン28)と関連した実行可能な機能を設定する。プロセッサ14が、計算されたポインティングベクトル21のポインティングフィールド22内にあるユーザが係合可能なボタン28の1つ(又は、他のコントロールデバイス)を設定(例えば、指定)可能であることはいうまでもない。さらに、ユーザが係合可能なボタン28(又は、コントロールデバイス)が一旦指定されると、ユーザが、関連機能を実行するために、ボタン28を起動できることはいうまでもない。
【0038】
個人化された設定(即ち、指定(指示、明示))の例は、図3及び図4に示される。図3に図示のように、ユーザ(例えば、車両11のドライバ)が、ユーザが係合可能なボタン28の中心の1つを指さし、センサ12、12’のうちの少なくとも1つが、検出ゾーン内でユーザの肢を検出する。ユーザインタフェース16に最も近い肢の部分は、ベクトルノード24の1つとして記憶される。加えて、ユーザの肩の位置が推定され、ベクトルノード24の別の1つとして記憶される。そして、プロセッサ14は、ベクトルノード24のうちの少なくとも2つに最適線形アルゴリズムを適用することによって、ポインティングベクトル21を計算することができる。プロセッサ14は、ユーザインタフェース16の方へ、ポインティングベクトル21の拡張をシミュレートする。ポインティングベクトル21が交差するユーザインタフェース16の一部は、ポインティングフィールド22の中心を示す。
【0039】
図示のように、ボタン28の中心の1つは、ポインティングフィールド22内にあり、指定されたボタン28’となる。例えば、指定されたボタン28’を、ボタン28の非指定のものより、高い輝度で照らすことができる。更なる例として、指定されたボタン28’を、ボタン28の非指定のものの大きさと比較して、ディスプレイ26で拡大させることができる。更に非限定的な例として、ボタン28’の指定された1つが、指定(即ち、設定)の状態を示すために、専用の光源(図示せず)で照らされる。ある実施形態では、視覚的なアイコン(図示せず)又はカーソルが、ポインティングフィールド22の位置のユーザにビジュアルキューを提供するために、ポインティングフィールド22内でディスプレイ26に示される。
【0040】
図4に示すように、ユーザ(例えば、車両11の同乗者)が、ユーザが係合可能なボタン28の右の1つを指さし、センサ12、12’のうちの少なくとも1つが、検出ゾーン内でユーザの肢を検出する。複数のベクトルノード24が、ユーザの検出された肢のさまざまな部分に割り当てられる。そして、プロセッサ14は、ベクトルノード24のうちの少なくとも2つに最適線形アルゴリズムを適用することによって、ポインティングベクトル21を計算することができる。プロセッサ14は、ユーザインタフェース16の方へ、ポインティングベクトル21の拡張をシミュレートする。ポインティングベクトル21が交差するユーザインタフェース16の一部は、ポインティングフィールド22の中心を示す。
【0041】
図示のように、ボタン28の中心の1つは、ポインティングフィールド22内にあり、指定されたボタン28’となる。例えば、指定されたボタン28’を、ボタン28の非指定のものより、高い輝度で照らすことができる。更なる例として、指定されたボタン28’を、ボタン28の非指定のものの大きさと比較して、ディスプレイ26で拡大させることができる。更に非限定的な例として、ボタン28’の指定された1つが、指定(即ち、設定)の状態を示すために、専用の光源(図示せず)で照らされる。ある実施形態では、視覚的なアイコン(図示せず)又はカーソルが、ポインティングフィールド22の位置のユーザにビジュアルキューを提供するために、ポインティングフィールド22内でディスプレイ26に示される。
【0042】
ある実施形態では、ユーザのポインティングフィールド22内の視覚的な出力だけが、完全に照らされ、ポインティングフィールド22の外の視覚的な出力は抑制され、或いは不可視とされる。ユーザのポインティングベクトル21が変化すると、ユーザインタフェース16は、ユーザのポインティングフィールド22内でディスプレイ26の視覚的な出力を目立たせるか或いは強調するように、自動的に設定される。ユーザインタフェース16の任意の視覚的な出力が、上記の例の指定されたボタン28’と同じように設定できることはいうまでもない。さらに、ユーザインタフェース16のさまざまな設定を、ユーザのポインティングベクトル21の任意の変化のレベルに基づいて、使用できることはいうまでもない。さらに、任意のユーザインタフェース、ボタン、又はコントロールデバイス(例えば、クライメイトコントロール、無線コントロール)を、ユーザがタッチレスな方法で関連機能を実行するために、ポインティングフィールド22内に指定できることはいうまでもない。
【0043】
一旦ユーザインタフェース16の少なくとも一部(又は他のコンポーネント、例えば、ユーザが係合可能なボタン28)が指定される(目立たせる、強調される)と、ユーザは、ユーザの身体の肢に関する予め定義されたジェスチャを実行することによって、タッチレスな方法で、指定された部分(例えばボタン28’)と係合することができる。例えば、ユーザは、指定されたボタン28’と「係合する(engage)」ために、指によるトリガを引く運動をシミュレートすることができる。予め定義されたジェスチャを、例えば音声指令又は物理的係合(すなわち、ハンドル上のボタンを押す)といった、別のコントロールと組み合わせて、命令を発動させるために使用することができる。ある実施形態では、ユーザ(例えば、車両同乗者)が、例えば、前照燈及び故障警告灯のコントロール装置といった、特定のコンポーネント、及び、ユーザが係合可能なボタン28から閉め出される。
【0044】
ユーザが、ユーザインタフェース16及び実行可能な関連機能の設定を手動で修正できることはいうまでもない。さらに、インタフェースシステム10が、ユーザインタフェースの自動設定に関する選択的なコントロールを提供できることはいうまでもない。例えば、ユーザが、ポインティングモード又はタッチレスモードを開始しない限り、ユーザインタフェース16は、デフォルト設定にいつでも復帰することができる。このユーザインタフェース16は、ユーザのポインティングベクトル21と関連した個人化された設定に自動的に設定される。
【0045】
インタフェースシステム10及びユーザインタフェース16を設定する方法は、ユーザの位置及び計算されたポインティングベクトル21に基づいた、ユーザインタフェース16のリアルタイムの個人化を提供する。その結果、ポインティングフィールド22内のユーザインタフェース16の一部にユーザの注意を集中させて、非集中の視覚出力によってもたらされる注意散漫を最小にする。
【0046】
上記の説明から、当業者は、本発明の重要な特徴を容易に確認することができ、その趣旨及び範囲から逸脱することなく、さまざまな使用及び状況に適応させるために、本発明にさまざまな変更及び修正を加えることができる。
【符号の説明】
【0047】
10 インタフェースシステム
12 12’ センサ
14 プロセッサ
16 ユーザインタフェース
18 放射エネルギーの発生源
20 命令セット
21 ポインティングベクトル
22 ポインティングフィールド
23 記憶デバイス
24 ベクトルノード
25 プログラム可能なコンポーネント
26 ディスプレイ
28、28’ ボタン
30 車両システム

【特許請求の範囲】
【請求項1】
車両システムをコントロールするためのユーザインタフェースと、
ユーザの肢の位置を検出して、肢の位置を示すセンサ信号を生成するためのセンサと、
前記センサ及び前記コントロールデバイスと通信をするプロセッサと、
を備える、適応インタフェースシステムであって、
前記プロセッサは、前記センサ信号を受信し、前記センサ信号を命令セットに基づいて分析してユーザのポインティングベクトルを決定し、ユーザの前記ポインティングベクトルに基づいて前記ユーザインタフェースを設定する
ことを特徴とするインタフェースシステム。
【請求項2】
前記ユーザインタフェースは、前記車両システムの実行可能な機能と関連したユーザが係合可能なボタンを含む、請求項1に記載のインタフェースシステム。
【請求項3】
前記ユーザインタフェースは、車両の内部に配置される、請求項1に記載のインタフェースシステム。
【請求項4】
前記センサは、少なくともユーザの肢の画像を取り込むためのトラッキングデバイスである、請求項1に記載のインタフェースシステム。
【請求項5】
前記センサは、投影型静電容量センサである、請求項1に記載のインタフェースシステム。
【請求項6】
前記センサは、前記ユーザインタフェースに対するユーザの肢の位置を検出するために、前記ユーザインタフェースと一体化される、請求項1に記載のインタフェースシステム。
【請求項7】
前記命令セットは、前記ユーザインタフェースに対するユーザの肢の位置を決定するためのアルゴリズムである、請求項1に記載のインタフェースシステム。
【請求項8】
前記命令セットは、前記ユーザインタフェースに対するユーザの肢の位置及びユーザの身体の別の部分の推定位置に基づいて、前記ポインティングベクトルを決定するためのアルゴリズムである、請求項1に記載のインタフェースシステム。
【請求項9】
前記肢は、ユーザの指、手及び腕の少なくとも1つである、請求項1に記載のインタフェースシステム。
【請求項10】
ユーザの肢の位置の検出を容易にするために、ユーザの少なくとも一部を照らす電磁放射の発生源を更に備える、請求項1に記載のインタフェースシステム。
【請求項11】
車両の内部に配置されるユーザインタフェースであって、車両システムの状況を示した情報をユーザに通信するためのディスプレイを有するユーザインタフェースと、
ユーザの肢の位置を検出して、前記ユーザインタフェースに最も近いユーザの肢の一部の位置を示したセンサ信号を生成するためのセンサと、
ユーザの身体の一部の推定位置を示したベクトルノードを記憶するための記憶デバイスと、
前記センサ、前記記憶デバイス及び前記ユーザインタフェースと通信するプロセッサと、
を備える、車両用適応インタフェースシステムであって、
前記プロセッサは、前記センサ信号を受信し、少なくとも前記ユーザインタフェースに最も近いユーザの肢の一部の位置と前記ベクトルノードとに基づいて、ユーザの肢のポインティングベクトルを決定し、前記ディスプレイに示される特定の視覚的な出力を強調するように、ユーザの肢の前記ポインティングベクトルに基づいて前記ディスプレイを設定する
ことを特徴とするインタフェースシステム。
【請求項12】
前記センサは、ユーザの少なくとも肢の画像を取り込むためのトラッキングデバイスである、請求項11に記載のインタフェースシステム。
【請求項13】
前記センサは、投影型静電容量センサである、請求項11に記載のインタフェースシステム。
【請求項14】
前記センサは、前記ユーザインタフェースに対するユーザの肢の一部の位置を検出するために、前記ユーザインタフェースと一体化される、請求項11に記載のインタフェースシステム。
【請求項15】
前記プロセッサは、少なくとも前記ユーザインタフェースに最も近いユーザの肢の部分の位置及び前記ベクトルノードに基づいて最適線を計算することによって、前記ポインティングベクトルを決定する、請求項11に記載のインタフェースシステム。
【請求項16】
前記肢は、ユーザの指、手及び腕の少なくとも1つである、請求項11に記載のインタフェースシステム。
【請求項17】
前記プロセッサは、ユーザのポインティングフィールド内で視覚的な出力の一部を目立たせるように、ユーザの肢の前記ポインティングベクトルに基づいて、前記ディスプレイを設定する、請求項11に記載のインタフェースシステム。
【請求項18】
ディスプレイを設定するための方法であって、
車両システムのコントロールをユーザインタフェースに提供する工程と、
ユーザの身体の肢の少なくとも一部の位置を検出するためにセンサを提供する工程と、
ユーザの身体の予め定められた部分の推定位置と関連したベクトルノードを定義する工程と、
ユーザの身体の肢の位置及び前記ノードから導出されるポインティングベクトルを決定する工程と、
前記ポインティングベクトルのポインティングフィールド内に前記ユーザインタフェースの少なくとも一部を指定するように、前記ポインティングベクトルに基づいて前記ユーザインタフェースを設定する工程と、
を含む方法。
【請求項19】
ユーザが前記ユーザインタフェースと相互作用する間、前記ベクトルノードは、前記ユーザインタフェースに対して実質的に静的な、ユーザの身体の一部を示す、請求項18に記載の方法。
【請求項20】
前記ポインティングベクトルを決定する工程は、少なくとも前記ユーザインタフェースに最も近いユーザの肢の部分の位置及び前記ベクトルノードに基づいて最適線を計算することを含む、請求項18に記載の方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate