説明

乗り物の電子デバイスのための乗り物のユーザーインターフェースユニット

【課題】乗り物のユーザーインターフェースユニットのメニュー構造および他の情報のプレゼンテーションを向上させること、および、乗り物の電子デバイスおよび乗り物自身の機能をコントロールするためのまたはパラメーターを調整するためのメニューアイテムの選択を容易にすること。
【解決手段】3次元(3D)ディスプレイユニット、ディスプレイコントロールユニットおよび入力ユニットを含む乗り物の電子デバイスのための乗り物のユーザーインターフェースユニットを提供する。

【発明の詳細な説明】
【技術分野】
【0001】
(技術分野)
本発明は、ディスプレイユニット、ディスプレイコントロールユニット、および入力ユニットを含む乗り物の電子デバイスのための乗り物のユーザーインターフェースユニット、このような乗り物のユーザーインターフェースユニットを含む乗り物のインフォテインメントシステム、および乗り物の電子デバイスを作動させる方法に関する。
【背景技術】
【0002】
(背景)
現代の乗り物において、乗り物自身またはインフォテインメントシステムのような乗り物内に提供された電子デバイスに関する複数の機能は、コントロールされる必要があり、これは概して、ドライバーまたは乗客のどちらかによって実行される。コントロールまたはディスプレイされる必要がある機能および情報は、ドライバー補助システム、自動車ラジオのようなマルチメディアシステム、または、(例えばGSMまたはUMTSを介して)通信するモバイル通信システムに関し得る。乗り物の外側からの情報も、ドライバーまたは乗客に利用可能にされる必要があり得、例えば、自動車から自動車への通信または自動車からインフラへの通信のようなカードから世界への通信である。ヘッドユニットは、通常、ディスプレイとコントロール要素を有するユーザーインターフェースを含んで提供され、ユーザーはコントロール要素によってこれらの機能をコントロールし得る。このようなヘッドユニットのフェースプレートのために、ダッシュボード内において、機械的コントロール要素とディスプレイで共有されなければならない限られた量のスペースだけが利用可能である。それゆえ、比較的に少ない情報のみがユーザーに同時にディスプレイされ得、数個のコントロール要素は膨大な種類の機能を動作およびコントロールする必要がある。これは概して、メインメニューと複数のサブメニューを有するメニューツリー構造を提供することにより達成され、特定の機能に到達するために、ユーザーはメニューツリー構造をブラウズしなければならない。このように、ユーザーは、特定のメニューアイテムに到達する前に、メニュー構造を通して移動するためにかなりの量の時間を費やす必要がある。ドライバーがヘッドユニットのユーザーインターフェースを使用するとき、ドライバーは、その時間の間に、交通から注意をそらされ、このことは危険な状況を引き起こし得る。
【0003】
音声認識によりこのようなシステムを作動させることは、システムによる多数の質問とまだ必要であるメニュー構造をブラウズすることとに起因して、概して、かなりの改善を引き起こすわけではない。
【0004】
ある一定の改善は、タッチスクリーンによって達成され得、タッチスクリーンにおいて、機械的コントロール要素の代わりに、グラフィカルコントロール要素が提供され得、このようにして、類似なサイズのフェースプレート上により大きいディスプレイサイズを可能にする。それでも、利用可能な物理的なスペースはまだかなり限られていて、非常に限られた数の情報またはメニューアイテムだけがディスプレイされ得、その表示は概して、特に複雑なメニュー構造に対してわかりにくい。さらに、コントロール要素は概して図形的に比較的に小さくて、いずれの触覚のフィードバックを提供しない、それにより、タッチスクリーンを含むユーザーインターフェースは、特にドライバーにとって、乗り物内で作動させるのは困難である。さらに、タッチスクリーンは、(例えば指紋で)汚れ得、このことは、ディスプレイされるイメージの品質を悪化する。
【発明の概要】
【発明が解決しようとする課題】
【0005】
それゆえに、このようなメニュー構造および他の情報のプレゼンテーションを向上させることと、乗り物の電子デバイスおよび乗り物自身の機能をコントロールするためのまたはパラメーターを調整するためのメニューアイテムの選択を容易にすることとが望ましい。
【課題を解決するための手段】
【0006】
(要約)
従って、前述の欠点のうちの少なくともいくつかを軽減し、特にメニューアイテムまたは情報のより大きくかつより明らかに配置されたディスプレイとより直感的な操作を可能にする改善された乗り物のユーザーインターフェースユニットを提供することに対するニーズがある。
【0007】
このニーズは独立請求項の特徴によって満たされる。従属請求項において、本発明の好ましい実施形態が記述される。
【0008】
本発明の1つの側面によって、3次元(3D)ディスプレイユニット、ディスプレイコントロールユニットおよび入力ユニットを含む乗り物の電子デバイスのための乗り物のユーザーインターフェースユニットが提供される。3Dディスプレイユニットは、ディスプレイを含み、作動中に、ユーザーがディスプレイを観察するとき、イメージが、ユーザーに、少なくとも部分的にディスプレイの前方に位置するバーチャル3次元(3D)イメージとして知覚されるようにイメージをディスプレイするように適合される。ディスプレイコントロールユニットは、前記バーチャル3Dイメージが異なる空間の平面に位置している少なくとも2つの領域を有する3次元(3D)オブジェクトを含むように3Dディスプレイユニットによるイメージの生成をコントロールするように適合され、各領域が複数の相互作用要素を含む。入力ユニットは、ユーザーコントロールされるオブジェクトの位置を検出し、バーチャル3Dイメージに含まれる前記相互作用要素のうちの1つの選択として、ユーザーコントロールされるオブジェクトの所定のバリエーションの検出を解釈するように適合される。
【0009】
互いに関連付けられ得る異なる空間の平面上の異なる領域内のメニューアイテムまたは情報要素であり得る相互作用要素をディスプレイすること(例えば、特定の情報またはパラメーターをディスプレイすること)によって、利用可能な情報のより完全なプレゼンテーションと、大量の情報の場合でさえも明らかな配置とが達成され得る。異なるバーチャルな平面上の相互作用要素の配置は、混乱が少なく、特定の情報要素またはメニューアイテムへのより速いアクセスを可能にし得る。ユーザーコントロールされるオブジェクトによるバーチャル3Dイメージ内の相互作用要素を選択する可能性は、ユーザーインターフェースの直感的な操作および複数の相互作用要素への速いアクセスを可能にする。
【0010】
本発明の一実施形態によると、入力ユニットは、ユーザーコントロールされるオブジェクトの所定のバリエーションが、バーチャル3Dイメージ内の相互作用要素の所定の距離内へのユーザーコントロールされるオブジェクトの動きを含むように構成され、このような動きの検出は対応する相互作用要素の選択として解釈される。
【0011】
ユーザーコントロールされるオブジェクトは、例えば、ユーザーの手の一部、または手に持たれまたはユーザーの手に取り付かれるオブジェクトであり得る。このように、ユーザーは、ユーザーコントロールされるオブジェクトでバーチャル3Dイメージ内の相互作用要素を簡単に(バーチャルに)触れることによって相互作用要素を動作させ得、結果的に速いかつ直感的な操作をもたらす。
【0012】
ユーザーコントロールされるオブジェクトは、例えば、ユーザーの指であり得る。次に、入力ユニットは、指によって行われたジェスチャーまたは指の動きを、相互作用要素のうちの1つの選択として検出するように適合され得る。例えば、バーチャル3Dイメージ内の相互作用要素へのフリッピングまたは指のポインティングまたは触れは選択として検出され得る。
【0013】
ディスプレイコントロールユニットは、バーチャル3Dイメージ内において、観察するユーザーにより近く位置している3Dオブジェクトの領域が、少なくとももう1つの領域の情報要素が選択可能でないのに対して、相互作用要素が選択可能であるアクティブ領域であるように、イメージの生成をコントロールするように構成され得る。ユーザーインターフェースのロバストの動作は、このようにして保証され得、相互作用要素の偶然の選択が防止され得る。
【0014】
ディスプレイコントロールユニットは、3Dオブジェクトが、多面体、好ましくは立方体または直方体であり、前記領域の各々が多面体の面に対応するように、イメージの生成をコントロールするように構成され得る。多面体の各面はいくつかの相互作用要素を含み得るので、相互作用要素、例えばメニューアイテムまたは情報要素は、明らかに配置され得、利用可能な情報の理解しやすいプレゼンテーションは可能になる。他の実施形態は必然的に考えられ、それらのディスプレイコントロールユニットは、相互作用要素を含む領域を配置するための多面体以外の3Dオブジェクトを生成するように構成され、例えば球状キャップに対応する領域の各々を有する球体を生成し得る。
【0015】
ディスプレイコントロールユニットは、多面体が、その面のうちの1つが観察するユーザーに面しているように配向されるように、イメージの生成をコントロールするように構成され得、前記面に対応する領域は、相互作用要素が選択可能であるアクティブ領域である。他の面上の相互作用要素は、このようにして、まだ目に見え得、まだそれらは、配置に依存して、選択可能である場合もない場合もある。
【0016】
入力ユニットは、ユーザーコントロールされるオブジェクトの第2の所定のバリエーションを検出し、少なくとも2つの領域の空間的な配置を変えるコマンドとして解釈するように適合され得る。
【0017】
3Dオブジェクトとしての多面体の前例において、ディスプレイコントロールユニットは、異なる相互作用要素を含む多面体の異なる面が観察するユーザーに面しているように多面体を回転することによって、少なくとも2つの領域の空間的な配置を変えるように適合され得る。そのように、3Dオブジェクトの簡単な回転によって、異なるメニューリストまたは情報リストは、ユーザーに提示され得、このような情報の明らかかつ簡潔なプレゼンテーションを可能にする。
【0018】
特定の実施形態において、入力ユニットは、前記領域のうちの1つの領域の境界またはコーナーでの観察するユーザーの指の配置と所定の距離にわたる指の動きとを、ユーザーコントロールされるオブジェクトの第2の所定のバリエーションとして検出するように適合される。立方体は、次に、例えば、バーチャルイメージ内の立方体のコーナーに指を置くことと、所望の方向に指をドラッグすることとによって回転され得る。
【0019】
ディスプレイコントロールユニットは、前記領域のうちの少なくとも1つが、前記領域のうちのもう1つの観察を可能にするように部分的に透明であるように、イメージの生成をコントロールするようにさらに構成され得る。多面体の面は、このようにして、他の面およびその上に位置している相互作用要素の観察を可能にするように、部分的に透明であり得る。透明性は、0%から約50%まで、好ましくは約10%から約20%までの範囲内にあり得る。0%の値は不透明である領域に対応する。透明性のこれらの範囲内からの値を使うとき、観察するユーザーに面する領域はまだ明らかに目に見えて、その一方で、前記透明な領域により覆われる他の領域内の相互作用要素の位置は既に予期され得る。
【0020】
ユーザーインターフェースは、限られた物理的なスペースだけがユーザーインターフェースのディスプレイに利用可能である場合にも、このようにして、さらに複雑なメニュー構造の理解しやすい表示およびメニューアイテムの簡単な選択を可能にし得る。これは、3次元内に相互作用要素を配置するために複数のバーチャルな平面が用いられた結果である。
【0021】
ユーザーインターフェースの操作を容易にするために、ユーザーインターフェースユニットは、ユーザーコントロールされるオブジェクトがバーチャル3Dイメージ内の3Dオブジェクトの要素の所定の距離内に入るとき、および/または相互作用要素のうちの1つの要素の選択が検出されるとき、ユーザーに音響フィードバックを提供するように適合され得る。音響フィードバックは、異なるイベントのための異なる音を含み得る。例えば、ユーザーコントロールされるオブジェクトが3Dオブジェクトのバーチャルな平面に接近するとき、1つの音は再生され得、その一方で、ユーザーコントロールされるオブジェクトが相互作用要素の付近に移動されるとき、もう1つの音は再生され得る。ユーザーコントロールされるオブジェクト、例えば指は、次に、相互作用要素を選択するための特定のジェスチャーを行い得、このことは、音で再度確認され得る。従って、ユーザーコントロールされるオブジェクトによるユーザーインターフェースの操作は、容易にされ、触覚のフィードバックは要求されない。
【0022】
入力ユニットは、ユーザーコントロールされるオブジェクトの位置とそれのバリエーションを検出するために、バーチャル3Dイメージが生成される位置に隣接しているエリアをモニターするように適合されるステレオスコピックカメラをさらに含み得る。ステレオスコピックカメラによって、3次元内におけるユーザーコントロールされるオブジェクトの位置の正確な決定は達成され得、オブジェクトの位置とジェスチャーとの信頼可能な評価は可能になる。ステレオスコピックカメラは、単一ステレオスコピックカメラとしてまたは2つ以上の別個の普通のカメラとしてインプリメントされ得る。
【0023】
乗り物のユーザーインターフェースユニットは、ユーザーがディスプレイを観察する視点をモニターするカメラをさらに含み得る。ユーザーインターフェースは、次に、ユーザーの検出された視点に基づいて、ディスプレイを観察するユーザーによりバーチャル3Dイメージが見られる位置を決定するように適合され得る。カメラによって、ユーザーのヘッド、顔または目の位置は、例えば、ユーザーの視点を決定するために追跡され得る。視点をモニターするために使われるカメラは、前述のステレオスコピックカメラと同じであり得る。3Dディスプレイユニットのディスプレイが異なる方向から観察される場合、バーチャル3Dイメージは異なる空間の位置で生成され得、視点をモニターするためのカメラはこれらの空間の位置の決定を可能にする。このような視点の補正を行うことによって、ユーザーコントロールされるオブジェクトによるバーチャル相互作用要素のアクティブ化の精度は向上させられ得る。このように、バーチャル3Dオブジェクトに対して、ユーザーコントロールされるオブジェクトが位置している位置を正確に決定することは可能になる。
【0024】
本発明の一実施形態において、3Dディスプレイユニットは、オートステレオスコピック3Dディスプレイユニットである。オートステレオスコピックディスプレイユニットを有することにより、ユーザーは、特定のタイプのゴーグルまたはシャッターガラスのような追加の設備を要求することなしに、単にスクリーンを観察することによってバーチャル3Dイメージを知覚することが可能になる。
【0025】
他の実施形態において、3Dディスプレイユニットが、シャッターガラスを含み、ユーザーがディスプレイを観察するときにバーチャル3Dイメージを生成するように、交互フレームシークエンジング技術を用いることも可能である。
【0026】
3Dディスプレイユニットは、乗り物の電子デバイスのフェースプレート内に収納され得る。他のエンクロージャー内にそのユニットが収納されることも可能であり、そのユニットは、例えばヘッドレストに提供されるスクリーン内または乗り物の内部の他の位置にインプリメントされ得る。
【0027】
さらなる実施形態において、乗り物のユーザーインターフェースユニットは乗り物のヘッドユニットの一部である。乗り物の内部に提供される電子デバイスまたは乗り物自身の複数の機能は、このようにして、乗り物のユーザーインターフェースユニットによってコントロールされ得る。
【0028】
本発明のさらなる側面によると、前述のような乗り物のユーザーインターフェースユニットを含む乗り物のインフォテインメントシステムが提供される。
【0029】
本発明のさらなる側面は、前述の実施形態のうちの1つによる乗り物のユーザーインターフェースユニットを有する電子デバイスを含む乗り物のキャビンに関する。乗り物のキャビン内にユーザーの視点をモニターするための1つ以上のカメラが、ドライバーのヘッドおよび/または乗客のヘッドの位置をモニターするように取り付けられ得る。
【0030】
本発明のさらなる側面によると、乗り物の電子デバイスを動作させる方法が提供される。方法は、観察者が3Dディスプレイユニットのディスプレイを観察するとき、イメージが、ユーザーに、少なくとも部分的にディスプレイの前方に位置しているバーチャル3Dイメージとして知覚されるようにイメージを生成するステップを含む。その方法は、バーチャル3Dイメージが異なる空間の平面に位置している少なくとも2つの領域を有する3Dオブジェクトを含むように3Dディスプレイユニットによるイメージの生成をコントロールするステップと、(各領域が複数の相互作用要素を含む)、ユーザーコントロールされるオブジェクトの位置を検出し、バーチャル3Dイメージに含まれる前記相互作用要素のうちの1つの選択として、ユーザーコントロールされるオブジェクトの所定のバリエーションの検出を解釈するステップとさらに含む。
【0031】
本発明の方法によって、前略述された利点のものに類似している利点は達成され得る。
【0032】
本発明の方法の一実施形態によると、方法が前述の一実施形態の乗り物のユーザーインターフェースユニットによって行われ得、方法は対応する方法のステップを含み得る。
【0033】
特に、方法は、ユーザーコントロールされるオブジェクトの所定のバリエーションとしてバーチャル3Dイメージ内の相互作用要素の所定の距離内へのユーザーコントロールされるオブジェクトの動きの検出と、対応する相互作用要素の選択としてのこのような動きの検出の解釈とさらに含み得る。
【0034】
方法は、ユーザーコントロールされるオブジェクトのバリエーションとして、ユーザーの指によって行われるジェスチャーまたは指の動きの検出を含み得る。
【0035】
方法において、イメージの生成は、バーチャル3Dイメージ内の3Dオブジェクトが多面体であり、領域の各々が多面体の面に対応するようにコントロールされ得る。
【0036】
方法は、ユーザーコントロールされるオブジェクトの第2の所定のバリエーションの検出するステップと、少なくとも2つの領域の空間的な配置を変えるコマンドとしてのこのような第2の所定のバリエーションの解釈とさらに含み得る。空間的な配置は、多面体の異なる面が観察するユーザーに面するように多面体を回転することによって変えられ得る。
【0037】
方法は、ユーザーコントロールされるオブジェクトがバーチャル3Dイメージ内の3Dオブジェクトの要素の所定の距離内に入るとき、および/または相互作用要素のうちの1つの要素の選択が検出されるとき、ユーザーに音響フィードバックを提供するステップをさらに含み得る。
【0038】
方法は、ユーザーがディスプレイを観察する視点をモニターするステップをさらに含み得、ユーザーの検出された視点に基づいて、ディスプレイを観察するユーザーによりバーチャル3Dイメージが見られる位置を決定し得る。
【0039】
本発明の方法の前記実施形態は、本発明の乗り物のユーザーインターフェースユニットの対応する実施形態とともに略述された利点に類似している利点を達成する。
【0040】
前述の特徴と、まだ以下に説明されるべき特徴とは、本発明の範囲に外れることがなく、示されるそれぞれの結合だけではなく、他の結合または単独にも使われ得ることは理解されるべきである。
【0041】
上記課題を解決するために、本発明は、例えば、以下を提供する。
(項目1) 乗り物の電子デバイスのための乗り物のユーザーインターフェースユニットであって、該乗り物のユーザーインターフェースユニットは、
ディスプレイ(102)を含む3Dディスプレイユニット(101)であって、該3Dディスプレイユニットは、作動中に、ユーザー(140)が該ディスプレイ(102)を観察するとき、イメージが、該ユーザーに、少なくとも部分的に該ディスプレイ(102)の前方に位置するバーチャル3Dイメージ(110)として知覚されるようにイメージをディスプレイするように適合される、3Dディスプレイユニットと、
該バーチャル3Dイメージ(110)が異なる空間の平面に位置している少なくとも2つの領域(112、113)を有する3Dオブジェクト(111)を含むように該3Dディスプレイユニット(101)による該イメージの生成をコントロールするように適合されるディスプレイコントロールユニット(120)であって、各領域が複数の相互作用要素(115)を含む、ディスプレイコントロールユニットと、
ユーザーコントロールされるオブジェクト(150)の位置を検出し、該バーチャル3Dイメージ(110)に含まれる該相互作用要素(115)のうちの1つの選択として、該ユーザーコントロールされるオブジェクト(150)の所定のバリエーションの検出を解釈するように適合される入力ユニット(130)と
を含む、乗り物のユーザーインターフェースユニット。
(項目2) 上記入力ユニット(130)は、上記ユーザーコントロールされるオブジェクトの所定のバリエーションが、上記バーチャル3Dイメージ(110)内の相互作用要素(115)の所定の距離内への該ユーザーコントロールされるオブジェクトの動きを含むように構成され、該動きの検出は対応する相互作用要素(115)の選択として解釈される、上記項目に記載の乗り物のユーザーインターフェースユニット。
(項目3) 上記ディスプレイコントロールユニット(120)は、上記バーチャル3Dイメージ(110)内において、観察するユーザー(140)により近く位置している3Dオブジェクト(111)の領域が、少なくとももう1つの領域の情報要素が選択可能でないのに対して、上記相互作用要素(115)が選択可能であるアクティブ領域であるように、上記イメージの生成をコントロールするように構成される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目4) 上記ディスプレイコントロールユニット(120)は、上記3Dオブジェクト(111)が、多面体、好ましくは立方体または直方体であり、上記領域(112、113)の各々が該多面体の面に対応するように、上記イメージの生成をコントロールするように構成される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目5) 上記ディスプレイコントロールユニット(120)は、上記多面体が、上記面のうちの1つが上記観察するユーザー(140)に面しているように配向されるように、上記イメージの生成をコントロールするように構成され、該面に対応する領域は、上記相互作用要素が選択可能であるアクティブ領域である、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目6) 上記入力ユニット(130)は、上記ユーザーコントロールされるオブジェクトの第2の所定のバリエーションを検出し、上記少なくとも2つの領域(112、113)の空間的な配置を変えるコマンドとして解釈するように適合される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目7) 上記ディスプレイコントロールユニット(120)は、異なる相互作用要素を含む上記多面体の異なる面が上記観察するユーザーに面しているように該多面体を回転することによって、上記少なくとも2つの領域(112、113)の空間的な配置を変えるように適合される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目8) 上記入力ユニット(130)は、上記領域(112、113)のうちの1つの領域の境界またはコーナーで上記観察するユーザー(140)の指の配置と所定の距離にわたる該指の動きとを、上記ユーザーコントロールされるオブジェクトの第2の所定のバリエーションとして検出するように適合される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目9) 上記乗り物のユーザーインターフェースユニット(100)は、上記ユーザーコントロールされるオブジェクトが上記バーチャル3Dイメージ(110)内の上記3Dオブジェクト(111)の要素の所定の距離内に入るとき、および/または上記相互作用要素(115)のうちの1つの要素の選択が検出されるとき、上記ユーザー(140)に音響フィードバックを提供するように適合される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目10) 上記入力ユニット(130)は、上記ユーザーコントロールされるオブジェクトの位置とそれのバリエーションを検出するために、上記バーチャル3Dイメージ(110)が生成される位置に隣接しているエリアをモニターするように適合されるステレオスコピックカメラ(131)を含む、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目11) 上記ユーザー(140)が上記ディスプレイ(102)を観察する視点をモニターするカメラ(132)をさらに含み、上記ユーザーインターフェースユニット(100)は、該ユーザーの検出された視点に基づいて、該ディスプレイ(102)を観察する該ユーザーにより上記バーチャル3Dイメージ(110)が見られる位置を決定するように適合される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目12) 上記3Dディスプレイユニット(101)は、オートステレオスコピック3Dディスプレイユニットである、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目13) 上記3Dディスプレイユニット(101)は、上記乗り物の電子デバイスのフェースプレート内に収納される、上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット。
(項目14) 上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット(100)を含む乗り物のインフォテインメントシステム。
(項目15) 上記項目のいずれかに記載の乗り物のユーザーインターフェースユニット(100)を有する電子デバイスを含む乗り物のキャビン。
(項目16) 乗り物の電子デバイスの乗り物のユーザーインターフェースユニット(100)を作動させる方法であって、該方法は、
3Dディスプレイユニット(101)によって、ユーザー(140)が該3Dディスプレイユニット(101)のディスプレイ(102)を観察するとき、イメージが、該ユーザー(140)に、少なくとも部分的に該ディスプレイ(102)の前方に位置しているバーチャル3Dイメージ(110)として知覚されるようにイメージを生成するステップと、
該バーチャル3Dイメージ(110)が異なる空間の平面に位置している少なくとも2つの領域(112、113)を有する3Dオブジェクト(111)を含むように該3Dディスプレイユニット(101)による該イメージの生成をコントロールするステップであって、各領域が複数の相互作用要素(115)を含む、ステップと、
ユーザーコントロールされるオブジェクト(150)の位置を検出し、該バーチャル3Dイメージ(110)に含まれる該相互作用要素(115)のうちの1つの選択として、該ユーザーコントロールされるオブジェクト(150)の所定のバリエーションの検出を解釈するステップと
を含む、方法。
【0042】
(摘要)
本発明は乗り物の電子デバイスのための乗り物のユーザーインターフェースユニットに関し、乗り物のユーザーインターフェースユニットは、
ディスプレイ(102)を含む3Dディスプレイユニット(101)であって、3Dディスプレイユニットは、作動中に、ユーザー(140)がディスプレイ(102)を観察するとき、イメージが、ユーザーに、少なくとも部分的にディスプレイ(102)の前方に位置するバーチャル3Dイメージ(110)として知覚されるようにイメージをディスプレイするように適合される、3Dディスプレイユニットと、
バーチャル3Dイメージ(110)が異なる空間の平面に位置している少なくとも2つの領域(112、113)を有する3Dオブジェクト(111)を含むように3Dディスプレイユニット(101)によるイメージの生成をコントロールするように適合されるディスプレイコントロールユニット(120)であって、各領域が複数の相互作用要素(115)を含む、ディスプレイコントロールユニットと、
ユーザーコントロールされるオブジェクト(150)の位置を検出し、バーチャル3Dイメージ(110)に含まれる相互作用要素(115)のうちの1つの選択として、ユーザーコントロールされるオブジェクト(150)の所定のバリエーションの検出を解釈するように適合される入力ユニット(130)と
を含む。
【図面の簡単な説明】
【0043】
本発明の前述および他の特徴と利点とは、添付の図面とともに読むとき、以下の例示的な実施形態の詳細な記述からさらに明白になる。図面において、同様な参照数字は、同様の要素をさす。
【図1】図1は本発明の一実施形態による乗り物のユーザーインターフェースユニットの略図を示す。
【図2】図2は本発明の一実施形態による方法を説明するフローダイヤグラムである。
【図3A】図3Aから図3Cまでは、3Dディスプレイユニットによって3Dオブジェクトを含むバーチャル3Dイメージの生成、および本発明の一実施形態による3Dオブジェクトの特性を説明する略図を示す。
【図3B】図3Aから図3Cまでは、3Dディスプレイユニットによって3Dオブジェクトを含むバーチャル3Dイメージの生成、および本発明の一実施形態による3Dオブジェクトの特性を説明する略図を示す。
【図3C】図3Aから図3Cまでは、3Dディスプレイユニットによって3Dオブジェクトを含むバーチャル3Dイメージの生成、および本発明の一実施形態による3Dオブジェクトの特性を説明する略図を示す。
【発明を実施するための形態】
【0044】
(詳細な記述)
以下、本発明の実施形態は、添付の図面を参照して、詳細に記述される。図面が略図のみと見なすことと、図面内の要素が互いに等縮尺である必要がないこととに注意されるべきである。むしろ、さまざまな要素の表示は、それらの機能および通常の目的が当業者にとって明白になるように選ばれる。
【0045】
以下の実施形態の記述において、図面に示される機能ブロックまたはユニット内の実施形態の仕切りが、これらのユニットが必然的に物理的に別個のユニットとしてインプリメントされることを示すこととして解釈されないことも理解される。しかし、示されまたは記述される機能ブロックまたはユニットは、別個のユニット、回路、チップ、または回路要素としてインプリメントされ得る。しかし、1つ以上の機能ブロックまたはユニットは、なお、共通の回路、チップ、回路要素またはユニット内にインプリメントされ得る。
【0046】
図1は、ヘッドユニット、乗り物のインフォテインメントシステム、または他の乗り物の電子デバイスの一部であり得る乗り物のユーザーインターフェースユニット100の略図を示す。乗り物のユーザーインターフェースユニット100の作動をコントロールするディスプレイコントロールユニット120が提供される。乗り物のユーザーインターフェースユニット100は、共にディスプレイコントロールユニット120と通信している3Dディスプレイユニット101および入力ユニット130をさらに含む。
【0047】
図1の実施形態において、3Dディスプレイユニット101は、グラフィクスプロセッサー103と通信しているディスプレイ102を含む。グラフィクスプロセッサー103は、ディスプレイコントロールユニット120からディスプレイされるべき3Dイメージを含むイメージデータを受信し、ディスプレイ102のための対応する出力信号を生成するように適合される。3Dディスプレイユニット101は、オートステレオスコピックディスプレイユニットである。そのことは、ディスプレイ102を観察するユーザー140によってバーチャル3Dイメージ110として知覚されるイメージを、ディスプレイ102によって生成することが可能であることを意味する。このようなバーチャル3Dイメージ110は、ユーザー140にとってメガネをかける必要がなく、観察するユーザー140の1つの目に深さの知覚を生成するように要求される各ビューを投影することによって、ディスプレイ102により生成され得る(破線で概要的に説明される)。
【0048】
オートステレオスコピックディスプレイは、当業者に公知のある範囲の異なる技術によって実現され得、従って、このことはここではより詳細には記述しない。1つの技術は、例えばステレオスコピックカメラ131またはカメラ132によって、ユーザーのヘッドの位置を連続的にモニターすることと、それに応じた投影の光学系およびビューの内容の調整とを含む。各ビューの内容は、顔追跡技術を使って識別され得る目の位置に合わせられ得る。光線方向の関数としてディスプレイ102により放射される光の強度をコントロールするために、ディスプレイ102は、レンズの焦点面内に光の連続的にスキャンするスポット源を有する液晶ディスプレイを含み得る。レンズと光源は、ある1つの瞬間で1つの一般的な方向に全部伝わる光線を生成し、光線の方向は、液晶ディスプレイ上の3Dイメージの適切なビューのディスプレイに同期化され得る。このような技術において、ディスプレイ102のフレームレートは、観察するユーザー140の目が経時的に3Dイメージを統合するように2倍にされ得る。さらなるユーザー、例えば乗り物内の乗客の顔は追跡され得、これらのユーザーによるバーチャル3Dイメージの知覚をも可能にするように、ディスプレイ102のフレームレートはそれに応じて増やされ得る。
【0049】
3Dディスプレイユニット101とともに使われ得る他の技術は、マルチビューオートステレオスコピーを含み、これにおいて、ディスプレイ102は、観察者が存在し得る全ての位置に対してビューを投影する。可能なインプリメンテーションは、各ビュー用のピクセルを覆うレンズレットアレイを含み、ここで、レンズレットは、各ビューを構成するピクセルが限られた方向で目に見えるようにするように結合する。レンズレットのアレイの代わりに、回折格子またはスリットのアレイは使われ得る。回折格子によって、ビューの範囲を広げることは可能である。レンズレットアレイおよび回折格子の技術は、ビューの解像度とビューの数との積である解像度を有する下部のディスプレイを用いてインプリメントされ得る。このような高い解像度のディスプレイを使うことの代わりに、数個のビデオ投影はレンズの後方に整列され得る。レンズは、1つの投影に対応する各ビューを異なる方向で目に見えるようにする。
【0050】
理解され得るように、3Dディスプレイユニット101は、ユーザー140により知覚されるバーチャル3Dイメージ110を生成するためのある範囲の技術をインプリメントし得る。他の実施形態も考えられることは明らかであり、3Dディスプレイユニット101は、例えばユーザー140につけられるシャッターガラスをさらに含み得、異なるビューがユーザー140の目に交互で供給され、このことは、2倍のフレームレートでの通常のディスプレイ102の使用を可能にする。さらなる技術において、各ビューは、異なる偏光方向の光でディスプレイされ、それにより、対応する偏光メガネをつけることにより、ユーザー140の各目が所期のビューを受ける。
【0051】
ディスプレイコントロールユニット120は、バーチャル3Dイメージ110内に含まれるべき3Dオブジェクト111の一般的な情報を、グラフィクスプロセッサー130へ供給し得、グラフィクスプロセッサーは、両眼の深さの知覚(立体視)を生成するように、ユーザー140にディスプレイされる必要がある異なるビューを計算し得る。ディスプレイ102によってユーザー140にこれらの異なるビューが提供されるとき、ユーザー140はバーチャル3Dイメージ110を知覚する。本例において、3Dディスプレイユニット101は、バーチャル3Dイメージ110が、ディスプレイ102の前方、すなわち、ディスプレイ102と観察するユーザー140との間に形成するように構成され、その一方で、他の実施形態において、バーチャル3Dイメージは部分的にだけディスプレイ102の前方に位置し得る。
【0052】
ディスプレイ102が2次元(2D)イメージをディスプレイするようにも使われ得ることと、3Dディスプレイユニット101がインフォテインメントシステムのような乗り物の電子デバイスのディスプレイユニットであり得ることとは明らかである。このように、メニュー構造、ナビゲーション用の地図、マルチメディア情報またはメディアストリームは、ディスプレイ102上にディスプレイされ得る。
【0053】
ディスプレイコントロールユニット120は、マイクロプロセッサーによってインプリメントされ得る。マイクロプロセッサーは、乗り物の電子デバイスのマイクロプロセッサーであり得、このようなものとしてさらなる機能を行い得る。ディスプレイコントロールユニットの他のインプリメンテーションは、例えば、複数のマイクロプロセッサーとして、特別な用途のマイクロプロセッサーとして、デジタル信号マイクロプロセッサー(DSP)として、特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイとしても考えられる。マイクロプロセッサーは、マイクロプロセッサーにインターフェースするメモリー(示されていない)内に格納されるプログラムに従って動作し得る。
【0054】
他のインプリメンテーションにおいて、グラフィクスプロセッサー103は提供されなくてもよく、その機能はディスプレイコントロールユニット120によって行われ得る。3Dディスプレイユニット101は、このようにして、ディスプレイコントロールユニット120をインプリメントするマイクロプロセッサーで動くソフトウェアコード部分を含み得る。グラフィクスプロセッサー103および前記マイクロプロセッサーが単一チップ内に提供されることも可能である。
【0055】
乗り物のユーザーインターフェースユニット100は、入力ユニット130をさらに含む。入力ユニット130は、評価ユニット135にインターフェースするステレオスコピックカメラ131を含む。ステレオスコピックカメラ131は、バーチャル3Dイメージが形成するエリアをモニターする。概して、ディスプレイ102の前方のエリアをモニターするように適合される。ステレオスコピックカメラ131は、観察される領域の2つの異なるビューを取得するための2つの光学システムを含む。図1の実施形態において、2つの光学システムが互いに隣接して示されているが、他の実施形態において、それらは分けて配置され得る。一例として、光学システムは、ディスプレイ102の各側に配置され得る。ステレオスコピックカメラ131の各光学システムは、モニターされるべき領域のビューを示すイメージを取得するためのCCDアレイを含み得る。取得されたイメージデータは評価ユニット135によって受信され、評価ユニットは、ステレオスコピックカメラ131により提供される2つの異なるビューから、観察される領域の3D表示を再現するように適合される。ユーザー140の手150のようなユーザーコントロールされるオブジェクトの位置は、それに応じて3次元に決定され得る。評価ユニット135によって行われ得るさらなる動作は、モニターされる領域またはエリア内におけるオブジェクトの識別と、検出されるオブジェクトを追跡することとを含む。評価ユニット135は、ステレオスコピックカメラ131から受信されたイメージ内のユーザーコントロールされるオブジェクトの所定のバリエーションを検出および解釈するようにさらに適合される。図1の実施形態において、ユーザーコントロールされるオブジェクトは、人差し指のようなユーザー140の手150の人差し指である。その位置、その位置の変化および人差し指の形状のバリエーションは、評価ユニット135によって、供給されるイメージから得られ得る。評価ユニット135が所定のバリエーションを検出するとき、評価ユニットはコマンドとしてそれを解釈する。このようなユーザーコントロールされるオブジェクトの所定のバリエーションは、例えば、手150の人差し指の先端がバーチャル3Dイメージ110の要素の付近に移動されるとき、または、手150の人差し指がジェスチャーを行うときのようなユーザーコントロールされるオブジェクトの形状が変わるときにおける特定位置へのユーザーコントロールされるオブジェクトの動きを含み得る。
【0056】
もちろん、これらは数例に過ぎず、ユーザーコントロールされるオブジェクトがインプリメントされ得る態様の可能性の範囲、およびそれのバリエーションがどのようにコマンドとして解釈され得る態様の可能性の範囲が存在する。このような例は、ペン、リング、またはユーザーの手に位置している他のマーカーの使用を含み、それらの位置の変化またはそれらによるジェスチャーのパフォーマンスは、コマンドとして検出され得る。ユーザーの指の検出は、ユーザーが追加のオブジェクトを持ちまたはつけることが要求されないという利点を有する。
【0057】
乗り物のユーザーインターフェースユニット100によって乗り物の電子デバイスを作動させるために、3Dオブジェクト111を含むバーチャルイメージ110は、3Dオブジェクト111が、バーチャル3Dイメージ110の2つ異なる空間の平面に位置している複数の相互作用要素115を有する第1領域112と複数の相互作用要素115を有する第2領域113とを含むように、ディスプレイコントロールユニット102および3Dディスプレイユニット101により生成される。もちろん、3Dオブジェクトの領域が位置している異なる空間の平面の位置は角度によって変わり、この角度でディスプレイがユーザーにより観察され、従って、平面がバーチャル空間の平面とも呼ばれ得る。図1の例において、ユーザー140により知覚される3Dオブジェクト111は、立方体または直方体であり、領域112と113の各々は立方体の面に対応する。相互作用要素115は、サブメニューまたはメインメニューのメニューアイテムであり得、まだユーザー140にディスプレイされるべき情報を有する情報要素も含み得る。3Dオブジェクト111の形状および位置と、オブジェクトの面上にディスプレイされる相互作用要素115とは、ディスプレイコントロールユニット120によりコントロールされる。立方体または直方体の他に、ディスプレイコントロールユニット120は、他のタイプの多面体のような他のタイプの3Dオブジェクトのバーチャルイメージ、例えば八角形のプリズムなどを生成するように適合され得る。3Dオブジェクト111が数個の面を含むとき、各面は異なるメニューまたはサブメニュー、または特定の種類の情報およびコントロール要素をディスプレイし得る。3次元の表示を使用することによって、同時にディスプレイされ得る情報の量は、このようにして、増やされ得る。
【0058】
ディスプレイコントロールユニット120は、オブジェクト111の面が部分的に透明であるように、バーチャル3Dイメージ110の生成をコントロールするようにさらに適合され、それにより、ユーザー140により見られるようなオブジェクト111の裏面上に位置している面も目に見えるようにする。このように、特定の一部の情報または特定のコントロール要素、例えばメニューアイテムは、ユーザー140によって、迅速的に見つけおよびアクセスされ得る。透明性をアクティブ化または非アクティブ化するために、または透明性の値を選択するために、ユーザーには、コントロール要素、例えば物理的なボタンまたは相互作用要素の形状のコントロール要素が提供され得る。透明性の値は、0%から約50%まで、好ましくは約10%から約20%までの範囲内にあり得、0%が不透明な領域または面に対応し(不透明な領域により覆われる領域が目に見えない)、100%が完全に透明な(または目に見える)領域または面に対応する。特に、10%−20%の透明性の範囲において、透明な面自身は明らかに目に見えて、その一方で、覆われる面の上の相互作用要素は透けて見えて、このようにして、既に知覚可能である。
【0059】
この状況は図3Aから3Cまでに概要的に説明される。図3Aにおいて、領域112はディスプレイ102を観察するユーザーに面し、第2領域113は、面112の部分的な透明性のゆえに、立方体111の側面として目に見える。図3Cで説明されるように、このようにして、面113上に位置している相互作用要素は、面113がユーザーに面する後に、立方体111の回転により容易にアクセスされ得る。
【0060】
ディスプレイコントロールユニット120が3Dディスプレイユニット101によるバーチャル3Dイメージ110の生成をコントロールするので、ディスプレイコントロールユニットは、バーチャルイメージ110が生成される位置で利用可能な情報を有し、このようにしてスペース内で3Dオブジェクト111が位置している情報を有する。この情報は、ユーザー入力の検出のために評価ユニット135へ提供される。評価ユニット135が、ここで、ユーザー140により観察されるような3Dオブジェクト111の位置とユーザーの手150の位置とを利用可能になるので、評価ユニットは、ユーザーコントロールされるオブジェクトがバーチャルイメージ110の要素を近づきまたはバーチャルに触れるときを決定し得る。入力ユニット130は、ここで、3Dオブジェクト111の特定の要素へのバーチャルな触れと特定のジェスチャーとをユーザーのコマンドとして認知するにように適合される。1つの可能なインプリメンテーションにおいて、3Dオブジェクト111の面112の相互作用要素115のうちの1つへのバーチャルの触れは、例えば相互作用要素に関連付けられる機能を実行することによって、対応する相互作用要素を選択および実行するコマンドとして認知される。ユーザーの手150の人差し指の先端がバーチャルイメージ110内のそれぞれの相互作用要素からの所定の距離内に入るとき、バーチャルな触れは検出される。第1のバーチャルな触れによる相互作用要素の事前選択と第2のバーチャルな触れによる関連する機能の実行とを行うこと、または所定の最小の期間を有するバーチャルな触れの後に機能の実行などの他のインプリメンテーションが類似に考えられる。事前選択の場合において、対応する相互作用要素は、ユーザーに光学的フィードバックを提供するように、バーチャルイメージ110において強調され得る。
【0061】
相互作用要素を選択およびアクティブ化または実行することとは別に、ユーザーは、オブジェクトの異なる面上の相互作用要素にアクセスするために、3Dオブジェクト111を回転するコマンドを発し得る。これは図3A−3Cで説明される。図3Aにおいて、3Dオブジェクト111の面112はユーザーに面する。立方体111の回転を行うために、ユーザーは、自分の手150の人差し指を、バーチャル3Dイメージ内の立方体のコーナーに置く。この位置での人差し指の先端のこの配置は、ステレオスコピックカメラ131と入力ユニット130の評価ユニット135とにより認知される。図3Bの矢印で示されるように、ユーザーは、ここで、3Dオブジェクト111が回転されるべき方向に自分の人差し指を移動することによって、ジェスチャーを行う。再び、このジェスチャーは、手150の位置および/または形状を追跡することによって入力ユニット130により認知され、3Dオブジェクトを対応する方向へ回転するコマンドとして解釈される。次に、このコマンドはディスプレイコントロールユニット120へ供給され、ディスプレイコントロールユニットは、3Dオブジェクトの所望の回転を行い、オブジェクトが回転された対応するバーチャルイメージを生成する3Dディスプレイユニット101へ対応するコマンドを発する。バーチャルイメージを生成することは、3Dディスプレイユニットが、ディスプレイ102によって、ユーザー140によりバーチャルイメージ110として知覚される2つのビューを生成およびディスプレイすることを意味する。図3Cは作動の結果を説明し、そこで、3Dオブジェクト111は、ここで、第2の面113がユーザーに面するように配向される。
【0062】
いくつかの実施形態では、ユーザー140に面する領域に位置している相互作用要素のみが選択可能である一方で、偶然のアクティブ化を防止するために、他の領域内の相互作用要素はディセーブルされており、他の実施形態では、全領域の相互作用要素がアクティブであり得る。
【0063】
乗り物のユーザーインターフェースユニット100は、概して乗り物のドライバーまたは乗客によって動作され、その人たちの位置は通常知られている。異なる乗り物の乗客またはドライバーに観察されるディスプレイ102が異なる角度を有するために、バーチャルイメージ110は、各ユーザーのための異なる空間の位置で生成される。従って、乗り物のユーザーインターフェースユニット100には、それぞれのユーザーにより見られるバーチャルイメージ110の位置を正しく決定するように、ユーザーが現在コマンドを入力しようとしていることを検出する手段が提供され得る。現代の乗り物において、乗り物の占有状態を決定するセンサーは提供され、これらのセンサーからの情報は使われ得る。乗り物内のドライバーまたは他の乗客の位置が対応する座席位置により一般的に所定であるので、バーチャルイメージ110の位置の優れた見積りが、さらなるソースからの情報なしに作られ得る。
【0064】
バーチャル110の位置の決定は、ユーザー140のヘッドの位置を決定することによってさらに向上され得る。これは、例えば、ステレオスコピックカメラ131により取得されるイメージを使用することによって、または1つ以上の追加のカメラ132を提供することによって達成され得る。カメラ132は、乗り物のキャビン内の位置に配置され得、その位置から乗客のヘッドの位置がモニターされ得る。乗り物内に乗客のヘッドの位置をモニターするカメラが、例えば安全システムの一部として、既に提供されている場合、このようなカメラにより提供される情報も、もちろん使われ得、すなわち、カメラ132はこのようなシステムのカメラであり得る。評価ユニット135は、ユーザーヘッドの位置を決定し、それに従って角度を決定するために、ユーザーヘッドのヘッド追跡または顔追跡を行い得、ユーザーはこの角度でディスプレイ102を観察する。この情報とディスプレイコントロールユニット120により生成される3Dイメージ上の情報を使用することによって、評価ユニット135は、ユーザー140がバーチャル3Dイメージ110を観察する空間の位置を正確に決定し得る。3Dオブジェクト111上に提供される相互作用要素の空間の位置は、このようにして正確に決定され得、ユーザー140がユーザーコントロールされるオブジェクト、例えば自分の指を使うことによって、相互作用要素のロバストかつ正確なアクティブ化を可能にする。
【0065】
作動を容易にするために、乗り物のユーザーインターフェースユニット100は、ユーザーコントロールされるオブジェクトがバーチャル3Dイメージ110内の3Dオブジェクトの要素の所定の距離内に入るとき、ユーザー140に音響フィードバックを提供するように適合される。これは、ユーザーインターフェースを動作させるためにユーザーがディスプレイ102を集中しなければならない時間の量を減らす。異なるイベントのために異なる音響が再生されるユーザーフィードバックを提供するために、さまざまなインプリメンテーションが考えられることは明らかである。一例としては、ユーザーの指が3Dオブジェクト111に近づくとき、第1のオーディオ信号は、例えば、距離に従って周波数を変えて提供され得、ユーザーの指が相互作用要素をバーチャルに触れるとき、第2の音が提供され得、および、ユーザーの指が3Dオブジェクト111の面のコーナーまたはエッジに位置しているとき、第3の音が提供され得る。さらなる音響信号は、相互作用要素の事前選択、アクティブ化または実行のために、または3Dオブジェクト111の回転が行われるときのために提供され得る。その結果として、一見して乗り物のユーザーインターフェースユニット100を動作させることが可能になる。音響フィードバック信号は、評価ユニット135により生成され得、増幅器および拡声器(示されていない)によって放たれ得る。
【0066】
従って、乗り物のユーザーインターフェースユニット100は、メニューアイテムまたは情報要素のような複数の相互作用要素が明らかに配置および容易にアクセスされ得るバーチャルで3次元のグラフィカルユーザーインターフェースを提供する。3Dオブジェクトの各面がメニュー構造の一部、例えば、メニューまたはサブメニューをディスプレイし得るので、サブメニューのメニューアイテムは、階層的により高いメニューを全てブラウズする必要なしに、アクセスされ得る。
【0067】
乗り物のユーザーインターフェースユニット100が、ユーザー相互作用のための機械的コントロール要素のようなさらなるコンポーネント、さらなるディスプレイコンポーネントなどを含み得ることは明らかである。図1に示されている機能ユニットは、さまざまな方法でインプリメントされ得る。評価ユニット135は、マイクロプロセッサー、例えば前述のようにディスプレイコントロールユニット120をインプリメントする同一のマイクロプロセッサー、または別個のマイクロプロセッサーによってインプリメントされ得る。ディスプレイコントロールユニット120と評価ユニット135とは、例えば、このようなマイクロプロセッサーで動くソフトウェアコード部分としてインプリメントされ得る。従って、それらは物理的に別個のユニットである必要がない。このようなマイクロプロセッサーは、ユーザー相互作用のためのユーザーインターフェースユニット100を使う乗り物の電子デバイスのマイクロプロセッサーであり得る。乗り物の電子デバイスは、乗り物の機能と、マルチメディアまたはナビゲーションシステムのような他の電子デバイスとをコントロールするヘッドユニットであり得、またはそれは自動車ステレオのようなあまり複雑ではないシステムであり得る。乗り物のユーザーインターフェースユニット100は、乗り物の電子デバイスと分けてでも提供され得、それは、例えばヘッドレスト内にインプリメントされ得、有線または無線通信を使って乗り物の電子デバイスと通信し得る。乗り物の後方乗客コンパートメントの乗客は、このようにして、乗り物のユーザーインターフェースユニット100を使用し得る。このように、乗り物のコンパートメント内に、複数(例えば少なくとも2つ)のこのようなユーザーインターフェースユニットを提供することも可能である。
【0068】
図2は本発明の実施形態による方法のフローダイヤグラムを示す。図1の乗り物のユーザーインターフェースユニット100は、図2に関して以下に記述される方法を行うように適合され得る。第1ステップ201において、イメージは、イメージがディスプレイを観察するユーザーによりバーチャル3Dイメージとして知覚されるように、例えば3Dディスプレイユニット101によって、生成される。ステップ202において、イメージの生成は、少なくとも2つの領域(例えば、面112と113)を含むバーチャル3Dイメージを生成するようにコントロールされ、各領域が複数の相互作用要素を含み、各領域が異なる空間の平面に配置される。このステップは、ディスプレイコントロールユニット120によって行われ得る。異なる空間の平面を使用することによって、ユーザーに提示され得る情報の量は増やされ得る。ステップ203において、ユーザーの手および人差し指の位置は、例えば入力ユニット130によって、検出される。
【0069】
次のステップ205において、ユーザーがバーチャル3Dイメージを観察するスペースの位置は、オプションとしてユーザーがディスプレイを観察する視角を決定するためにユーザーの顔を追跡するための追加のカメラを使用することによって、決定される。ユーザーの手の人差し指の先端とバーチャルイメージ内に含まれる要素との相対的な位置は、このようにして、正確に決定され得る。
【0070】
ユーザーが、ここで、自分の人差し指の先端を、3Dオブジェクト上に配置される相互作用要素から所定の距離へ移動する場合、これは、例えば入力ユニット130によって、検出され、対応する相互作用要素の選択として解釈される。これは結果的に、音量設定または温度設定のようなパラメーターの調整のような相互作用要素に関連付けられる機能の実行、ナビゲーションアプリケーションにおける目的地の選択、メディアファイルの選択および再生、モバイル電話ネットワークまたは自動車間通信システムを介した通信の開始などをもたらし得る。
【0071】
ユーザーが、ここで、3Dオブジェクトの異なる面に位置している相互作用要素をより詳しく調べまたはアクセスしたい場合、ユーザーは、自分の指を用いて、相互作用要素を含む少なくとも2つの領域の空間的な配置を変えるコマンドを与え得る。ステップ207において、(図1と3の例の3Dオブジェクトの面の)複数の領域のうちの1つの領域のコーナーまたはエッジから所定の距離内へのユーザーの手の人差し指の動きと、所定の方向への人差し指のさらなる動きとは、このようなコマンドとして解釈される。図3A−Cに関して前述のように、ユーザーは、例えば自分の指の先端を立方体のコーナーに置き得、1つの方向へドラッグし得、そのことの結果、所望の相互作用要素を含む面がユーザーに面しているように立方体が回転される。特定のサブメニューの相互作用要素は、サブメニューがメニュー階層の最も低いレベルに配置されている場合でも、このようにして、簡単なジェスチャーによってアクセスされ得、他の方法では、階層内により高いところの複数のメニューレベルを通り抜けてからのみアクセス可能にとなる。
【0072】
説明された前述の実施形態が、本発明の範囲から外れることがなく、さまざまな方法で修正され得ることは明らかである。例えば、ディスプレイコントロールユニット120は、3Dオブジェクトのような立方体または直方体を生成するように適合され得るだけではなく、相互作用要素が置かれる領域を形成する球状キャップを有する他のタイプの多面体または球体も考えられ得る。
【0073】
いくつかの領域は、情報要素の形態、例えば乗り物の電子システムまたは他の乗り物のシステムの現在状態、ナビゲーション情報などを示す相互作用要素だけを含み得る一方で、他の領域は、機能を実行すること、さらなるサブメニューに入ること、パラメーターを調整することなどのためのメニューアイテムの形態の相互作用要素を含み得る。2つのタイプの相互作用要素の結合も可能である。前述のように、本発明による乗り物のユーザーインターフェースユニットの機能ユニットも、さまざまな方法で、例えば共通または別個の集積回路として、マイクロプロセッサーで動くソフトウェアコードなどとしてインプリメントされ得る。
【0074】
前記から理解され得るように、本発明の乗り物のユーザーインターフェースユニットは、ドライバー補助システム、自動車間通信からのような情報および他の要素、乗り物のエンターテイメントシステムおよび通信システムからの情報、インターネット接続および対応するバーチャルコントロール要素を介して得られる情報の視覚プレゼンテーションを可能にし得る。相互に接続され得る複数のバーチャル平面上の情報の視覚プレゼンテーションは、利用可能な情報の理解しやすいプレゼンテーションも速いアクセスも可能にする。指の簡単な動作によって所望の平面上に焦点を合わせることで、例えば、部分的に透明な立方体の回転によって、バーチャルな触れ(バーチャルタッチスクリーン)による要素のアクティブ化をインプリメントすることによって、ディスプレイされるべき情報は直感的な方法で操作され得る。同様に、乗り物の電子デバイスのコントロール要素の動作は、本発明の乗り物のユーザーインターフェースユニットによって、容易にされおよび速くさせられる。調整されるべきパラメーターは、速くおよび簡単にアクセスされ得る。限られたスペース内での複数の情報のプレゼンテーションを可能にすることによって、乗り物、道路、インフォテインメントシステムまたは環境に関するような異なる種類の情報は、ディスプレイされ得、また、互いに関連され得る。ヘッドユニットのための乗り物内の利用可能な物理的なスペースはかなり限られているので、情報を配置するためのより多いスペースを提供するより大きいバーチャルな表示は有利である。従来のタッチスクリーンと比較すると、バーチャルタッチスクリーンを使用することは、ディスプレイ上の指紋の形成とディスプレイ上のごみの堆積とを防止し、衛生標準を向上させる。
【符号の説明】
【0075】
100 ユーザーインターフェースユニット
101 3Dディスプレイユニット
102 ディスプレイ
103 グラフィクスプロセッサー
120 ディスプレイコントロールユニット
130 入力ユニット
140 ユーザー

【特許請求の範囲】
【請求項1】
乗り物の電子デバイスのための乗り物のユーザーインターフェースユニットであって、該乗り物のユーザーインターフェースユニットは、
ディスプレイ(102)を含む3Dディスプレイユニット(101)であって、該3Dディスプレイユニットは、作動中に、ユーザー(140)が該ディスプレイ(102)を観察するとき、イメージが、該ユーザーに、少なくとも部分的に該ディスプレイ(102)の前方に位置するバーチャル3Dイメージ(110)として知覚されるようにイメージをディスプレイするように適合される、3Dディスプレイユニットと、
該バーチャル3Dイメージ(110)が異なる空間の平面に位置している少なくとも2つの領域(112、113)を有する3Dオブジェクト(111)を含むように該3Dディスプレイユニット(101)による該イメージの生成をコントロールするように適合されるディスプレイコントロールユニット(120)であって、各領域が複数の相互作用要素(115)を含む、ディスプレイコントロールユニットと、
ユーザーコントロールされるオブジェクト(150)の位置を検出し、該バーチャル3Dイメージ(110)に含まれる該相互作用要素(115)のうちの1つの選択として、該ユーザーコントロールされるオブジェクト(150)の所定のバリエーションの検出を解釈するように適合される入力ユニット(130)と
を含む、乗り物のユーザーインターフェースユニット。
【請求項2】
前記入力ユニット(130)は、前記ユーザーコントロールされるオブジェクトの所定のバリエーションが、前記バーチャル3Dイメージ(110)内の相互作用要素(115)の所定の距離内への該ユーザーコントロールされるオブジェクトの動きを含むように構成され、該動きの検出は対応する相互作用要素(115)の選択として解釈される、請求項1に記載の乗り物のユーザーインターフェースユニット。
【請求項3】
前記ディスプレイコントロールユニット(120)は、前記バーチャル3Dイメージ(110)内において、観察するユーザー(140)により近く位置している3Dオブジェクト(111)の領域が、少なくとももう1つの領域の情報要素が選択可能でないのに対して、前記相互作用要素(115)が選択可能であるアクティブ領域であるように、前記イメージの生成をコントロールするように構成される、請求項1または2に記載の乗り物のユーザーインターフェースユニット。
【請求項4】
前記ディスプレイコントロールユニット(120)は、前記3Dオブジェクト(111)が、多面体、好ましくは立方体または直方体であり、前記領域(112、113)の各々が該多面体の面に対応するように、前記イメージの生成をコントロールするように構成される、請求項1〜3のいずれか1項に記載の乗り物のユーザーインターフェースユニット。
【請求項5】
前記ディスプレイコントロールユニット(120)は、前記多面体が、前記面のうちの1つが前記観察するユーザー(140)に面しているように配向されるように、前記イメージの生成をコントロールするように構成され、該面に対応する領域は、前記相互作用要素が選択可能であるアクティブ領域である、請求項4に記載の乗り物のユーザーインターフェースユニット。
【請求項6】
前記入力ユニット(130)は、前記ユーザーコントロールされるオブジェクトの第2の所定のバリエーションを検出し、前記少なくとも2つの領域(112、113)の空間的な配置を変えるコマンドとして解釈するように適合される、請求項1〜5のいずれか1項に記載の乗り物のユーザーインターフェースユニット。
【請求項7】
前記ディスプレイコントロールユニット(120)は、異なる相互作用要素を含む前記多面体の異なる面が前記観察するユーザーに面しているように該多面体を回転することによって、前記少なくとも2つの領域(112、113)の空間的な配置を変えるように適合される、請求項4と6に記載の乗り物のユーザーインターフェースユニット。
【請求項8】
前記入力ユニット(130)は、前記領域(112、113)のうちの1つの領域の境界またはコーナーで前記観察するユーザー(140)の指の配置と所定の距離にわたる該指の動きとを、前記ユーザーコントロールされるオブジェクトの第2の所定のバリエーションとして検出するように適合される、請求項6または7に記載の乗り物のユーザーインターフェースユニット。
【請求項9】
前記乗り物のユーザーインターフェースユニット(100)は、前記ユーザーコントロールされるオブジェクトが前記バーチャル3Dイメージ(110)内の前記3Dオブジェクト(111)の要素の所定の距離内に入るとき、および/または前記相互作用要素(115)のうちの1つの要素の選択が検出されるとき、前記ユーザー(140)に音響フィードバックを提供するように適合される、請求項1〜8のいずれか1項に記載の乗り物のユーザーインターフェースユニット。
【請求項10】
前記入力ユニット(130)は、前記ユーザーコントロールされるオブジェクトの位置とそれのバリエーションを検出するために、前記バーチャル3Dイメージ(110)が生成される位置に隣接しているエリアをモニターするように適合されるステレオスコピックカメラ(131)を含む、請求項1〜9のいずれか1項に記載の乗り物のユーザーインターフェースユニット。
【請求項11】
前記ユーザー(140)が前記ディスプレイ(102)を観察する視点をモニターするカメラ(132)をさらに含み、前記ユーザーインターフェースユニット(100)は、該ユーザーの検出された視点に基づいて、該ディスプレイ(102)を観察する該ユーザーにより前記バーチャル3Dイメージ(110)が見られる位置を決定するように適合される、請求項1〜10のいずれか1項に記載の乗り物のユーザーインターフェースユニット。
【請求項12】
前記3Dディスプレイユニット(101)は、オートステレオスコピック3Dディスプレイユニットである、請求項1〜11のいずれか1項に記載の乗り物のユーザーインターフェースユニット。
【請求項13】
前記3Dディスプレイユニット(101)は、前記乗り物の電子デバイスのフェースプレート内に収納される、請求項1〜12のいずれか1項に記載の乗り物のユーザーインターフェースユニット。
【請求項14】
請求項1〜13のうちの1項に記載の乗り物のユーザーインターフェースユニット(100)を含む乗り物のインフォテインメントシステム。
【請求項15】
請求項1〜13のうちの1項に記載の乗り物のユーザーインターフェースユニット(100)を有する電子デバイスを含む乗り物のキャビン。
【請求項16】
乗り物の電子デバイスの乗り物のユーザーインターフェースユニット(100)を作動させる方法であって、該方法は、
3Dディスプレイユニット(101)によって、ユーザー(140)が該3Dディスプレイユニット(101)のディスプレイ(102)を観察するとき、イメージが、該ユーザー(140)に、少なくとも部分的に該ディスプレイ(102)の前方に位置しているバーチャル3Dイメージ(110)として知覚されるようにイメージを生成するステップと、
該バーチャル3Dイメージ(110)が異なる空間の平面に位置している少なくとも2つの領域(112、113)を有する3Dオブジェクト(111)を含むように該3Dディスプレイユニット(101)による該イメージの生成をコントロールするステップであって、各領域が複数の相互作用要素(115)を含む、ステップと、
ユーザーコントロールされるオブジェクト(150)の位置を検出し、該バーチャル3Dイメージ(110)に含まれる該相互作用要素(115)のうちの1つの選択として、該ユーザーコントロールされるオブジェクト(150)の所定のバリエーションの検出を解釈するステップと
を含む、方法。

【図1】
image rotate

【図2】
image rotate

【図3A】
image rotate

【図3B】
image rotate

【図3C】
image rotate


【公開番号】特開2011−210239(P2011−210239A)
【公開日】平成23年10月20日(2011.10.20)
【国際特許分類】
【出願番号】特願2011−35242(P2011−35242)
【出願日】平成23年2月21日(2011.2.21)
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.GSM
【出願人】(504147933)ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー (165)
【Fターム(参考)】