説明

非触覚ユーザインタフェース用場面プロファイル

【課題】非触覚検知に基づくコンピュータシステム用ユーザインタフェースを提供する。
【解決手段】非触覚インタフェースを実行するコンピュータに接続するディスプレイの近くに1人以上のユーザを有する場面の画像を獲得するステップと、前記画像を処理し、前記1人以上のユーザのプロファイルを生成するステップとを有する。コンテンツはその後、前記ディスプレイ上に上映するため前記プロファイルに対応して選択される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、コンピュータシステム用ユーザインタフェースに関し、特に非触覚検知に基づくユーザインタフェースに関するものである。
【背景技術】
【0002】
多くの異なるタイプのユーザインタフェース装置及び方法が現在使用可能である。一般的な触覚インタフェース装置には、コンピュータキーボード、マウスおよびジョイスティックがある。タッチスクリーンは表示領域内の指又は他の物体による接触の存在と場所を検知する。赤外線遠隔制御装置は広く使用され、そして「ウェアラブル」ハードウェア装置も遠隔制御のため開発されている。
【0003】
ユーザの体の一部の3次元(3D)検知に基づくコンピュータインタフェースも提案されている。例えば、特許文献1は、深さ認知センサを使用した動作認知システムを開示しており、それはここに参照され採り入れられる。3Dセンサは、典型的に室内でユーザ近くに配置されるが、位置情報を提供し、それは、体の対象部位の生成する動作を識別するのに使用される。動作はある時間内のその体の部位の形状、位置及び角度に基づいて認知される。動作は関連電子機器への入力を画定するため分類される。
【0004】
本出願に参照として採り入れられた文書は本出願の一体的な一部と見做される。但し、本出願において明示的又は暗示的に定義された言葉が上記参照として採り入れられた文書の定義と異なる場合は、本出願の定義を使用することとする。
【0005】
さらに特許文献2は双方向ビデオディスプレイシステムを開示しており、それはここに参照され採り入れられる。そこでは、ディスプレイ画面が視覚画像を表示し、カメラがディスプレイ画面の前に位置する双方向通信領域内の物体に関する3D情報を獲得する。コンピュータシステムがディスプレイ画面に対し、物体の変化に応答して視覚画像を変更するように指示する。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】WO 03/071410
【特許文献2】米国特許7,348,963
【特許文献3】WO 2007/043036
【特許文献4】WO 2007/105205
【特許文献5】WO 2008/120217
【特許文献6】WO 2007/132451
【特許文献7】WO IB2010/051055
【特許文献8】米国特許出願公報12/854,187
【特許文献9】米国特許出願公報13/036,022
【発明の概要】
【0007】
本発明の1実施形態によれば、非触覚インタフェースを実行するコンピュータに接続するディスプレイの近くに、1人以上のユーザを有する場面の画像を獲得するステップと、前記画像を処理し、前記1人以上のユーザのプロファイルを生成するステップと、そして、前記プロファイルに対応して、前記ディスプレイ上に上映するためのコンテンツを選択するステップと、を有することを特徴とする方法が提供される。
【0008】
本発明のある実施形態によれば、ディスプレイと、そして、非触覚インタフェースを実行するコンピュータと、を有し、前記コンピュータは、前記ディスプレイの近くに1人以上のユーザを有する場面の画像を獲得し、前記画像を処理して前記1人以上のユーザのプロファイルを生成し、そして、前記ディスプレイ上に上映するコンテンツを前記プロファイルに対応して選択するように構成される、ことを特徴とする装置が提供される。
【0009】
さらに本発明のある実施形態によれば、コンピュータソフトウェア製品であって、プログラム命令を記憶する非一過性のコンピュータ読み取り可能媒体を有し、前記命令は、非触覚インタフェースを実行するコンピュータに読み取られた場合に、前記コンピュータに場面のディスプレイの近くに1人以上のユーザを有する画像を獲得させ、前記画像を処理して前記1人以上のユーザのプロファイルを生成させ、そして、前記プロファイルに対応して、前記ディスプレイ上に上映するためのコンテンツを選択させる、ことを特徴とするコンピュータソフトウェア製品が提供される。
【0010】
本発明は、事例による図を参照した本発明の実施形態の以下の詳細な説明により十分に理解されよう。
【図面の簡単な説明】
【0011】
【図1】本発明の実施形態による、非触覚3Dユーザインタフェースを実行するコンピュータの鳥瞰図である。
【図2】本発明の実施形態による、場面プロファイルの定義及び更新の方法を示すフロー図である。
【図3】本発明の実施形態による、非触覚3Dユーザインタフェースにより制御されるディスプレイの近くの1群の人からなる場面の鳥瞰図である。
【発明を実施するための形態】
【0012】
(概論)
非触覚3Dユーザインタフェースを実行する(コンピュータやテレビなどの)コンテンツ配送システムは、1人以上の人の異なるグループにより使用可能であり、ここで各グループは異なるコンテンツの嗜好性を持つ。例えば、子供たちのグループは、マンガを見ることを好むだろうし、十代は社会的ウェブアプリの実行を好み、大人はニュースやスポーツ放映を見ることを好むだろう。
【0013】
本発明の実施形態は、コンテンツ配送システム上での上映のためのコンテンツを選択するのに使用可能なプロファイル(ここでは「場面プロファイル」と呼ばれる)を定義し維持するための方法とシステムを提供する。プロファイルは識別された物体と、コンテンツ配送システムの近く(「場面」とも呼ばれる)の個人(即ち、ユーザ)の特性とに基づくことが可能である。以下で詳述されるように、プロファイルは場面内の個人の数、及び個人の性別、年齢、民族性のような情報を含む。ある実施形態では、プロファイルは従事(即ち、特定の個人が提供されたコンテンツを見ている)及び反応(例えば、顔の表情を介した)などの行動情報を含む。
【0014】
一度プロファイルが生成されると、プロファイルは識別された物体(例えば、ある個人が飲料缶を場面に持ち込む)、場面内の個人の数、個人の特性、及び選択されてテレビで上映されるコンテンツ、の変化を反映して更新可能である。プロファイルは、個人に提供されるコンテンツの組合せを画面上のメニューにより選択するのに使用可能であり、そしてプロファイルは、メニューから選択されテレビで上映されたコンテンツで更新可能である。プロファイルはまた、場面内の個人の視線の方向や顔の表情(即ち、提供されたコンテンツに反応して)などの特性で更新可能である。例えば、プロファイルはテレビを見ている個人の数及び彼らの顔の表情(例えば、笑っている又は顔をしかめている)で更新可能である。
【0015】
プロファイルをコンテンツの推奨の選択に使用することにより、場面内の個人の興味を標的とするコンテンツの「最良の推定」が得られ、それにより彼らの視聴または双方向通信体験が促進される。更に、本発明の実施形態では、場面を分析することにより、場面内の個人の人口統計および嗜好を標的とする宣伝を個人別にカスタム化可能である。
【0016】
(システムの記述)
図1は本発明の実施形態による、ユーザ22がコンピュータ26を操作するための非触覚3Dユーザインタフェース20の鳥瞰図である。非触覚3Dユーザインタフェース20はコンピュータに接続する3D検知装置24に基づいており、3D検知装置24は、ユーザの体又は少なくとも手30のような体の一部を含むある場面の3D場面情報を獲得する。3D検知装置24又は別のカメラ(不図示)は場面のビデオ画像も獲得してよい。3D検知装置24により獲得された情報はコンピュータ26により処理され、コンピュータはそれに従ってディスプレイを駆動させる。
【0017】
3Dユーザインタフェース20を実行するコンピュータ26は、ユーザ22の3Dマップを再構築するため3D検知装置24により生成されたデータを処理する。「3Dマップ」という言葉は、一般的に水平なX軸32、一般的に垂直なY軸34、及び深さZ軸36に関して例示のため3D検知装置24に基づき測定される、1組の3D座標を意味する。1組の3D座標は所定の物体、この場合身体、の表面を示すことができる。
【0018】
ある実施形態では、3D検知装置24は点のパターンを物体上に投影し、そして投影されたパターンの画像を獲得する。コンピュータ26はその後、ユーザの体の表面上の点の3D座標を、パターン内の点の水平方向偏移に基づいて三角法により計算する。投影されたパターンを使用するこの種の三角法に基づく3Dマッピングの方法及び装置は、例えば特許文献3、特許文献4、及び特許文献5に記載されており、それらはここに参照され採り入れられる。或いは、3Dユーザインタフェース20は、既存技術で既知の単一又は多重のカメラ、又は他のタイプのセンサを使用する、他の3Dマッピングの方法を使用してもよい。
【0019】
コンピュータ26は、3D検知装置24経由で、時間の経過における一連の深さマップを獲得するように構成される。それぞれの深さマップは、1つの場面のピクセルの2次元マトリックスとしての表示からなる。ここで各ピクセルは場面内のそれぞれの位置に対応し、一定の参照位置からそれぞれの場面位置までの距離を示すそれぞれのピクセル値を有する。言い換えれば、深さマップ内のピクセル値は、場面内の物体の輝度レベル及び/又は色ではなく、むしろ地形情報を示す。例えば、特許文献3に記載されるように、深さマップは、レーザスペックルのパターンが投影されたある物体の画像を検知し処理することにより生成可能である。
【0020】
ある実施形態では、コンピュータ26は場面内の物体を区割りし識別するため、深さマップを処理可能である。詳細には、コンピュータ26はヒト類似形状(即ち、構造がヒトの構造に類似している3D形状)のような物体を識別し、識別された物体の変化(即ち、場面から場面への)は、コンピュータアプリケーションを制御するための入力として使用することができる。
【0021】
例えば、特許文献6は、ヒト類似形状の輪郭を見出すために所定の深さマップが区割りされる、コンピュータにより実行される方法を開示しており、それはここに参照され採り入れられる。その後輪郭は体の胴と1つ以上の肢を識別するため処理可能である。その後、獲得された深さマップ内の少なくとも1つの識別された肢の偏移を分析することにより、コンピュータ上で走るアプリケーションプログラムを制御する入力が生成される。
【0022】
ある実施形態では、コンピュータ26は手30の位置を追跡するため、獲得された深さマップを処理可能である。手の位置を追跡することにより、3Dユーザインタフェース20は、手30を、コンピュータ又はテレビやセットボックスのような他の装置を制御するためのポインティングデバイス(位置指示装置)として使用可能である。さらに或いは、3Dユーザインタフェース20は、ユーザが、ディスプレイ28上に表示される1つの数字を選択する、ポインティングデバイスとして手30を使用する「数字入力」を実行してもよい。手の位置の追跡や数字入力は、特許文献7に詳述されている。
【0023】
他の実施形態では、3D検知装置24はマイクロフォン38のような1つ以上の音響センサを有してもよい。コンピュータ26は、マイクロフォン38経由でユーザ22からの音声命令のような音響入力を受信するように構成されてもよい。マイクロフォン38は、コンピュータ26が音声命令を処理する時にビーム形成技術を使用出来るように、(ここで示すように)直線的に配置されてもよい。
【0024】
コンピュータ26は典型的に、以下で記述される機能を実行するためソフトウェアでプログラムされる汎用コンピュータプロセッサを有する。ソフトウェアは、例えば、ネットワーク上において電子形態でプロセッサにダウンロードされてもよいし、あるいは、光、磁気、電子記憶媒体のような非一過性の接触可能媒体で提供されてもよい。さらに或いは、画像プロセッサの機能の幾つか或いは全てが、カスタム又はセミカスタム集積回路又はプログラム可能デジタル信号プロセッサ(DSP)のような、専属のハードウェアで実行されてもよい。
図1に示すコンピュータ26は、例示のため、3D検知装置24が分離されているが、コンピュータの処理機能の幾つか或いは全てが、検知装置の躯体内の、又は検知装置に付随する、適切な専用回路により実行されてもよい。
【0025】
また更なる選択肢として、これらの処理機能は(例えばテレビの)ディスプレイ28、或いはゲームコンソール又はメディアプレーヤのような他の適切な種類のコンピュータ化された装置、に統合された適切なプロセッサにより実行されてもよい。3D検知装置24の検知機能は同様に、センサの出力により制御されるコンピュータ又は他のコンピュータ化された装置に統合されてもよい。
【0026】
(プロファイル生成及び更新)
図2は、本発明の実施形態による、場面プロファイルの生成及び更新の方法を示すフロー図である。図3は、本発明の実施形態による、場面プロファイルを生成及び更新する時のコンピュータ26により分析される場面60の鳥瞰図である。図3に示すように、場面60は多重のユーザ22からなる。ここの記載においては、ユーザ22は識別数字に添付記号を付すことにより区別され、従ってユーザ22はユーザ22A、ユーザ22B、ユーザ22C及びユーザ22Dからなる。
【0027】
第1の獲得ステップ40において、3D検知装置24は場面60の最初の画像を獲得し、コンピュータ26が最初の画像を処理する。最初の画像を獲得するため、コンピュータ26は3D検知装置24から受信した信号を処理する。3D検知装置24により獲得され、コンピュータ26により処理された画像(最初の画像を含む)は、場面60の2次元(2D)画像(典型的にはカラーの)又は場面の3D深さマップのどちらかである。
【0028】
物体識別ステップ42において、コンピュータ26はユーザ近くの場面内の物体を識別する。例えば、コンピュータ26はテーブル62、椅子64,66のような家具を識別可能である。さらに、コンピュータ26は炭酸飲料缶68、携帯型パソコン70、スマートフォン72のようなその他の物体を識別可能である。場面内の物体を分析する場合、コンピュータは炭酸飲料缶68上のロゴ74(「COLA」)や携帯型パソコン70のブランド(不図示)などの、ブランドのロゴを識別してもよい。さらにコンピュータ26は、眼鏡76のようなユーザが着用している物品を識別するように構成されてもよい。
【0029】
第1の個人識別ステップ44において、コンピュータ26はディスプレイ28に近接する何人かのユーザ22を識別する。例えば図3では、場面60は4人の個人を有する。3次元場面(例えば場面60)から情報(例えば、物体と個人)を抽出することについては、2010年8月11日に出願された特許文献8に記載され、それはここに参照され採り入れられる。
【0030】
第2の個人識別ステップ46において、コンピュータ26は場面60内の個人の特性を識別する。コンピュータ26が識別可能な特性の例は典型的に、人口統計的特性及び従事特性を含む。人口統計的特性の例は、限定されないが:
・場面60内のそれぞれのユーザ22の性別(即ち、男または女)
・場面60内のそれぞれのユーザ22の推定年齢。例えば、コンピュータ26は、ユーザ22を「子供」、「十代」及び「大人」のような幅広い年齢分類でグループ分けしてもよい。
【0031】
・それぞれのユーザ22の民族性。ある実施形態では、コンピュータ26は獲得された画像を分析し、民族性を示すユーザの視覚的特徴を識別可能である。ある実施形態では、コンピュータ26は、所定のユーザの唇の動きを「読唇術」を使用して分析することにより、所定のユーザ22が話す言語を識別可能である。さらに或いは、3D検知装置24はマイクロフォン(不図示)のような音響センサを備え、コンピュータ26は、音響センサから受信した音響信号を分析して、ユーザの誰かが話した言語を識別するように構成されてもよい。
・所定のユーザ22の身長及び体格のような生体計測特性。
・場面60におけるそれぞれのユーザ22の位置。
【0032】
場面60を分析する場合、コンピュータ26はプロファイルを定義するため場面60内のユーザの人口統計的特性を集計してもよい。例えば図3の場面は2人の大人男性(ユーザ22Cと22D)と2人の大人女性(22Aと22B)を含む。
【0033】
コンピュータ26が識別可能な従事特性の例は、限定されないが:
・それぞれのユーザ22の目線方向の識別。図3に示すように、ユーザ22Aはスマートフォン72を注視しており、ユーザ22Dは携帯型パソコン70を注視しており、ユーザ22Bと22Cはディスプレイ28を注視している。さらなる例では(不図示)、ユーザの一人が他のユーザ、又は場面60のどこかを注視していてもよい。或いはコンピュータ26は、所定のユーザ22が彼/彼女の眼を閉じ、それによりその所定のユーザ22が眠っていることを示していることを識別してもよい。
・それぞれのユーザ22の顔の表情を識別(例えば、それぞれのユーザ22の笑顔又はしかめ面)。
【0034】
プロファイル定義のステップ48では、コンピュータ26が場面60内の識別された物体、何人かの識別されたユーザ22、ユーザの識別された特性、に基づいて最初のプロファイルを定義する。プロファイルは日付と時間のような他の情報を含んでもよい。コンピュータ26は、その構成が事前にコンピュータに記憶されているコンテンツ78を選択し、そして定義されたプロファイルに対応してディスプレイ28に選択されたコンテンツを提供する。提供される選択されたコンテンツの例は、推奨される媒体選択メニュー(例えば、テレビのショー、スポーツ競技、映画又はウェブサイト)、及び、場面60内のユーザの識別された特性を標的にする1つ以上の宣伝を含む。
【0035】
例えば、定義されたプロファイルがユーザに子供を含むことを示す場合、コンピュータ26は子供のプログラムの組合せとしてのコンテンツ78を選択し、スクリーン上のメニュー選択として提供することができる。あるいは、定義されたプロファイルが複数の大人を有することを示す場合(図3のように)、コンピュータ26は映画又はスポーツ競技の組合せとしてのコンテンツ78を選択し、スクリーン上の選択メニューとして提供することができる。
【0036】
ある実施形態では、コンピュータ26は、場面60内の識別された物体に基づいてコンテンツをカスタマイズ可能である。例えば、コンピュータ26はロゴ74付の炭酸飲料缶68、携帯型パソコン70及びスマートフォン72を識別し、これら商品のユーザに対して宣伝などのコンテンツを適合させる。さらに或いは、コンピュータ26は場面内のユーザの特性を識別することが可能である。例えばコンピュータ26は、ユーザの年齢、民族性及び性別を標的とするコンテンツを提供可能である。コンピュータ26はまた、眼鏡のような、ユーザが着用している物品に基づいてコンテンツを適合可能である。
【0037】
さらに、ユーザ22がディスプレイ28上に提供されたソーシャルウェブアプリケーションで双方向通信している場合、コンピュータ26はユーザの従事特性に基づいてステータスを定義することが可能である。例えばステータスは、年齢及び性別情報を含む、ディスプレイを注視している何人かのユーザ、からなってもよい。
【0038】
第1の更新ステップ50において、コンピュータ26はディスプレイ28上に提供されたコンテンツ78を識別し、そして上映されたコンテンツでプロファイルを更新する。それによりプロファイルは今やそのコンテンツを含む。ステップ50で選択されるコンテンツは典型的に、ディスプレイ28上に最初に(即ちステップ48で)提供されたコンテンツの一部を含む。本発明の実施形態では、コンテンツの例は、限定されないが、コンピュータ26により提供されるコンテンツ(例えば、映画)選択のメニュー、又は、ユーザ22によって選択され(例えば、メニュー経由で)そしてディスプレイ28上に提供されたコンテンツを含む。例えばコンピュータ26は、最初はコンテンツ78をディスプレイ28上のメニューとして提供し、その後ユーザ22により選択された、映画やスポーツ競技のようなコンテンツの一部でプロファイルを更新可能である。典型的に、更新されたプロファイルは、以前及び現在提供されるコンテンツ(例えば、スポーツ競技)の特性を含む。更新されたプロファイルは、コンピュータ26がスクリーン上のメニュー経由でコンテンツをよりユーザに適切に選択する能力を増大させる。
【0039】
前述のように、コンピュータ26は場面60内のユーザの民族性を識別するように構成されてもよい。ある実施形態では、コンピュータ26は識別された民族性に基づいてコンテンツ78(例えば、標的化された宣伝)を提供することが可能である。例えば、コンピュータ26がある所与のユーザ22が話す言語を識別する場合、コンピュータはコンテンツ78を識別された言語で提供し、又はコンテンツを識別された言語のサブタイトル付で提供可能である。
【0040】
第2の獲得ステップ52では、コンピュータ26は場面60現在の画像を獲得するため、3D検知装置24からの信号を受信する。そして第2の更新ステップ54において、コンピュータ26は場面60内の識別されたなんらかの変化(即ち、現在の画像と以前獲得された画像との間)でプロファイルを更新する。プロファイルを更新すると、コンピュータ26はディスプレイ28での提供用に選択されたコンテンツを更新可能であり、そして、方法の流れはステップ50に戻って継続する。識別された変化は場面60内の物品の変化、又は場面内の何人かのユーザ及び特性の変化でもよい。
【0041】
ある実施形態では、コンピュータはディスプレイ28に上映されたコンテンツを、場面60内で識別された変化に応答して調整可能である。例えば、コンピュータ26は、コンピュータが新しいユーザが場面に入るのを検知した場合、ディスプレイを暗くすることにより「ボスキー」を実行することが可能である。
【0042】
さらなる実施形態では、コンピュータ26は、ディスプレイ28に上映されたコンテンツに対するユーザの反応を測定するため、獲得された画像の連続を分析可能である。例えばユーザの反応はディスプレイに上映された広告の有効性を示す。ユーザの反応は、そのユーザの視点を測定する(即ち、ユーザの誰かがコンテンツを見ていたか?)ことにより測定可能である。
【0043】
本発明の実施形態を使用して定義され更新されたプロファイルは、音響命令を特定のユーザ22からマイクロフォン38を経由して受信する場合に、ビーム形成パラメータを制御するためにコンピュータにより使用可能である。ある実施形態では、コンピュータ26はコンテンツ78をディスプレイ28上に提供し、既存技術で既知のビーム形成技術を使用して、マイクロフォンビームを3Dユーザインタフェースと双方向通信する特定のユーザに向ける(又は複数のユーザに向ける)ことが可能である。場面60の画像の連続を獲得し、そしてプロファイルを更新することにより、コンピュータ26は、マイクロフォンビーム用のパラメータを必要に応じて更新可能である。
【0044】
例えば、ユーザ22Bが3Dユーザインタフェースと音声命令経由で双方向通信し、ユーザ22Bと22Cが位置を交換する場合(即ち、ユーザ22Bが椅子66に座り、ユーザ22Cが椅子64に座る場合)、コンピュータ26はユーザ22Bを追跡し、マイクロフォンビームをユーザ22Bの新しい位置に向けることが可能である。マイクロフォンビームのパラメータの更新は、周囲雑音の除去に役立ち、それによりコンピュータ26がユーザ22Bからの音声命令をより正確に処理することが可能になる。
【0045】
フロー図で記載されたステップにおいてプロファイルを定義し更新する場合、場面60内のユーザの特性を識別するため、コンピュータ26は2Dと3Dの画像の組合せを分析することができる。例えば、コンピュータ26は所与のユーザの頭部を検知するため3D画像を分析し、その後上記の人口統計的及び従事特性を検知するため2D画像を分析することができる。一度あるユーザがプロファイルに含まれると、コンピュータ26は場面60内のそのユーザの位置(即ち、場所と向き)を追跡するため3D画像を分析することができる。ユーザの追跡のための2D及び3D画像の使用は2011年2月28日出願の特許文献9に記載され、それはここに参照され採り入れられる。
【0046】
上記の実施例は例示のためであり、本発明の範囲は上記に示されまた記載されたものに限定されない。むしろ本発明の範囲は、上記の種々の特徴の組合せやサブ組合せを含み、上記の記載を読んだ当業者が想起する従来技術で開示されていない変化形や変更を含む。

【特許請求の範囲】
【請求項1】
非触覚インタフェースを実行するコンピュータに接続するディスプレイの近くに、1人以上のユーザを有する場面の画像を獲得するステップと、
前記画像を処理し、前記1人以上のユーザのプロファイルを生成するステップと、そして、
前記プロファイルに対応して、前記ディスプレイ上に上映するためのコンテンツを選択するステップと、
を有することを特徴とする方法。
【請求項2】
前記コンテンツを前記ディスプレイ上に上映するステップと、
前記1人以上のユーザによる選択に応答して、前記コンテンツの少なくとも一部を識別するステップと、そして、
前記識別されたコンテンツで前記プロファイルを更新するステップと、
を有することを特徴とする請求項1に記載の方法。
【請求項3】
前記場面内の1つ以上の物体を識別するステップと、そして、
前記1つ以上の物体で前記プロファイルを更新するステップと、
を有することを特徴とする請求項1に記載の方法。
【請求項4】
前記場面の現在の画像を獲得するステップと、
前記現在の画像と以前獲得された画像の間の変化を検知するステップと、そして、
前記検知された変化で前記プロファイルを更新するステップと、
を有することを特徴とする請求項1に記載の方法。
【請求項5】
前記場面内の複数のユーザを識別するステップと、
前記識別された複数のユーザのそれぞれの特性を識別するステップと、
前記複数のユーザと前記それぞれの特性で前記プロファイルを更新するステップと、
を有することを特徴とする請求項1に記載の方法。
【請求項6】
前記特性は、性別、推定年齢、位置、民族性、生体計測情報、視線の方向、及び顔の表情、を含むリストから選択されることを特徴とする請求項5に記載の方法。
【請求項7】
前記場面からの音響信号を獲得するステップと、
前記場面内の前記ユーザの一人が話す言語を識別するステップと、そして、
前記検知された言語から前記民族性を識別するステップと、
を有することを特徴とする請求項6に記載の方法。
【請求項8】
前記場面からの音響信号を獲得するステップと、
一人以上の前記ユーザの位置を識別するステップと、そして、
マイクロフォンビームを前記一人以上のユーザに向けるステップと、
を有することを特徴とする請求項6に記載の方法。
【請求項9】
前記一人以上のユーザの前記視線の方向と前記顔の表情を使用して、前記上映されたコンテンツの反応を測定するステップを有することを特徴とする請求項6に記載の方法。
【請求項10】
ディスプレイと、そして、
非触覚インタフェースを実行するコンピュータと、を有し、
前記コンピュータは、前記ディスプレイの近くに1人以上のユーザを有する場面の画像を獲得し、前記画像を処理して前記1人以上のユーザのプロファイルを生成し、そして、前記プロファイルに対応して前記ディスプレイ上に上映するコンテンツを選択するように構成される、
ことを特徴とする装置。
【請求項11】
前記コンピュータは、
前記コンテンツを前記ディスプレイ上に上映し、
前記1人以上のユーザによる選択に応答して、前記コンテンツの少なくとも一部を識別し、そして、
前記識別されたコンテンツで前記プロファイルを更新する、
ように構成されることを特徴とする請求項10に記載の装置。
【請求項12】
前記コンピュータは、前記場面内の1つ以上の物体を識別し、そして、前記1つ以上の物体で前記プロファイルを更新する、ように構成されることを特徴とする請求項10に記載の装置。
【請求項13】
前記コンピュータは、前記場面の現在の画像を獲得し、前記現在の画像と以前獲得された画像の間の変化を検知し、そして前記検知された変化で前記プロファイルを更新する、ように構成されることを特徴とする請求項10に記載の装置。
【請求項14】
前記コンピュータは、前記場面内の複数のユーザを識別し、前記識別された複数のユーザのそれぞれの特性を識別し、そして、前記複数のユーザと前記それぞれの特性で前記プロファイルを更新する、ように構成されることを特徴とする請求項10に記載の装置。
【請求項15】
前記コンピュータは、性別、推定年齢、位置、民族性、生体計測情報、視線の方向、及び顔の表情、を含むリストから前記特性を選択するように構成されることを特徴とする請求項14に記載の装置。
【請求項16】
前記コンピュータは、前記場面からの音響信号を獲得し、前記場面内の前記ユーザの一人が話す言語を識別し、そして、前記検知された言語から前記民族性を識別する、ように構成されることを特徴とする請求項15に記載の装置。
【請求項17】
前記コンピュータは、前記場面からの音響信号を獲得し、一人以上の前記ユーザの位置を識別し、そして、マイクロフォンビームを前記一人以上のユーザに向ける、ように構成されることを特徴とする請求項15に記載の装置。
【請求項18】
前記コンピュータは、前記一人以上のユーザの前記視線の方向と前記顔の表情を使用して、前記上映されたコンテンツの反応を測定するように構成されることを特徴とする請求項15に記載の装置。
【請求項19】
コンピュータソフトウェア製品であって、プログラム命令を記憶する非一過性のコンピュータ読み取り可能媒体を有し、
前記命令は、非触覚インタフェースを実行するコンピュータに読み取られた場合に、前記コンピュータに対し、場面のディスプレイの近くに1人以上のユーザを有する画像を獲得させ、前記画像を処理して前記1人以上のユーザのプロファイルを生成させ、そして、前記プロファイルに対応して、前記ディスプレイ上に上映するためのコンテンツを選択させる、
ことを特徴とするコンピュータソフトウェア製品。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate


【公開番号】特開2012−141965(P2012−141965A)
【公開日】平成24年7月26日(2012.7.26)
【国際特許分類】
【出願番号】特願2011−269446(P2011−269446)
【出願日】平成23年12月8日(2011.12.8)
【出願人】(308042089)プライムセンス リミテッド (9)
【Fターム(参考)】