説明

Fターム[5E501CC11]の内容

デジタル計算機のユーザインターフェイス (127,284) | 入出力機器その他 (2,248) | 特殊な入出力機器 (1,202) | 身振り、手振り (138)

Fターム[5E501CC11]に分類される特許

41 - 60 / 138


【課題】視覚に障害のあるユーザが認識する際の負担を軽減し、タッチスクリーンディスプレイ及び/又はトラックパッドのより効率的なヒューマンマシンインタフェースを生成する。
【解決手段】方法は、ディスプレイ上に複数のユーザインタフェース要素を表示する工程であって、現在のフォーカスは第1のユーザインタフェース要素上にある、工程と、第2のユーザインタフェース要素に対応する接触感知表面上の位置に接触することとは無関係な第1の指ジェスチャを、接触感知表面上で検出する工程と、第1の指ジェスチャを検出したことに応答して、複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から、複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素へと現在のフォーカスを変更し、かつ第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する工程と、を含む。 (もっと読む)


【課題】 ジェスチャを用いた3次元表示制御の際に、手軽で正確な表示の制御を行うことを目的とする。
【解決手段】 手検索処理部(202)が手を検索し、検索された手が、3次元表示の3軸と指を対応付けられた予め定めたジェスチャであるかどうかを手形状判定部(203)が判定し、予め定めたジェスチャであると判定された場合、3次元表示と対応付けられた手の状態に応じて特徴空間回転表示処理部(206)が表示処理を行う。 (もっと読む)


【課題】ユーザが表示位置を明示的に指示することも、特別なセンサを設けることもせずに、ユーザの持ち方に応じた画像を表示させることを可能にする。
【解決手段】表示端末10は、タッチスクリーンが重ねて設けられた表示領域10Aを有する。ユーザは、表示領域10Aに対してドラッグ操作やフリック操作を行う。これらの操作は、表示領域10Aを直線状に擦る操作であるが、右手で行った場合と左手で行った場合とで軌跡に相違が生じる。なぜならば、これらの操作の軌跡は、関節(図においては、親指の第二関節)を回転中心とした回転運動に近似したものになるためである。したがって、これらの操作の軌跡は、ユーザ自身が直線状に操作しているつもりであっても、実際には円弧状になる。表示端末10は、このような円弧状の軌跡から平均曲率半径とその曲率中心座標とを算出することにより、持ち手が右手と左手のいずれであるかを判断する。 (もっと読む)


【課題】2種類以上の入力操作を用いて対象装置に所望の動作を実行させるための入力操作を簡易にすることを可能とすること。
【解決手段】2種類以上の異なる入力操作により取得した2種類以上の入力情報から、当該入力情報の種類毎に各入力操作の意味する意味情報を認識する入力認識部と、2種類以上の上記意味情報を組合せることにより、対象装置に所定の動作を実行させるためのコマンドを生成する動作処理部と、を備える情報処理装置を提供する。 (もっと読む)


【課題】画像の視認性を損なうことなしにユーザーの手の動きに応じた画像の操作を可能とする。
【解決手段】デジタルフォトフレーム100は、ユーザーの手の動きを検出する検出手段として3次元位置検出カメラ102を備え、制御装置104は、3次元位置検出カメラ102によって撮影された画像に基づいてユーザーの手の3次元位置、およびフレーム間での3次元位置の変化を検出し、その検出結果に応じて3Dモニタ106上の画像の再生状態を変更する。例えば、3次元位置検出カメラ102から入力される画像内にユーザーの手が写っていない場合には、画像を3Dモニタ106に2次元表示させ、手が写っていることを検出したときには3次元表示に変化させる。 (もっと読む)


【課題】対象物体を検出したことをユーザーに報知すること。
【解決手段】デジタルフォトフレーム100は、対象物体を検出する検出手段と、検出手段によって対象物体が検出されたときに、画像を視覚的に前後方向に変化させるように画像の表示方法を変更する表示制御手段とを備える。 (もっと読む)


【課題】視聴者が選択することなしに、自動で視聴者に合った言語に切り替える。
【解決手段】映像解析部121は、映像入力部11からの映像情報から得られる視聴者の顔などから少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データ131を生成して記憶装置13に記憶する。言語判定部122は、特徴抽出データ131の複数の特徴の値と、特徴抽出データの複数の特徴のそれぞれについて複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データ132とに基づいて、視聴者が最も使用する可能性のある言語を判定する。表示・音声制御部123は、言語データ133の中から言語判定部122が判定した最も使用する可能性がある言語の言語データを表示部14に表示し、音声出力部15により音声出力する。 (もっと読む)


【課題】通知ソースに関連する様々な情報を、通知プラットフォームアーキテクチャを介して通知シンクに向けることを可能にするシステムおよび方法を提供する。
【解決手段】アーキテクチャ10には、位置および注意のフォーカスなどのユーザの状態を判定するコンテキストアナライザ22が含まれ、ユーザの状態は、例えば通知ソース26〜28によって生成された情報のどれを、いつ、どのように通知シンク36〜38に転送しなければならないかに関する決定を行うために通知マネージャ24によって使用される。この決定には、ユーザに通知することの利益よりユーザを中断することのコストが大きいかどうかに関する費用便益分析を含めることができる。決定理論的ポリシおよび/または多少フォーマルでないヒューリスティックポリシを使用して、通知マネージャ24内の意思決定処理を可能にすることができる。 (もっと読む)


【課題】 コミュニケーションをとる相手の使用言語が不明の場合であっても言語を判定することのできるガイド装置およびガイド方法を提供する。
【解決手段】 ガイド情報を表示し(S23)、上記ガイド情報を観察する対象人物の表情をモニタし(S22)、モニタされた上記対象人物の表情を判定し(S25)、上記ガイド情報の表示中に、上記判定された上記対象人物の表情に応じて上記対象人物に対するメッセージ内容を決定し、上記対象人物に上記メッセージを表示する(S28〜S32)。 (もっと読む)


【課題】 マルチウィンドウの操作において、ユーザに快適な操作性を提供できるコンピュータシステムを提供することである。
【解決手段】 ウィンドウシステム400は、並行して動作する複数のアプリケーションプログラム100にそれぞれ固有のウィンドウを割り当て制御する。ポインティングデバイスとしてのモーションセンサ600は、三次元空間中で動かされるユーザの手に間欠的に光を照射し、照射時及び非照射時で撮影処理を実行し、照射時に得られた画像と非照射時に得られた画像との差分画像を解析し、ユーザの手を検出する。ウィンドウシステム400は、モーションセンサ600が検出したユーザの手の情報に基づきウィンドウを制御するための機能を各アプリケーションプログラム100に提供する。 (もっと読む)


【課題】所望の医療情報を、より直感的な操作で、より容易に取得可能にする。
【解決手段】取得条件入力用ユーザインターフェース32が、被検体外観画像(人体アイコン45)の表示中に、ジェスチャの入力を受け付け、取得条件特定部35が、ジェスチャ種別解析部33によって判別されたそのジェスチャの種別、および、ジェスチャ部位解析部34によって特定されたそのジェスチャに対応する被検体の部位に基づいて、そのジェスチャに対応する医療情報を取得するための医療情報取得条件を特定し、医療情報取得部36が、特定された医療情報取得条件を満たす医療情報を、複数件の医療情報を記憶する医療情報データベース53から選択的に取得し、医療情報表示制御部36が、取得された医療情報を表示手段に表示させる。 (もっと読む)


【課題】 操作者が仮想現実空間または複合現実空間内でカーソルを用いて任意の場所を指し示すときに、カーソルの指し示したポイントを操作者が視認できるようにする。
【解決手段】 操作者の視点の位置を計測する視点位置計測手段と、前記操作者が操作する操作部の位置を計測する操作位置計測手段と、前記視点位置計測手段で計測された視点の位置と前記操作位置計測手段で計測された操作部の位置とに基づいて、表示すべきカーソルの位置姿勢を決定する決定手段とを備える。 (もっと読む)


【課題】 手の形状に対応して実行されるコマンドが情報処理装置にどのように認識されているかを、操作者が認識しやすくすることを目的とする。
【解決手段】 手の形状取得部204で、操作者の手の第1の形状を取得し、影画像取得部205で、影画像の形状を取得する。影画像生成部203で、取得した
影画像を用いて、第1の形状に合わせて、影画像を生成し、生成された影画像をディスプレイ201に表示する。 (もっと読む)


【課題】 簡単なジェスチャ操作によって、表示オブジェクトを、所望のグループレベルのグループに容易にグルーピングできることを目的とする。
【解決手段】 ディスプレイ101に表示されている複数のオブジェクトから、オブジェクト選択部300で、オブジェクトを選択し、距離取得部305は、物体から前記表示部の表示画面までの遠隔操作距離を取得する。保持部309は、遠隔操作距離とグループレベルとの対応つけを保持している。保持された対応つけと、距離取得部305で取得された遠隔操作距離とオブジェクト選択部300で選択されたオブジェクトに基づいて、オブジェクトをグルーピングして表示する。 (もっと読む)


【課題】スクリプトを実行するための人-マシンインタラクションシステムを提供する。
【解決手段】人-マシンインタラクションシステム2aは、ディスプレイデバイス22、メカニカルデバイス26、検出モジュール及び処理モジュールを含む。ディスプレイデバイスは、インタラクティブゾーン23内にインタラクティブ像を示すために用いられる。メカニカルデバイスは、インタラクティブゾーン内で移動可能である。検出モジュールは、インタラクティブゾーン内の入力アクションを受け取るために用いられる。処理モジュールは、入力アクション及びスクリプトに従って、メカニカルデバイスの動作を制御し、かつディスプレイデバイスを制御してインタラクティブ像をアップデートする。人-マシンインタラクションシステムによって、物理的及びバーチャルインタラクティブエレメントを一体化し、ユーザーに新たな操作モードを提供することができる。 (もっと読む)


【課題】
グラフィックオブジェクトの重心の包含関係の分類を利用した、仮想空間でのインタラクションよって命令を生成するインタフェース方法を提供する。
【解決手段】
ビデオカメラで撮影した映像からユーザのみを切り出したものとオブジェクトとの、映像上での重なりの重心が、ユーザとオブジェクトとのどの領域に属すかという帰属情報と、生成と消滅というイベントと、を得る。それらにより、1つのオブジェクトに対する複数の命令を区別するインタフェース方法と装置。 (もっと読む)


【課題】人間と計算機式システムとの対話において、長時間利用者の日常業務の反復的で長時間の性質を支援する。
【解決手段】表示用のデータ集合と対話する方法及びシステムが提供される。一方法(70)は、利用者によって視認可能な表面を有する表示器に情報を表示するステップ(76)と、マルチ・タッチ感知型装置の表面において利用者入力を受け取るステップ(78)とを含んでいる。マルチ・タッチ感知型装置の表面は、利用者によって視認可能な表示器の表面とは異なる表面である。この方法はさらに、受け取った利用者入力に応答して、表示される情報を操作するステップ(82)を含んでいる。 (もっと読む)


【課題】 検索結果である画像群を一覧表示させる配列方法を、ユーザの意図に合わせて適宜変更できる。特に、その変更をユーザーの直感的な操作で行う。
【解決手段】 複数の画像をディスプレイに配列表示させる表示制御装置であって、操作者のジェスチャを撮影するジェスチャ入力部と、前記ジェスチャによって移動する特定部位の軌跡を認識する軌跡認識部と、前記ジェスチャが移動中に形成する特定部位の形状を認識する形状認識部と、前記特定部位の軌跡および形状に基づいて、前記複数の画像を配列方法を決定する配列方法特定部と、前記特定された配列方法を用いて、前記複数の画像を前記ディスプレイに表示させる表示制御部とを備えることを特徴とする。 (もっと読む)


【課題】通信相手装置に関する情報を視覚的に表示することで、ユーザが多くの情報を直感的に取得できようにする。
【解決手段】本発明に係る情報処理装置300は、通信相手装置と近距離一対一通信を行う送信処理部106、受信処理部108と、通信相手装置との通信により得られる情報を取得する受信データ処理部116と、情報を表示する表示部302と、情報の内容に基づいて情報を表示する処理を実行する表示処理部118と、を備える。 (もっと読む)


【課題】使用者による意図的な遠隔操作のみを受け付ける。
【解決手段】
リモコンを不要とした遠隔操作機能を備えた電気機器1である。CPU13は、内蔵カメラ18が使用者を撮影した撮影画像に基づいて、使用者を撮影した撮影画像に基づいて、使用者が機器本体を見ているか否かを判断し、さらに前記撮影画像に基づいて、使用者における予め決められている特定の動作を検出する。CPUは、使用者が機器本体を見ていると判断した条件下で、前記撮影画像に基づいて前記特定の動作を検出した場合にのみ、前記特定の動作に対応した内容の制御処理を実行する。 (もっと読む)


41 - 60 / 138