説明

情報処理装置及びその制御方法、プログラム、並びに記憶媒体

【課題】画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる表示制御技術を実現する。
【解決手段】情報処理装置は、表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、入力された座標の位置に応じた表示オブジェクトを選択可能に表示する表示制御技術に関するものである。
【背景技術】
【0002】
タッチパネルを備えた表示装置にボタンを表示させ、当該ボタンに対する操作をタッチパネルで検出して制御する機器が広く使われている。また、特許文献1においては、撮像した人物の顔に枠を表示し、この枠をタッチパネルで選択すると、非選択の枠と異なる態様で表示させることが記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2008−085737号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記特許文献1では、撮像した顔の枠内を正確にタッチしなければ顔を選択することができないため、特に人物が画面内を移動している場合などでは、その顔を狙ってタッチするときに注意が必要である。顔の枠を大きく表示することで選択は容易になるが、画面表示が煩雑になるだけでなく、顔から離れた位置のタッチを受け付けることにより誤ったタッチ操作の可能性が増すことも想定される。
【0005】
本発明は、上記課題に鑑みてなされ、その目的は、画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる表示制御技術を実現することである。
【課題を解決するための手段】
【0006】
上記課題を解決し、目的を達成するために、本発明の情報処理装置は、表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有する。
【発明の効果】
【0007】
本発明によれば、画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる。
【図面の簡単な説明】
【0008】
【図1】本発明に係る実施形態の情報処理装置のブロック図。
【図2】実施形態1に係る画面表示例。
【図3】実施形態1に係る表示制御処理のフローチャートおよび反応領域のアフィン変換式。
【図4】実施形態2に係る画面表示例。
【図5】実施形態2に係る表示制御処理のフローチャート。
【発明を実施するための形態】
【0009】
以下に、本発明を実施するための最良の形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。
【0010】
[実施形態1]
本実施形態では、本発明の情報処理装置をタッチパネル式のディスプレイを備えるデジタルビデオカメラ(以下、カメラ)に適用した実施形態について説明する。
【0011】
<カメラの構成>図1を参照して、本実施形態のカメラの構成について説明する。
【0012】
図1において、光学系101は、ズームレンズやフォーカスレンズなどの撮影レンズを含む。撮像部102は、CCDやCMOSなどのイメージセンサを備え、光学系101を通して撮像面に結像された被写体像を光電変換してアナログ映像信号を生成する。
【0013】
映像処理部103は、撮像部102から出力されるアナログ信号をデジタル映像信号に変換し、所定の信号処理を施して映像データを生成する。また、映像処理部103は、映像データの生成過程において映像に含まれる人物の顔を検出する顔検出処理を実行する。
【0014】
CPU104は、カメラ全体の動作を統括して制御する中央演算処理装置である。CPU104は、タッチパネル111や録画ボタン112などのユーザ操作を受け付け、映像処理部103の顔検出処理により検出された顔情報とタッチパネル111の座標情報とを比較し、表示制御部109への画面表示を指示する。
【0015】
エンコーダ・デコーダ部105は、映像処理部103からの映像データを符号化する。エンコーダ・デコーダ部105によって符号化された映像データは、一時記憶部107に一旦記憶されたのち、付随する管理データと共に動画記憶部106に記憶される。動画記憶部106は、ハードディスクやフラッシュメモリなどの内蔵メモリや、メモリーカードなどの着脱可能な記録媒体からなる。
【0016】
動画再生時は、動画記憶部106から読み出された符号化された映像データが一時記憶部107を介してエンコーダ・デコーダ部105で復号化され、再び一時記憶部107の動画用フレームバッファに展開される。
【0017】
一時記憶部107は、映像処理部103やCPU104、表示制御部109のワーク領域として利用される。
【0018】
プログラム・データ記憶部108は、CPU104の扱うプログラムやデータが記憶される。
【0019】
表示制御部109は、映像処理部103もしくはエンコーダ・デコーダ部105からの出力映像に顔枠やその他のオブジェクトを合成して、LCDパネル110に表示する映像信号を生成する。
【0020】
LCDパネル110は、表示制御部109から出力された映像信号を表示する。
【0021】
タッチパネル111は、LCDパネル110に貼り付けられ、CPU104からの問い合わせに対してタッチされた座標を返すドライバ部を含んでいる。
【0022】
CPU104は上記ドライバ部を介してタッチパネル111への以下の操作を検出できる。タッチパネル111を指やペンで触れたこと(以下、タッチダウン)。タッチパネル111を指やペンで触れている状態であること(以下、タッチオン)。タッチパネル111を指やペンで触れたまま移動していること(以下、ムーブ)。タッチパネル111へ触れていた指やペンを離したこと(以下、タッチアップ)。タッチパネル111に何も触れていない状態(以下、タッチオフ)。これらの操作や、タッチパネル111上に指やペンが触れている位置座標は内部バスを通じてCPU104に通知され、CPU104は通知された情報に基づいてタッチパネル111上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル111上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル111上の垂直成分・水平成分毎に判定できる。またタッチパネル111上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル111上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル111上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
【0023】
<表示制御処理>次に、図2を参照して、本実施形態のカメラによる撮影モードでの表示制御処理について説明する。
【0024】
図2において、破線205a、205b、206は説明の便宜のために示したもので、実際にはLCDパネル110に表示されなくてもよい。
【0025】
被写体201、202は映像処理部103での顔検出処理により検出された人物の顔である。被写体201は画面上の右方向に移動しており、被写体202は静止している。
【0026】
顔枠203、204は、表示制御部109により顔201、202のそれぞれに対して合成(重畳)された枠(表示オブジェクト)である。顔枠203はやや太く表示されており、顔201が選択された状態を表している。顔枠204はやや細く表示されており、顔202が選択されていない状態を表している。
【0027】
破線205a、206は、顔201、202に対応するタッチパネル111上のタッチダウンまたはタッチオン(以下、タッチ操作)を受け付ける反応領域を示している。顔201が画面上の右方向に移動しているため、反応領域205aは顔枠203の動きベクトルの反対方向、すなわち左方向に領域が拡大している。一方、顔202は静止しているため、反応領域206は顔枠204とほぼ同じ大きさとなっている。
【0028】
このように、動くオブジェクトの後方に反応領域を拡大することで、ユーザのタッチ操作がオブジェクトの動きにうまく合わせられずに遅れてしまった場合でも、所望のオブジェクトを選択できることになる。また、反応領域はオブジェクトの内容にかかわらずに設定できるため、画面表示が煩雑になることがない。さらに、動くオブジェクトに対してのみ反応領域の面積を拡大するので、誤ったタッチ操作の可能性が不必要に増すこともない。
【0029】
領域207はタッチパネル111を操作しているユーザの指を表している。図2ではタッチ操作が顔201の動きに対して遅れているが、反応領域205が顔201の動きベクトルの後方に拡大されるため、遅れたタッチ操作であっても顔201を選択できるようになる。
【0030】
208、209は顔に関連しない表示要素を表しており、それぞれタイムコード、バッテリー残量表示である。これら以外にもカメラの設定や動作状態を表す様々なアイコンや数値が表示されることがある。
【0031】
なお、反応領域205aは、図2(b)に示すように動きベクトルの方向、すなわち右方向に拡大してもよい。この場合、指207が顔201の動きの前方をタッチしたとしても、このタッチで顔201を選択することができる。
【0032】
図2(b)の破線205bは、動く顔201の反応領域を反応領域205aとは異なる形態で拡張した例である。このように、顔の動きベクトルを計算せず、単純に顔の移動速度に応じて反応領域の面積を拡大するだけでも、顔のタッチしやすさを改善することができる。このように、動くオブジェクトに対して広い面積の反応領域を設定することができるため、オブジェクトがよりタッチしやすくなる。例えば、動いているオブジェクトの移動方向から移動位置を予測して早めにタッチした場合などにも所望のオブジェクトを選択することができる。
【0033】
また、反応領域はオブジェクトの表示内容(表示範囲)とは独立して設定できるため、画面表示が煩雑になることがない。さらに、反応領域を変更するのは動いているオブジェクトだけであるので、反応領域の面積を拡大したとしても誤ったタッチ操作の可能性が不必要に増すことはない。ただし、反応領域205bは顔201をタッチしようとするときには触れないと想定される領域まで拡大している分、誤ったタッチ操作の可能性は反応領域205bよりも反応領域205aの方が若干低いと考えられる。
【0034】
次に図3を参照して、図2の画面表示を実現するCPU104による表示制御処理について説明する。
【0035】
なお、図3の処理を行うためのプログラムはプログラム・データ記憶部108に収められており、CPU104が適宜読み出して実行する。プログラムの実行時は一時記憶部107はワークメモリとして利用される。
【0036】
図3(a)において、ステップ301では、CPU104は表示制御部109を通じて、タイムコード208およびバッテリー残量209の表示を更新する。
【0037】
ステップS302では、CPU104は、映像処理部103から顔検出処理結果を取得し、映像中に顔が存在するか判定する。顔が存在しないときはステップS301に戻る。顔検出方法については、例えば特開2005−318554号公報に詳述されているが、本発明は顔検出方法には依存しない。
【0038】
ステップS302にて、顔が存在しないと判定された場合にはステップS301に戻り、顔が存在すると判定された場合には、ステップS303に移行する。
【0039】
ステップS303では、CPU104は、映像処理部103により検出された顔ごとに移動速度または動きベクトルを算出する。移動速度または動きベクトルのいずれも、現在の顔の位置座標と直前の顔の位置座標との差、すなわち変化方向と距離の時間変化から計算することができる。
【0040】
ステップS304では、CPU104は、ステップS303で算出した顔の移動速度または動きベクトルに応じて、それぞれの顔の反応領域を設定する。ここで反応領域の拡大・移動はアフィン変換によって実現することができる。図2の例では、反応領域は矩形であるので、対角の2点の座標によって表すことができる。ある2つの頂点(x1,y1)(x2,y2)のアフィン写像(x1a,y1a)(x2a,y2a)は、図3(c)の式で表される。ただし、本発明は矩形の反応領域に限定されるものではなく、多角形や円形の反応領域であってもよい。
【0041】
ステップS305では、CPU104は、タッチパネル111に対するユーザのタッチ操作による顔の選択を受け付ける処理を行う。この顔選択処理の詳細は図3(b)で後述する。
【0042】
ステップS306では、CPU104は、ステップS305もしくはそれ以前の処理によって顔が選択されているか判定する。ステップS306で顔が選択されていた場合には、ステップS307に移行し、CPU104は、表示制御部109を通じて、選択された顔に線の太い主顔枠を、その他の選択されていない顔に線の細い非主顔枠をそれぞれ表示する。
【0043】
ステップS308では、CPU104は映像処理部103を通じて、選択された顔が最適な撮影結果になるように、フォーカス、露出、ホワイトバランス、およびズームなどを制御する。
【0044】
一方、ステップS306で顔が選択されていない場合には、ステップS309に移行し、CPU104は表示制御部109を通じて、すべての顔に線の細い非主顔枠をそれそれ表示する。
【0045】
<顔選択処理(S305)>続いて、図3(b)を参照して、図3(a)のステップS305における顔選択処理について説明する。
【0046】
図3(b)において、ステップS311では、CPU104は、タッチパネル111への入力を判定し、タッチされていない場合には本処理を終了し、タッチされた場合には、ステップS312に移行し、タッチ位置の座標情報を取得する。
【0047】
ステップS313では、CPU104は、ステップS312で取得したタッチ位置が顔の反応領域内であるか判定し、反応領域外の場合には本処理を終了し、顔の反応領域内である場合には、ステップS314に移行する。
【0048】
ステップS314では、CPU104は表示制御部109を通じて、タッチされた顔を選択状態に設定し、その他の顔を非選択状態に設定する。
【0049】
なお、タッチ位置が複数の顔の反応領域に合致する場合には、予め決められた所定の規則にしたがって優先的に選択する顔を設定する。例えば、顔の移動によって拡大した反応領域と、別の静止した顔の反応領域とが重なっている領域がタッチされた場合は、本来の反応領域である後者の顔を選択状態に設定する。相対的に速い速度で移動している顔と遅い速度で移動している顔の、本来の反応領域同士が重なっている場合は、速度の速い顔を優先して選択状態に設定する。ただし、本発明は上記所定の規則の例に限られず、別の規則にしたがって反応領域の優先順位を決定してもよい。
【0050】
[実施形態2]次に、実施形態2について説明する。
【0051】
実施形態1は、カメラが撮影モードのときの動作であったのに対して、実施形態2は、カメラが再生モードのときの動作について説明する。ただし、本実施形態では撮影機能は使用しないため、携帯電話やPC、あるいはポータブルメディアプレーヤなどの画像再生機器にも同様に本発明を適用可能である。
【0052】
なお、本実施形態のカメラの構成は、図1と同様であるので説明は省略する。
【0053】
以下、本実施形態のカメラによる再生モードでの表示制御処理について説明する。
【0054】
図4(a)は、カメラの再生モード時にLCDパネル110に表示される画面を例示している。なお、破線404、405、406および矢印407は説明の便宜のために示したもので、実際にはLCDパネル110に表示されなくてもよい。
【0055】
図4(a)において、画像401、402、403はいずれも動画記憶部106に記憶されているシーンのサムネイル画像データである。これらは画面上の横方向に並べて表示されており、ユーザが画面上で右から左あるいは左から右へフリック操作することにより、サムネイル画像を滑らかにスクロールさせて順次切り替えることができる。本実施形態ではサムネイル画像は動画シーンを表しているが、静止画を表すものであったり、動画もしくは静止画を表すサムネイル画像が混在している状態であってもよい。
【0056】
破線404、405、406はそれぞれサムネイル画像401、402、403に対してタッチパネル111のタッチによる選択を受け付ける反応領域を示している。反応領域内がタッチされると、該当するサムネイル画像のシーンが再生される。
【0057】
図4(b)は、図4(a)の状態から矢印407の方向へフリックしたときの画面を例示している。サムネイル画像401、402、403はそれぞれ指の移動方向に合わせて画面が左から右へスクロール表示される。
【0058】
このとき、反応領域404、405、406はそれぞれの対応するサムネイル画像の動きにぴったり追従した状態で移動するのではなく、サムネイル画像の動きに対して少し遅れて移動する。このようにすることで、スクロール表示中にユーザが再生しようとするサムネイル画像をタッチする際に、タッチ操作がサムネイル画像のスクロールの動きに遅れていたとしても、所望のシーンのサムネイル画像を選択して再生を行うことができる。
【0059】
次に図5を参照して、図4の画面表示を実現するCPU104による表示制御処理について説明する。
【0060】
なお、図5の処理を行うためのプログラムはプログラム・データ記憶部108に収められており、CPU104が適宜読み出して実行する。プログラムの実行時は一時記憶部107はワークメモリとして利用される。
【0061】
図5において、ステップS501では、CPU104は映像処理部103を通じて、ユーザのフリック操作に応じて画面上に表示されるサムネイル画像を更新する。サムネイル画像データは動画記憶部106から直接読み出しできる形式でもよいし、動画記憶部106から読み出し、エンコーダ・デコーダ部105でデコードした映像データから生成したものであってもよい。サムネイル画像は更新ごとに生成してもよいが、生成したサムネイル画像を一時記憶部107にバッファリングして利用する方が処理負荷を軽減できる。
【0062】
ステップS502では、CPU104は、サムネイル画像の動きベクトルを算出する。動きベクトルは、現在のサムネイル画像の位置座標と直前のサムネイル画像の位置座標との差、すなわち変化方向と距離の時間変化から計算することができる。ところで、図4の画面ではサムネイル画像が横方向にのみスクロールすることは自明なので、単純に移動速度のみを計算して動きベクトルに代えることも可能である。
【0063】
ステップS503では、CPU104は、ステップS502で算出したサムネイル画像の動きベクトルに応じて、サムネイル画像ごとの反応領域を設定する。反応領域の移動は実施形態1と同様のアフィン変換で実現できる。
【0064】
ステップ304では、CPU104は、ユーザのタッチ操作によってシーンを選択する処理を行う。ここでの処理は実施形態1のステップS305および図3(b)の顔選択処理と同様である。
【0065】
ステップS505では、CPU104は、ステップS504にてシーンが選択されたか判定し、シーンが選択された場合には、ステップS506に移行する。
【0066】
ステップS506では、CPU104は、選択されたシーンの再生処理を開始する。この再生処理では、動画記憶部106から読み出した映像データをエンコーダ・デコーダ部105でデコードし、必要に応じて映像処理部103で加工した上で表示制御部109に順次出力することによって、LCDパネル110に動画として表示される。
【0067】
一方、ステップS505でシーンが選択されない場合には、ステップS507に移行し、CPU104はフリック判定を行い、次のサムネイル画像の位置座標が計算される。フリック判定方法については、例えば特開2006−85703号公報に記載されている。
【0068】
なお、CPU104の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
【0069】
また、上述した各実施形態においては、本発明をデジタルビデオカメラに適用した例を説明したが、これは一例にすぎず、オブジェクトに対応する位置座標を指定することにより選択可能な情報処理装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。例えば、ゲーム機において表示されたキャラクタ(オブジェクト)が移動している場合に、これをタッチ操作や他のポインティング操作(マウスによるクリックや、ポインタによるポインタ操作)によって選択する場合にも、本発明を適用できる。
【0070】
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

【特許請求の範囲】
【請求項1】
表示手段に表示オブジェクトを表示するように制御する表示制御手段と、
前記表示手段の画面上の座標を入力するための入力手段と、
前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、
前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有することを特徴とする情報処理装置。
【請求項2】
前記設定手段は、前記表示オブジェクトの移動速度の変化に応じて当該表示オブジェクトの反応領域の面積を変更することを特徴とする請求項1に記載の情報処理装置。
【請求項3】
表示手段に表示オブジェクトを表示するように制御する表示制御手段と、
前記表示手段の画面上の座標を入力するための入力手段と、
前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの動きベクトルに応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定手段と、
前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有することを特徴とする情報処理装置。
【請求項4】
前記設定手段は、前記表示オブジェクトの動きベクトルの変化に応じて当該表示オブジェクトの反応領域を当該動きベクトルの前方もしくは後方に向かって拡大することを特徴とする請求項3に記載の情報処理装置。
【請求項5】
前記設定手段は、前記表示オブジェクトの動きベクトルの変化に応じて当該表示オブジェクトの反応領域を当該動きベクトルの前方もしくは後方に向かって相対的に移動することを特徴とする請求項3に記載の情報処理装置。
【請求項6】
被写体像を撮像する撮像手段と、
前記撮像手段により撮像された映像から人物の顔を検出する顔検出手段と、を更に備え、
前記表示オブジェクトは、前記撮像手段により撮像された映像に含まれる人物であり、
前記設定手段は、前記顔の枠に前記反応領域を設定することを特徴とする請求項1ないし5のいずれか1項に記載の情報処理装置。
【請求項7】
前記選択手段は、選択された顔の枠を、選択されていない顔の枠に比べて太くして選択状態とすることを特徴とする請求項6に記載の情報処理装置。
【請求項8】
複数のシーンの映像データを記憶する記憶手段と、
前記記憶手段に記憶された映像データを再生する再生手段と、を更に備え、
前記表示オブジェクトは、前記記憶手段に記憶された各シーンの映像データに対応するサムネイルであり、
前記設定手段は、前記サムネイルに反応領域を設定し、
前記再生手段は、前記選択手段により選択状態とされたサムネイルに対応するシーンの映像データを再生することを特徴とする請求項1ないし5のいずれか1項に記載の情報処理装置。
【請求項9】
前記入力手段は、前記表示手段に設けられたタッチパネルであり、
前記選択手段は、前記タッチパネルによって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択状態とすることを特徴とする請求項1ないし7のいずれか1項に記載の情報処理装置。
【請求項10】
表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、を有する情報処理装置の制御方法であって、
前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定工程と、
前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択工程と、を有することを特徴とする制御方法。
【請求項11】
表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段の画面上の座標を入力するための入力手段と、を有する情報処理装置の制御方法であって、
前記表示制御手段によって画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの動きベクトルに応じて、前記入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する設定工程と、
前記入力手段によって入力された座標が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択工程と、を有することを特徴とする制御方法。
【請求項12】
コンピュータを、請求項1乃至9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
【請求項13】
コンピュータを、請求項1乃至9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを記憶したコンピュータによる読み取りが可能な記憶媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate


【公開番号】特開2012−217101(P2012−217101A)
【公開日】平成24年11月8日(2012.11.8)
【国際特許分類】
【出願番号】特願2011−82187(P2011−82187)
【出願日】平成23年4月1日(2011.4.1)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】