説明

端末装置、表示方法、及びプログラム

【課題】より現実の3次元の世界の操作に近い操作感を実現する。
【解決手段】端末装置1は、タッチパネルとして機能する表示部11を備え、横方向、縦方向、及び奥行き方向の加速度センサ14x、14y、及び14zにより端末装置1の動きを検出する。また、端末装置1は、透明操作部15のタッチセンサ15により、タッチパネルで押圧された表示部11に表示された3Dオブジェクトを特定する。そして、端末装置1の動きが検出された場合、端末装置1の主制御装置16は、特定された3Dオブジェクトを他の表示内容と区別して、検出された動きに応じて、表示部11による表示内容に所定の制御を行なう。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、端末装置、表示方法、及びプログラムに関し、特に、より現実の3次元の世界の操作に近い操作感を実現することができる端末装置、表示方法、及びプログラムに関する。
【背景技術】
【0002】
近年、視差を利用した仮想的な3次元表示が広く利用されるようになり、3次元表示ならではのユーザインタフェイスが工夫されている。
【0003】
このような3次元表示を行うものとして、特許文献1には、タッチパネルに触れたときに、指し示しているオブジェクト以外のオブジェクトを手前に移動させ、タッチパネルを奥行き方向に押し込んだ場合は、押し込み量に応じて、指し示しているオブジェクト以外のオブジェクトを奥行き方向に移動させる技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2006−293878号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に開示の技術では、3次元立体画像を、観測者から見てタッチパネルより手前にも表示するものであるため、現実の3次元の世界の操作からほど遠く、観測者に却って違和感を与えてしまうといった問題があった。
【0006】
本発明は、上記の課題を解決するためになされたものであり、より現実の3次元の世界の操作に近い操作感を実現することができる端末装置、表示方法、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するため、本発明の第1の観点に係る端末装置は、端末装置であって、当該端末装置の動きを検出する検出手段と、文字列を表示部に表示する文字列表示手段と、前記文字列表示手段によって表示部に表示されている文字列の中から特定の文字又は文字列を指定する指定手段と、前記検出手段によって当該端末装置の引く動きを検出した場合に、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して表示するように制御する制御手段と、を備えることを特徴とする。
【0008】
上記の端末装置において、前記制御手段は、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して、3D表示の奥行きを変更して表示するように制御する、ようにしてもよい。
【0009】
また、上記の端末装置において、前記制御手段は、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して、大きさを変更して表示するように制御する、ようにしてもよい。
【0010】
さらに、上記の端末装置において、前記制御手段は、前記検出手段によって当該端末装置の横方向及び縦方向の少なくともいずれか一方の動きを検出した場合に、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して、前記他の表示内容をスクロール表示するように制御する、ようにしてもよい。
【0011】
そして、上記の端末装置において、前記制御手段は、前記検出手段によって当該端末装置の押し込む動きを検出した場合に、前記指定手段によって指定された文字又は文字列を他の表示内容と同じ奥行きになるように表示するように制御する、ようにしてもよい。
【0012】
また、上記目的を達成するため、本発明の第2の観点に係る端末装置は、端末装置であって、当該端末装置の動きを検出する検出手段と、3Dオブジェクトを表示部に表示するオブジェクト表示手段と、前記オブジェクト表示手段によって表示部に表示されている3Dオブジェクトの中から特定の3Dオブジェクトを指定する指定手段と、前記検出手段によって当該端末装置の押し込む動きを検出した場合に、前記指定手段によって指定された3Dオブジェクトを他の表示内容と区別して表示するように制御する制御手段と、を備えることを特徴とする。
【0013】
上記の端末装置において、前記制御手段は、前記指定手段によって指定された3Dオブジェクトを他の表示内容と区別して、奥行きを変更して表示するように制御する、ようにしてもよい。
【0014】
また、上記の端末装置において、前記制御手段は、前記検出手段によって当該端末装置の引く動きを検出した場合に、他の表示内容と区別して表示していた3Dオブジェクトの配置を元に戻すように制御する、ようにしてもよい。
【0015】
そして、上記の端末装置において、前記オブジェクト表示手段は、音楽アルバムを示す3Dオブジェクトとともに、前記音楽アルバムを格納するためのラックを示す3Dオブジェクトを表示部に表示し、前記制御手段は、前記指定手段によって指定された音楽アルバムを示す3Dオブジェクトが前記ラックを示す3Dオブジェクトに格納されるように表示する、ようにしてもよい。
【0016】
さらに、上記目的を達成するため、本発明の第3の観点に係る端末装置は、端末装置であって、当該端末装置の動きを検出する検出手段と、表示部に表示されているオブジェクトを特定する特定手段と、前記検出手段により検出された当該端末装置の動きに応じて、前記特定手段により特定されたオブジェクトを他の表示内容と区別して、前記表示部による表示内容に所定の制御を行なう制御手段と、を備えることを特徴とする。
【0017】
上記の端末装置において、前記検出手段は、当該端末装置の所定方向の加速度を検出することによって、当該端末装置の動きを検出する、ようにしてもよい。
【0018】
また、上記目的を達成するため、本発明の第4の観点に係るプログラムは、端末装置のコンピュータに、当該端末装置の動きを検出する検出手順と、文字列を表示部に表示する文字列表示手順と、前記文字列表示手順によって表示部に表示されている文字列の中から特定の文字又は文字列を指定する指定手順と、前記検出手順によって当該端末装置の引く動きを検出した場合に、前記指定手順によって指定された文字又は文字列を他の表示内容と区別して表示するように制御する制御手順と、を実行させる。
【0019】
さらに、上記目的を達成するため、本発明の第5の観点に係る表示方法は、端末装置における表示方法であって、当該端末装置の動きを検出する検出ステップと、文字列を表示部に表示する文字列表示ステップと、前記文字列表示ステップによって表示部に表示されている文字列の中から特定の文字又は文字列を指定する指定ステップと、前記検出ステップによって当該端末装置の引く動きを検出した場合に、前記指定ステップによって指定された文字又は文字列を他の表示内容と区別して表示するように制御する制御ステップと、を備えることを特徴とする。
【0020】
また、上記目的を達成するため、本発明の第6の観点に係るプログラムは、端末装置のコンピュータに、当該端末装置の動きを検出する検出手順と、3Dオブジェクトを表示部に表示するオブジェクト表示手順と、前記オブジェクト表示手順によって表示部に表示されている3Dオブジェクトの中から特定の3Dオブジェクトを指定する指定手順と、前記検出手順によって当該端末装置の押し込む動きを検出した場合に、前記指定手順によって指定された3Dオブジェクトを他の表示内容と区別して表示するように制御する制御手順と、を実行させる。
【0021】
さらに、上記目的を達成するため、本発明の第7の観点に係る表示方法は、端末装置における表示方法であって、当該端末装置の動きを検出する検出ステップと、3Dオブジェクトを表示部に表示するオブジェクト表示ステップと、前記オブジェクト表示ステップによって表示部に表示されている3Dオブジェクトの中から特定の3Dオブジェクトを指定する指定ステップと、前記検出ステップによって当該端末装置の押し込む動きを検出した場合に、前記指定ステップによって指定された3Dオブジェクトを他の表示内容と区別して表示するように制御する制御ステップと、を備えることを特徴とする。
【0022】
また、上記目的を達成するため、本発明の第8の観点に係るプログラムは、端末装置のコンピュータに、当該端末装置の動きを検出する検出手順と、表示部に表示されているオブジェクトを特定する特定手順と、前記検出手順により検出された当該端末装置の動きに応じて、前記特定手順により特定されたオブジェクトを他の表示内容と区別して、前記表示部による表示内容に所定の制御を行なう制御手順と、を実行させる。
【0023】
さらに、上記目的を達成するため、本発明の第9の観点に係る表示方法は、端末装置における表示方法であって、当該端末装置の動きを検出する検出ステップと、表示部に表示されているオブジェクトを特定する特定ステップと、前記検出ステップにより検出された当該端末装置の動きに応じて、前記特定ステップにより特定されたオブジェクトを他の表示内容と区別して、前記表示部による表示内容に所定の制御を行なう制御ステップと、を備えることを特徴とする。
【発明の効果】
【0024】
本発明によれば、より現実の3次元の世界の操作に近い操作感を実現することができる端末装置、表示方法、及びプログラムを提供することができる。
【図面の簡単な説明】
【0025】
【図1】端末装置の構成例を示すブロック図である。
【図2】右目と左目の平面投影位置の差を例示する説明図である。
【図3】(a)は、左目用の画像を例示する説明図であり、(b)は、右目用の画像を例示する説明図である。
【図4】測定値記録領域の構成例を示す図である。
【図5】インタフェイス用記録領域の構成例を示す図である。
【図6】押し込む操作が行われたときの左目側の描画例を示す説明図である。
【図7】タイマタスク処理の一例を示すフローチャートである。
【図8】センサタスク処理の一例を示すフローチャートである。
【図9】アルバム管理処理の一例を示すフローチャートである。
【図10】アルバム管理処理の一例を示すフローチャートの続きである。
【図11】アルバム管理処理が実行されたときの表示例を示す図である。
【図12】テキスト編集処理の一例を示すフローチャートである。
【図13】スクロール処理の一例を示すフローチャートである。
【図14】奥行き移動処理の一例を示すフローチャートである。
【図15】奥行き移動処理が実行されたときの表示例を示す図である。
【図16】タッチ関連処理の一例を示すフローチャートである。
【図17】テキスト編集処理が実行されたときの表示例を示す図である。
【図18】配置キャレットの表示例を示す図である。
【発明を実施するための形態】
【0026】
以下、本発明を実施するための最良の形態について説明する。
【0027】
まず、本実施形態に係る端末装置について図面を参照しつつ説明する。
【0028】
図1は、本実施形態に係る端末装置の構成例を示すブロック図である。
【0029】
端末装置1は、例えば移動体通信端末やPDA(Personal Digital Assistance)などによって実現され、図1に示すように、表示部11と、左目用及び右目用の表示メモリ12L及び12Rと、立体表示制御部13と、横方向、縦方向、及び奥行き方向の加速度センサ14x、14y、及び14zと、透明操作部15と、主制御装置16と、を備えている。
【0030】
表示部11は、仮想的な3次元表示(立体表示)を行うことができるもので、例えばLCD(Liquid Crystal Display)などから構成されている。表示部11は、例えば視差バリア方式などを用いて左目用の画像と右目用の画像とを表示することで、立体的な画像表示を実現することができる。
【0031】
左目用及び右目用の表示メモリ12L及び12Rは、例えばVRAM(Video RAM)などから構成され、左目用の表示メモリ12Lには、左目用の画像データが、右目用の表示メモリ12Rには、右目用の画像データが、それぞれ書き込まれる。
【0032】
立体表示制御部13は、例えばVDP(Video Display Processor)や、CGROM(Character Generator ROM)、LCD駆動回路などから構成され、表示部11に接続されている。立体表示制御部13は、左目用の表示メモリ12Lに書き込まれた左目用の画像データと、右目用の表示メモリ12Rに書き込まれた右目用の画像データと、を表示部11に送って左目用の画像表示と右目用の画像表示とを行うことで、表示部11における立体表示を制御する。
【0033】
図2は、右目と左目の平面投影位置の差を例示する説明図である。
【0034】
ユーザが、奥行き距離がそれぞれ違う3つの矢印を見ているときに、これらの矢印を任意の平面上に投影すると、図2に示すように、左目と右目とで矢印が見えている位置が違ってくる。すなわち、投影面よりも奥側にある、換言すれば投影面よりも奥行き距離が遠い左側の矢印の先端は、左目と右目とでΔdaだけずれて見え、投影面よりも手前にある、換言すれば投影面よりも奥行き距離が近い右側の矢印の先端は、左目と右目とで−Δdbだけずれて見える。なお、図2に示す例では、左目の視線と右目の視線とが途中で交差し、ずれ量が反転されるため、右側の矢印の先端に対する左目と右目とでのずれ量Δdbには、マイナスが付されている。
【0035】
図3(a)は、左目用の画像を例示する説明図であり、図3(b)は、右目用の画像を例示する説明図である。
【0036】
図1に示す立体表示制御部13は、図3(a)及び(b)に示すように、左目用の画像と右目用の画像とをずれ量Δda及び−Δdb分だけずらして表示部11の表示画面に表示させることで、逆に表示画面の奥側に左側の矢印が、手前に右側の矢印があるかのようにユーザに見せることができる。
【0037】
図1に示す横方向、縦方向、及び奥行き方向の加速度センサ14x、14y、及び14zは、それぞれ端末装置1の筐体の横方向、縦方向、奥行き方向といった3軸方向での動きを検知する。
【0038】
透明操作部15は、表示部11の表示画面に重ねられて配置され、ユーザが表示画面を指などで触ったことを感知可能なタッチセンサ151を備えている。透明操作部15は、ユーザが表示部11の表示画面を見ながら表示画面を指などでタッチして端末装置1の操作を行うことを可能にする。すなわち、透明操作部15は、表示部11をタッチパネルとして機能させることができる。
【0039】
主制御装置16は、例えばCPU(Central Processing Unit)や、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成され、CPUがRAMをワークメモリとして用いてROM等に記録されている各種プログラムを適宜実行することにより、端末装置1の各部の動作を制御する。
【0040】
本実施形態において、主制御装置16のCPUは、マルチタスク動作を行う。本実施形態では、2種類の計5つのタスクから構成され、具体的には、1つのタイマタスクと4つのセンサタスクと、から成る。
【0041】
タイマタスクは、一定間隔で割り込みを発生させて各タスクを起動させる役割を担い、本実施形態では、一定間隔で4つのセンサタスクを同時に起動させている。
【0042】
センサタスクは、動作原理が同じものが4つ用意され、それぞれ横方向加速度センサ14x、縦方向加速度センサ14y、奥行き方向加速度センサ14z、及びタッチセンサ151の読取値を管理する。
【0043】
また、本実施形態において、主制御装置16のRAMには、測定値記録領域と、メインタスクとのインタフェイス用記録領域と、が設けられている。
【0044】
図4は、測定値記録領域の構成例を示す図である。
【0045】
測定値記録領域は、横方向、縦方向、及び奥行き方向の加速度センサ14x、14y、及び14zの読取値から重力(地球の引力)加速度と、誤差範囲内の細かいぶれと、を取り除くためのもので、図4に示すように、横方向加速度センサ14x、縦方向加速度センサ14y、奥行き方向加速度センサ14z、及びタッチセンサ151毎に、その読取値を測定値として記録する。
【0046】
図5は、インタフェイス用記録領域の構成例を示す図である。
【0047】
インタフェイス用記録領域は、横方向加速度センサ14x、縦方向加速度センサ14y、奥行き方向加速度センサ14z、及びタッチセンサ151の読取値の変化が、誤差範囲を超える場合に、その変化値を、図5に示すように、測定値として記録する。
【0048】
係る構成を備えることにより、主制御装置16は、奥行き方向の加速度センサ14zを監視することによって、端末装置1の筐体が押し込まれる方向に動いたか、事前に引かれた動きを加えられたかを検知することができる。
【0049】
また、主制御装置16は、表示部11の表示画面に例えば3つの矢印が表示されている場合に、ユーザがそのうちの1つを指で触わり筐体ごと押し込む動作をすると、透明操作部15のタッチセンサ151の検知結果と奥行き方向の加速度センサ14zの検知結果とによって、ユーザにより矢印の一つがタッチされたまま押し込む操作がされたことを検知することができる。
【0050】
さらに、主制御装置16は、ユーザによりタッチされている矢印について左目用の画像と右目用の画像との表示位置に差を付けない一方で、その他の矢印について左目用の画像と右目用の画像との表示位置を変えて見かけ上の奥行き距離を保ったまま、タッチされている矢印だけが奥側に押し込まれたかのように、表示部11の表示画面に表示させることができる。
【0051】
図6は、押し込む操作が行われたときの左目側の描画例を示す説明図である。
【0052】
図6(a)は、中央の矢印を押し込む操作が行われる前の描画例を示し、指で触られていない左側及び右側の矢印の先端の座標を、それぞれA及びBとする。
【0053】
図6(b)は、中央の矢印を押し込む操作が行われた後の描画例を示している。中央の矢印を押し込む操作が行われた場合、左側の矢印の先端の座標をA’とし、右側の矢印の先端の座標をB’とすることで、ユーザの目には、指で触っていない左側及び右側の矢印が手前に残ったように見える。なお、図6(b)に示す例では、左側及び右側の矢印の先端の座標がずれていることを分かり易くするために、ずらす前の左側及び右側の矢印の先端の座標A及びBを、ずらす前の左側及び右側の矢印と同じ間隔で示している。
【0054】
ここで、矢印を触っている指は、現実のもので左目及び右目でずれて見えるものではない。このため、図1に示す主制御装置16は、指で触られている中央の矢印の座標を変化させないようにすることで表示部11での立体表示の効果を高めている。
【0055】
次に、上記の構成を備える端末装置1が実行する処理について図面を参照しつつ説明する。
【0056】
図7は、タイマタスク処理の一例を示すフローチャートである。
【0057】
このタイマタスク処理において、主制御装置16のCPUは、まず、図7に示すように、サンプリング周期の設定を行う(ステップS1)。本実施形態では、横方向加速度センサ14x、縦方向加速度センサ14y、奥行き方向加速度センサ14z、及びタッチセンサ151の値(センサ値)を読み取る周期などが設定される。
【0058】
その後、CPUは、割り込みが発生する毎に、ステップS1の処理にて設定したセンサ値の読取周期に基づいて、センサ値の読取タイミングであるセンス時刻になったか否かを判別する(ステップS2)。
【0059】
ここで、センス時刻になっていれば(ステップS2;Yes)、CPUは、4つのセンサタスクを同時に起動するための処理を実行した後(ステップS3)、ステップS2の処理へリターンする。これに対して、センス時刻になっていなければ(ステップS2;No)、CPUは、ステップS1の処理におけるサンプリング周期の設定に従って、他のタスクを起動するための処理を実行した後(ステップS4)、ステップS2の処理へリターンする。
【0060】
ステップS3の処理が実行されることにより、4つのセンサタスクが同時に起動されると、CPUは、下記のセンサタスク処理を、横方向加速度センサ14x、縦方向加速度センサ14y、奥行き方向加速度センサ14z、及びタッチセンサ151毎に実行する。
【0061】
図8は、センサタスク処理の一例を示すフローチャートである。
【0062】
このセンサタスク処理において、主制御装置16のCPUは、まず、図8に示すように、センサ値を読み取る(ステップS11)。
【0063】
具体的に、横方向加速度センサ14xに対応するセンサタスク処理では、横方向加速度センサ14xの値が、縦方向加速度センサ14yに対応するセンサタスク処理では、縦方向加速度センサ14yの値が、奥行き方向加速度センサ14zに対応するセンサタスク処理では、奥行き方向加速度センサ14zの値が、タッチセンサ151に対応するセンサタスク処理では、タッチセンサ151の値が、それぞれ読み取られる。
【0064】
次に、CPUは、ステップS11の処理にて読み取ったセンサ値(今回の読取値)と、図4に示す測定値記録領域に測定値として記録されている前回の読取値と、を引算比較して、その変化量が誤差範囲内であるか否かを判別する(ステップS12)。
【0065】
ここで、変化量が誤差範囲を超えていれば(ステップS12;No)、CPUは、その変化量を示す値(変化値)を測定値として図5に示すインタフェイス用記録領域に記録することで、変化量をセットするとともに(ステップS13)、検知イベントを発行する(ステップS14)。
【0066】
具体的に、横方向加速度センサ14xに対応するセンサタスク処理では、イベントID(Identification Data)が「1」の検知イベントが、縦方向加速度センサ14yに対応するセンサタスク処理では、検知IDが「2」の検知イベントが、奥行き方向加速度センサ14zに対応するセンサタスク処理では、検知IDが「3」の検知イベントが、タッチセンサ151に対応するセンサタスク処理では、検知IDが「4」の検知イベントが、それぞれ発行される。
【0067】
これに対して、変化量が誤差範囲内であれば(ステップS12;Yes)、CPUは、ステップS13及びステップS14の処理をスキップする。
【0068】
そして、CPUは、ステップS11の処理にて読み取ったセンサ値(今回の読取値)を、測定値として図4に示す測定値記録領域に記録してから(ステップS15)、センサタスク処理を終了する。
【0069】
また、図7に示すステップS4の処理が実行されることにより、本実施形態では、音楽プレーヤのアルバムを管理するためのアルバム管理処理や、テキスト編集処理などが実行される。
【0070】
図9及び図10は、アルバム管理処理の一例を示すフローチャートである。
【0071】
このアルバム管理処理において、主制御装置16のCPUは、まず、図9に示すように、音楽アルバム及びCD(Compact Disc)ラックの3D(Three Dimensional)オブジェクトを通常位置に配置するための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込む(ステップS21)。
【0072】
次に、立体表示制御部13は、左目用の表示メモリ12Lに書き込まれた左目用の画像データと、右目用の表示メモリ12Rに書き込まれた右目用の画像データと、を表示部11に送って左目用の画像表示と右目用の画像表示とを行うことで、表示部11の表示画面に音楽アルバム及びCDラックの3Dオブジェクトを描画して3D立体表示させる(ステップS22)。
【0073】
続いて、CPUは、図5に示すインタフェイス用記録領域を参照してイベントチェックを行い(ステップS23)、図8に示すステップS14の処理にて検知イベント(センサイベント)が発行されたか否かを判別する(ステップS24)。
【0074】
ここで、検知イベント(センサイベント)が発行されていれば(ステップS24;Yes)、CPUは、その検知IDが「1」であるか否かをチェックするなどして、発行された検知イベントが横方向加速度センサ14xの検知イベントであるか否かを判別する(ステップS25)。
【0075】
ここで、横方向加速度センサ14xの検知イベントであれば(ステップS25;Yes)、CPUは、その検知イベントをクリアしてから(ステップS26)、ステップS23の処理へリターンする。
【0076】
これに対して、横方向加速度センサ14xの検知イベントでなければ(ステップS25;No)、CPUは、その検知IDが「2」であるか否かをチェックするなどして、発行された検知イベントが縦方向加速度センサ14yの検知イベントであるか否かを判別する(ステップS27)。
【0077】
ここで、縦方向加速度センサ14yの検知イベントであれば(ステップS27;Yes)、CPUは、その検知イベントをクリアしてから(ステップS28)、ステップS23の処理へリターンする。
【0078】
これに対して、縦方向加速度センサ14yの検知イベントでなければ(ステップS27;No)、CPUは、その検知IDが「3」であるか否かをチェックするなどして、発行された検知イベントが奥行き方向加速度センサ14zの検知イベントであるか否かを判別する(ステップS29)。
【0079】
ここで、奥行き方向加速度センサ14zの検知イベントでなければ(ステップS29;No)、CPUは、発行された検知イベントがタッチセンサ151の検知イベントであると判別して、その検知イベントをクリアする(ステップS30)。
【0080】
続いて、CPUは、図5に示すインタフェイス用記録領域に記録されているタッチセンサ151の測定値に基づいて、ユーザが表示部11の表示画面のタッチを開始したか否かを判別する(ステップS31)。
【0081】
ここで、ユーザが表示画面のタッチを開始する場合には(ステップS31;Yes)、例えばRAMなどに設けられたタッチ状態フラグをオンにセットするなどして、タッチありの状態にしてから(ステップS32)、ステップS23の処理へリターンする。
【0082】
これに対して、奥行き方向加速度センサ14zの検知イベントであれば(ステップS29;Yes)、CPUは、その検知イベントをクリアした後(図10に示すステップS33)、タッチ状態フラグがオンであるか否かをチェックするなどして、タッチありの状態になっているか否かを判別する(ステップS34)。
【0083】
ここで、タッチありの状態でなければ(ステップS34;No)、CPUは、図9に示すステップS23の処理へリターンする。これに対して、タッチありの状態であれば(図10に示すステップS34;Yes)、CPUは、ユーザが表示画面をタッチしたまま端末装置1の筐体ごと押し込む(筐体を向側に押す)動作をしたか、或いはCDラック上で指を滑らせてアルバム名を表示させながら音楽アルバムを選択し、手を離さずに表示画面を筐体ごと手前に引く動作をしたか否かを判別する(ステップS35)。
【0084】
ここで、ユーザが表示画面を押し込む動作をした場合には(ステップS35;Yes)、図11(a)に示すように、音楽アルバム及びCDラックの3Dオブジェクトが通常位置に配置されているか否かを判別し(ステップS36)、通常位置に配置されていなければ(ステップS36;No)、CPUは、図9に示すステップS23の処理へリターンする。
【0085】
これに対して、通常位置に配置されていれば(図10に示すステップS36;Yes)、CPUは、タッチされていない音楽アルバム及びCDラックの3Dオブジェクトを手前に移動させる処理を行うための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込んでから(ステップS37)、図9に示すステップS22の処理へリターンする。
【0086】
これにより、表示部11の表示画面には、図11(b)に示すように、ユーザが指を添えていない音楽アルバムと、奥にあるCDラックと、が手前に移動されて表示され、ユーザの目には、相対的にタッチしている音楽アルバムが奥に押し込められたかのように見える。
【0087】
これに対して、ユーザが表示画面のタッチを既に開始している場合には(図9に示すステップS31;No)、図5に示すインタフェイス用記録領域に記録されているタッチセンサ151の測定値に基づいて、ユーザがラックの上段又は下段を選んで表示画面から手を離したか否かを判別する(図10に示すステップS38)。
【0088】
ここで、ユーザが表示画面から手を離した場合には(ステップS38;Yes)、音楽アルバムをCDラックに格納する処理を行うための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込むとともに、タッチ状態フラグをクリアしてオフにしてから(ステップS39)、図9に示すステップS22の処理へリターンする。
【0089】
これにより、表示部11の表示画面には、音楽アルバムがCDラックにひらりと舞い込むように格納される画像が表示される。
【0090】
これに対して、ユーザが表示画面から手を離していない場合には(図10に示すステップS38;No)、音楽アルバムをCDラックに格納する処理以外の操作処理を行うための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込んでから(ステップS40)、図9に示すステップS22の処理へリターンする。
【0091】
これに対して、ユーザが手を離さずに表示画面を手前に引く動作をした場合には(図10に示すステップS35;No)、タッチされていない音楽アルバム及びCDラックの3Dオブジェクトが手前に移動されて配置されているか否かを判別する(ステップS41)。
【0092】
ここで、手前に移動されて配置されていなければ(ステップS41;No)、CPUは、図9に示すステップS23の処理へリターンする。これに対して、手前に移動されて配置されていれば(図10に示すステップS41;Yes)、CPUは、図9に示すステップS21の処理へとリターンする。
【0093】
これにより、表示部11の表示画面には、ユーザにより選択された音楽アルバムの3Dオブジェクトの配置が初期化されることで、音楽アルバムの3Dオブジェクトが手前に持ってこられて、図11(a)に示す通常位置に並べて表示される。
【0094】
これに対して、検知イベント(センサイベント)が発行されていなければ(図9に示すステップS24;No)、CPUは、その他の処理を行ってから(ステップS42)、ステップS23の処理へリターンする。
【0095】
図12は、テキスト編集処理の一例を示すフローチャートである。
【0096】
このテキスト編集処理において、主制御装置16のCPUは、まず、図12に示すように、テキストを貼り付けた3Dオブジェクト(単純な平面にテクスチャが貼られたもの)を生成する(ステップS51)。
【0097】
次に、CPUは、テキストを貼り付けた3Dオブジェクトを表示するための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込んで、表示部11の表示画面に3Dオブジェクトによるテキスト描画を行って3D立体表示させる(ステップS52)。
【0098】
続いて、CPUは、図5に示すインタフェイス用記録領域を参照してイベントチェックを行い(ステップS53)、図8に示すステップS14の処理にて検知イベント(センサイベント)が発行されたか否かを判別する(ステップS54)。
【0099】
ここで、検知イベント(センサイベント)が発行されていれば(ステップS54;Yes)、CPUは、その検知IDが「1」であるか否かをチェックするなどして、発行された検知イベントが横方向加速度センサ14xの検知イベントであるか否かを判別する(ステップS55)。
【0100】
ここで、横方向加速度センサ14xの検知イベントであれば(ステップS55;Yes)、CPUは、横方向のスクロール処理を実行する(ステップS56)。これに対して、横方向加速度センサ14xの検知イベントでなければ(ステップS55;No)、CPUは、ステップS55の横方向のスクロール処理をスキップする。
【0101】
続いて、CPUは、その検知IDが「2」であるか否かをチェックするなどして、発行された検知イベントが縦方向加速度センサ14yの検知イベントであるか否かを判別する(ステップS57)。
【0102】
ここで、縦方向加速度センサ14yの検知イベントであれば(ステップS57;Yes)、CPUは、縦方向のスクロール処理を実行する(ステップS58)。これに対して、縦方向加速度センサ14yの検知イベントでなければ(ステップS57;No)、CPUは、ステップS58の縦方向のスクロール処理をスキップする。
【0103】
続いて、CPUは、その検知IDが「3」であるか否かをチェックするなどして、発行された検知イベントが奥行き方向加速度センサ14zの検知イベントであるか否かを判別する(ステップS59)。
【0104】
ここで、奥行き方向加速度センサ14zの検知イベントであれば(ステップS59;Yes)、CPUは、奥行き移動処理を実行する(ステップS60)。これに対して、奥行き方向加速度センサ14zの検知イベントでなければ(ステップS59;No)、CPUは、ステップS60の奥行き移動処理をスキップする。
【0105】
続いて、CPUは、その検知IDが「4」であるか否かをチェックするなどして、発行された検知イベントがタッチセンサ151の検知イベントであるか否かを判別する(ステップS61)。
【0106】
ここで、タッチセンサ151の検知イベントであれば(ステップS61;Yes)、CPUは、タッチ関連処理を実行してから(ステップS62)、ステップS53の処理へリターンする。これに対して、タッチセンサ151の検知イベントでなければ(ステップS61;No)、CPUは、そのままステップS53の処理へリターンする。
【0107】
これに対して、検知イベント(センサイベント)が発行されていなければ(ステップS54;No)、CPUは、その他の処理を行ってから(ステップS63)、ステップS53の処理へリターンする。
【0108】
図13は、スクロール処理の一例を示すフローチャートである。
【0109】
このスクロール処理において、主制御装置16のCPUは、まず、図13に示すように、3Dオブジェクトのテクスチャを、表示したいテキストの範囲に沿って作り直す(再生成する)(ステップS101)。
【0110】
具体的に、横方向のスクロール処理では、端末装置1の筐体が左方向に移動したらテキストの表示範囲を左に、右方向に移動したら表示範囲を右に、それぞれ変更したテクスチャが再生成される。また、縦方向のスクロール処理では、端末装置1の筐体が上方向に移動したらテキストの表示範囲を上に、下方向に移動したら表示範囲を下に、それぞれ変更したテクスチャが再生成される。
【0111】
そして、CPUは、テクスチャが作り直された3Dオブジェクトを表示するための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込んで、表示部11の表示画面にテクスチャが作り直された3Dオブジェクトによるテキスト描画を行って3D再表示させてから(ステップS102)、スクロール処理を終了する。
【0112】
図14は、奥行き移動処理の一例を示すフローチャートである。
【0113】
この奥行き移動処理において、主制御装置16のCPUは、まず、図14に示すように、3Dオブジェクトに貼り付ける範囲を変更してテクスチャを作り直すことで、表示部11の表示画面に表示される文字数及び行数を変える(ステップS201)。
【0114】
具体的に、ユーザが表示部11の表示画面を押し込む操作をした場合には、図15(c)に示すように、3Dオブジェクトに貼り付ける範囲を狭くしたテクスチャを再生成することで、表示画面に表示される文字数及び行数を減少させる。これに対して、ユーザが表示部11の表示画面を引く操作をした場合には、図15(b)に示すように、3Dオブジェクトに貼り付ける範囲を広くしたテクスチャを再生成することで、表示画面に表示される文字数及び行数を増加させる。
【0115】
次に、CPUは、3Dオブジェクトの奥行き方向の座標を変更する(図14に示すステップS202)。
【0116】
具体的には、図15(a)に示すように、ユーザが表示画面を押し込む操作をした場合であれば、奥行き方向の座標を手前に移動させ、引く操作をした場合であれば、奥行き方向の座標を奥に移動させる。
【0117】
続いて、CPUは、テキストが貼り付けられた3Dオブジェクトを最終的に表示画面全体に表示させるべく、3Dオブジェクトの大きさを調整する(図14に示すステップS203)。
【0118】
具体的に、ユーザにより表示画面を押し込む操作がされて3Dオブジェクトの奥行き方向の座標が手前に移動されている場合には、図15(e)に示すように、3Dオブジェクトのサイズを小さく調整し、ユーザにより表示画面を引く操作がされて3Dオブジェクトの奥行き方向の座標が奥に移動されている場合には、図15(d)に示すように、3Dオブジェクトのサイズを大きく調整する。
【0119】
その後、CPUは、テクスチャが作り直された3Dオブジェクトを表示するための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込んで、表示部11の表示画面にテクスチャが作り直された3Dオブジェクトによるテキスト描画を行って3D再表示させる(図14に示すステップS204)。
【0120】
これにより、ユーザの目には、表示画面を押し込む操作をした場合、テキスト文章が近づくように見え、表示画面を引く操作をした場合には、逆にテキスト文章が遠ざかるように見える。
【0121】
そして、CPUは、例えばRAMなどに設けられた範囲指定中状態フラグをクリアしてオフにすることにより、後述するタッチ関連処理にて遷移される範囲指定中状態を解除する(ステップS205)。
【0122】
図16は、タッチ関連処理の一例を示すフローチャートである。
【0123】
このタッチ関連処理において、主制御装置16のCPUは、まず、図16に示すように、まず、図5に示すインタフェイス用記録領域に記録されているタッチセンサ151の測定値に基づいて、ユーザが表示部11の表示画面のタッチを開始したか否かを判別する(ステップS301)。
【0124】
ここで、ユーザが表示画面のタッチを開始する場合には(ステップS301;Yes)、ユーザが指で範囲指定していることを示す範囲指定中状態フラグをオンにセットするなどして、範囲指定中状態にしてから(ステップS302)、タッチ関連処理を終了する。
【0125】
これに対して、ユーザが表示画面のタッチを既に開始している場合には(ステップS301;No)、図5に示すインタフェイス用記録領域に記録されているタッチセンサ151の測定値に基づいて、ドラッグされているか否かを判別する(ステップS303)。
【0126】
ここで、ドラッグされていれば(ステップS303;Yes)、CPUは、範囲指定中状態フラグがオンであるか否かをチェックするなどして、範囲指定中状態になっているか否かを判別する(ステップS304)。
【0127】
ここで、範囲指定中状態になっていれば(ステップS304;Yes)、CPUは、範囲指定された文字や文字列を取り出した小さい3Dオブジェクトを生成したり、小さい3Dオブジェクトに貼り付けられるテクスチャを更新したりする(ステップS305)。この小さい3Dオブジェクトの奥行きの座標は0に設定される。
【0128】
これに対して、ドラッグされていなければ(ステップS303;No)、CPUは、図5に示すインタフェイス用記録領域に記録されているタッチセンサ151の測定値に基づいて、リリースされたか否かを判別する(ステップS306)。
【0129】
ここで、リリースされていれば(ステップS306;Yes)、CPUは、範囲指定中状態フラグがオンであるか否かをチェックするなどして、範囲指定中状態になっているか否かを判別する(ステップS307)。
【0130】
ここで、範囲指定中状態になっていれば(ステップS307;Yes)、CPUは、範囲指定中フラグをクリアしてオフにして、範囲指定中状態を解除してから(ステップS308)、タッチ関連処理を終了する。
【0131】
そして、ドラッグされたときに、範囲指定中状態でなければ(ステップS304;No)、CPUは、貼付位置を表す配置キャレットの3Dオブジェクトを生成したり、配置キャレットの3Dオブジェクトや小さい3Dオブジェクトの位置を変更したりする(ステップS309)。
【0132】
これに対して、リリースされたときに、範囲指定中状態でなければ(ステップS306;No)、CPUは、配置キャレットの3Dオブジェクト、及び小さい3Dオブジェクトを表示画面から削除した後(ステップS310)、テキスト文章に、選択された文字や文字列を挿入する(ステップS311)。
【0133】
続いて、CPUは、テキストが貼り付けられた3Dオブジェクトのテクスチャを更新する(ステップS312)。これにより、表示画面では、表示されるテキスト文章が更新される。
【0134】
そして、ステップS305、ステップS309、及びステップS312の処理を実行した後、CPUは、CPUは、テクスチャが生成又は更新された3Dオブジェクトを表示するための左目用及び右目用の画像データを、それぞれ左目用及び右目用の表示メモリ12L及び12Rに書き込んで、表示部11の表示画面にテクスチャが生成又は更新された3Dオブジェクトによるテキスト描画を行って3D再表示させてから(ステップS313)、タッチ関連処理を終了する。
【0135】
これに対して、ドラッグもリリースもされていない場合には(ステップS306;No)、その他の処理を実行してから(ステップS314)、タッチ関連処理を終了する。
【0136】
上記の処理を実行する端末装置の具体的動作について図面を参照しつつ説明する。
【0137】
図17は、テキスト編集処理が実行されるときの表示例を示す図である。
【0138】
例えばユーザが端末装置1のテキスト編集機能を用いてテキスト文章を編集している場合において、以前に入力した文字又は文字列を再利用したいときには、まず、その文字又は文字列が入力されている部分を表示部11の表示画面に表示させる。
【0139】
そして、図17(a)に示すように、ユーザが表示画面を指でタッチし、再入力したい文字又は文字列を指で範囲指定をすると、端末装置1では、図16に示すステップS301〜ステップS308の処理が実行されることにより、コピー対象の文字又は文字列が特定されて選択される。
【0140】
次に、ユーザが端末装置1の筐体ごと指で引く動作をすると、端末装置1では、図14に示す奥行き移動処理が実行されて範囲指定中状態が解除される。これにより、端末装置1では、図16に示すステップS309及びステップS313の処理が実行されるため、選択された文字や文字列と、テキスト文書と、が区別される。そして、ステップS305の処理にて選択された文字や文字列の3Dオブジェクトの奥行き方向の座標が0に設定されるため、図14に示す奥行き移動処理が実行されることにより、選択された文字や文字列の3Dオブジェクト以外の奥行き座標及び大きさのみが変更される。具体的に、表示画面をタッチしたまま端末装置1の筐体を垂直方向に押し込む動きであった場合には、選択された文字や文字列の3Dオブジェクト以外が手前に飛び出すように表示され、手前に引く動きであった場合には、奥に引っ込むように表示される。この結果、表示画面には、図17(b)に示すように、選択された文字や文字列がユーザの指に吸い付いたかのように浮き上がって表示されるとともに、その後方では、テキスト文書が広い範囲で表示される。
【0141】
続いて、ユーザが筐体を下方向に動かすと、端末装置1では、これが縦方向の加速度センサ14yにて検知され、図13に示す縦方向のスクロール処理が実行されることにより、表示画面には、図17(c)に示すように、後方のテキスト文章全体が縦方向にスクロール表示される。このような動作を実行することにより、端末装置1は、ユーザに、表示部11の表示画面をあたかもテキスト文書を覗く窓のように感じさせることができる。
【0142】
なお、図17に示す例では、テキスト文章の幅が、表示部11の表示画面の幅と同一であるが、テキスト文章の幅を表示画面の幅より広くしてもよく、この場合、ユーザが筐体全体を左右に動かす動作をすると、端末装置1では、これが横方向の加速度センサ14xにて検知され、図13に示す横方向のスクロール処理が実行されることにより、選択された文字や文字列を配置したい場所まで横方向にスクロール表示させることもできる。
【0143】
そして、ユーザが、選択した文字や文字列を配置したい場所を見つけて筐体を押し込む動作をすると、端末装置1では、図14に示す奥行き移動処理が実行されることにより、表示画面には、図17(d)に示すように、浮き上がっていた文字列が、後方のテキスト文章と同じ奥行きになって表示される。
【0144】
その後、ユーザが、文字や文字列が吸い付いた指を目的の場所まで移動させて手を離すと、端末装置1では、図16に示すステップS310〜ステップS313の処理が実行されることにより、テキスト文章に、選択された文字や文字列が挿入されて配置される。
【0145】
なお、図17に示す例では、簡単のため図示を省略したが、選択されたコピー対象の文字や文字列がユーザの指に吸い付いた状態のときには、図18(a)及び(b)に示すように、配置キャレットが表示画面に表示される。このような配置キャレットを表示することにより、端末装置1は、選択された文字や文字列が指に吸い付いていることや、指を離したらどの場所に挿入されるかをユーザに明示することができる。さらに、ユーザが筐体を押し込む動作をしたときには、配置キャレットがある場所を中心にズームアップする動作をすることにより、選択された文字や文字列が挿入される場所をユーザにより分かり易く示してもよい。
【0146】
以上説明したように、本実施形態に係る端末装置1は、タッチパネルとして機能する表示部11を備え、横方向、縦方向、及び奥行き方向の加速度センサ14x、14y、及び14zにより端末装置1の動きを検出する。また、端末装置1は、透明操作部15のタッチセンサ15により、タッチパネルで押圧された表示部11に表示された3Dオブジェクトを特定する。そして、端末装置1の動きが検出された場合、端末装置1の主制御装置16は、特定された3Dオブジェクトを他の表示内容と区別して、検出された動きに応じて、表示部11による表示内容に所定の制御を行なう。このため、端末装置1では、現実の3次元の世界の操作に近い操作感で表示部11上で表示されている3Dオブジェクトの操作ができる。
【0147】
具体的に、端末装置1は、検出された動きが端末装置1の筐体をタッチしたまま垂直方向に押し込む動きであった場合、タッチパネルで押圧されている3Dオブジェクト以外が手前に飛び出すように表示を制御する。これにより、ユーザの目には、3Dオブジェクトが押し込まれたかのように見えるため、押圧している3Dオブジェクトを押し込んだ操作感を得ることができる。
【0148】
これに対して、検出された動きが端末装置1の筐体をタッチしたまま垂直方向に手前に引く動きであった場合には、タッチパネルで押圧されている3Dオブジェクト以外が奥に引っ込むように表示を制御する。これにより、ユーザは、3Dオブジェクト以外が引っ込んで3Dオブジェクトが指にくっついてきたかのように感じることができるため、押圧している3Dオブジェクトが指に吸い付いて飛び出したような操作感を得ることができる。
【0149】
このように、本実施形態に係る端末装置1によれば、指で触っている部分を不動点とし、その他の部分に演算による3D効果を付けることにより、3D効果を強調することができるので、リアルな操作感の新感覚ユーザインタフェイスを提供することができる。
【0150】
また、奥行きを扱うことができるようになるため、機能操作やゲームなどに、より官能的なインタフェイスを提供することができる。
【0151】
さらに、端末装置1は、押圧された3Dオブジェクト以外が手前に飛び出している或いは奥に引っ込むように表示されている状態で、端末装置1の水平方向への動きが検出された場合、押圧された3Dオブジェクトを表示部11上で移動させることができる。これにより、ユーザは、押圧している3Dオブジェクトを実際に移動させているような操作感を得ることができる。
【0152】
加えて、端末装置1は、配置キャレットを表示することにより、押圧された3Dオブジェクト以外が手前に飛び出している或いは奥に引っ込むように表示されている状態あることをユーザに示している。これにより、ユーザは、押圧している3Dオブジェクトが表示制御されていることが分かる。
【0153】
そして、表示部11が仮想的な3次元表示を行なうことで、ユーザは、よりリアルな操作感を得ることができる。
【0154】
なお、本発明は、上記実施形態に限定されず、種々の変形、応用が可能である。以下、本発明に適用可能な上記実施形態の変形態様について、説明する。
【0155】
上記実施形態では、端末装置1の筐体をタッチしたまま垂直方向に押し込む動きであった場合、タッチパネルで押圧されている3Dオブジェクト以外が手前に飛び出すように表示され、手前に引く動きであった場合、押圧されている3Dオブジェクト以外が奥に引っ込むように表示されるものとして説明した。しかしながら、本発明はこれに限定されるものではなく、押し込む動きであった場合、押圧されている3Dオブジェクト以外が奥に引っ込むように表示し、手前に引く動きであった場合、押圧されている3Dオブジェクト以外が手前に飛び出すように表示してもよい。
【0156】
また、表示部11の表示画面上の3Dオブジェクトにタッチしたまま筐体を水平方向に移動、回転させた場合には、タッチされた3Dオブジェクトはそのままにその他の表示内容を水平方向に移動、回転させるようにしてもよい。
【0157】
さらに、表示部11の表示画面上の3Dオブジェクトにタッチしたまま筐体を傾けた場合には、タッチされた3Dオブジェクトを傾けて表示するようにしてもよい。
【0158】
また、上記実施形態において、CPUが実行するプログラムは、予めROM等に記録されるものとして説明したが、本発明はこれに限定されるものではなく、上述の処理を実行させるためのプログラムを、既存の端末装置に適用することで、上記実施形態に係る端末装置1として機能させてもよい。
【0159】
このようなプログラムの提供方法は任意であり、例えばコンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM等)に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。
【0160】
さらに、上記の処理をOSとアプリケーションプログラムとの分担、又はOSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(BBS:Bulletin Board System)に上記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
【0161】
[付記1]
タッチパネルとして機能する表示部を備えた端末装置であって、
当該端末装置の動きを検出する検出手段と、
前記タッチパネルで押圧された前記表示部に表示されているオブジェクトを特定する特定手段と、
前記検出手段により当該端末装置の動きが検出された場合に、前記特定手段により特定されたオブジェクトを他の表示内容と区別して、前記検出された動きに応じて、前記表示部による表示内容に所定の制御を行なう制御手段と、
を備えることを特徴とする端末装置。
【0162】
[付記2]
前記制御手段は、前記検出手段により検出された動きが当該端末装置を垂直方向に押し込む動きであった場合、前記タッチパネルで押圧されているオブジェクト以外が手前に飛び出すように表示を制御する、
ことを特徴とする付記1に記載の端末装置。
【0163】
[付記3]
前記制御手段は、前記検出手段により検出された動きが当該端末装置を垂直方向に手前に引く動きであった場合、前記タッチパネルで押圧されているオブジェクト以外が奥に引っ込むように表示を制御する、
ことを特徴とする付記1又は2に記載の端末装置。
【0164】
[付記4]
前記制御手段は、前記押圧されたオブジェクト以外が手前に飛び出している或いは奥に引っ込むように表示されている状態で、前記検出手段により当該端末装置の水平方向への動きが検出された場合、前記押圧されたオブジェクトを前記表示部上で移動させる、
ことを特徴とする付記1、2、又は3に記載の端末装置。
【0165】
[付記5]
前記押圧されたオブジェクト以外が手前に飛び出している或いは奥に引っ込むように表示されている状態であることを示す表示指示手段を更に備える、
ことを特徴とする付記1乃至4のいずれか1項に記載の端末装置。
【0166】
[付記6]
前記表示部は、仮想的な3次元表示を行なう、
ことを特徴とする付記1乃至5のいずれか1項に記載の端末装置。
【0167】
[付記7]
タッチパネルとして機能する表示部を備えた端末装置における表示方法であって、
当該端末装置の動きを検出する検出ステップと、
前記タッチパネルで押圧された前記表示部に表示されているオブジェクトを特定する特定ステップと、
前記検出ステップにより当該端末装置の動きが検出された場合に、前記特定ステップにより特定されたオブジェクトを他の表示内容と区別して、前記検出された動きに応じて、前記表示部による表示内容に所定の制御を行なう制御ステップと、
を備えることを特徴とする表示方法。
【0168】
[付記8]
タッチパネルとして機能する表示部を備えた端末装置のコンピュータに、
当該端末装置の動きを検出する検出手順と、
前記タッチパネルで押圧された前記表示部に表示されているオブジェクトを特定する特定手順と、
前記検出手順により当該端末装置の動きが検出された場合に、前記特定手順により特定されたオブジェクトを他の表示内容と区別して、前記検出された動きに応じて、前記表示部による表示内容に所定の制御を行なう制御手順と、
を実行させるためのプログラム。
【符号の説明】
【0169】
1…端末装置、11…表示部、12L…左目用の表示メモリ、12R…左目用の表示メモリ、13…立体表示制御部、14x…横方向の加速度センサ、14y…縦方向の加速度センサ、14z…奥行き方向の加速度センサ、15…透明操作部、151…タッチセンサ、16…主制御装置

【特許請求の範囲】
【請求項1】
端末装置であって、
当該端末装置の動きを検出する検出手段と、
文字列を表示部に表示する文字列表示手段と、
前記文字列表示手段によって表示部に表示されている文字列の中から特定の文字又は文字列を指定する指定手段と、
前記検出手段によって当該端末装置の引く動きを検出した場合に、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して表示するように制御する制御手段と、
を備えることを特徴とする端末装置。
【請求項2】
前記制御手段は、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して、3D表示の奥行きを変更して表示するように制御する、
ことを特徴とする請求項1記載の端末装置。
【請求項3】
前記制御手段は、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して、大きさを変更して表示するように制御する、
ことを特徴とする請求項1記載の端末装置。
【請求項4】
前記制御手段は、前記検出手段によって当該端末装置の横方向及び縦方向の少なくともいずれか一方の動きを検出した場合に、前記指定手段によって指定された文字又は文字列を他の表示内容と区別して、前記他の表示内容をスクロール表示するように制御する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の端末装置。
【請求項5】
前記制御手段は、前記検出手段によって当該端末装置の押し込む動きを検出した場合に、前記指定手段によって指定された文字又は文字列を他の表示内容と同じ奥行きになるように表示するように制御する、
ことを特徴とする請求項1乃至4のいずれか1項に記載の端末装置。
【請求項6】
端末装置であって、
当該端末装置の動きを検出する検出手段と、
3Dオブジェクトを表示部に表示するオブジェクト表示手段と、
前記オブジェクト表示手段によって表示部に表示されている3Dオブジェクトの中から特定の3Dオブジェクトを指定する指定手段と、
前記検出手段によって当該端末装置の押し込む動きを検出した場合に、前記指定手段によって指定された3Dオブジェクトを他の表示内容と区別して表示するように制御する制御手段と、
を備えることを特徴とする端末装置。
【請求項7】
前記制御手段は、前記指定手段によって指定された3Dオブジェクトを他の表示内容と区別して、奥行きを変更して表示するように制御する、
ことを特徴とする請求項6記載の端末装置。
【請求項8】
前記制御手段は、前記検出手段によって当該端末装置の引く動きを検出した場合に、他の表示内容と区別して表示していた3Dオブジェクトの配置を元に戻すように制御する、
ことを特徴とする請求項6又は7に記載の端末装置。
【請求項9】
前記オブジェクト表示手段は、音楽アルバムを示す3Dオブジェクトとともに、前記音楽アルバムを格納するためのラックを示す3Dオブジェクトを表示部に表示し、
前記制御手段は、前記指定手段によって指定された音楽アルバムを示す3Dオブジェクトが前記ラックを示す3Dオブジェクトに格納されるように表示する、
ことを特徴とする請求項6乃至8の何れか1項に記載の端末装置。
【請求項10】
端末装置であって、
当該端末装置の動きを検出する検出手段と、
表示部に表示されているオブジェクトを特定する特定手段と、
前記検出手段により検出された当該端末装置の動きに応じて、前記特定手段により特定されたオブジェクトを他の表示内容と区別して、前記表示部による表示内容に所定の制御を行なう制御手段と、
を備えることを特徴とする端末装置。
【請求項11】
前記検出手段は、当該端末装置の所定方向の加速度を検出することによって、当該端末装置の動きを検出する、
ことを特徴とする請求項10記載の端末装置。
【請求項12】
端末装置のコンピュータに、
当該端末装置の動きを検出する検出手順と、
文字列を表示部に表示する文字列表示手順と、
前記文字列表示手順によって表示部に表示されている文字列の中から特定の文字又は文字列を指定する指定手順と、
前記検出手順によって当該端末装置の引く動きを検出した場合に、前記指定手順によって指定された文字又は文字列を他の表示内容と区別して表示するように制御する制御手順と、
を実行させるためのプログラム。
【請求項13】
端末装置における表示方法であって、
当該端末装置の動きを検出する検出ステップと、
文字列を表示部に表示する文字列表示ステップと、
前記文字列表示ステップによって表示部に表示されている文字列の中から特定の文字又は文字列を指定する指定ステップと、
前記検出ステップによって当該端末装置の引く動きを検出した場合に、前記指定ステップによって指定された文字又は文字列を他の表示内容と区別して表示するように制御する制御ステップと、
を備えることを特徴とする表示方法。
【請求項14】
端末装置のコンピュータに、
当該端末装置の動きを検出する検出手順と、
3Dオブジェクトを表示部に表示するオブジェクト表示手順と、
前記オブジェクト表示手順によって表示部に表示されている3Dオブジェクトの中から特定の3Dオブジェクトを指定する指定手順と、
前記検出手順によって当該端末装置の押し込む動きを検出した場合に、前記指定手順によって指定された3Dオブジェクトを他の表示内容と区別して表示するように制御する制御手順と、
を実行させるためのプログラム。
【請求項15】
端末装置における表示方法であって、
当該端末装置の動きを検出する検出ステップと、
3Dオブジェクトを表示部に表示するオブジェクト表示ステップと、
前記オブジェクト表示ステップによって表示部に表示されている3Dオブジェクトの中から特定の3Dオブジェクトを指定する指定ステップと、
前記検出ステップによって当該端末装置の押し込む動きを検出した場合に、前記指定ステップによって指定された3Dオブジェクトを他の表示内容と区別して表示するように制御する制御ステップと、
を備えることを特徴とする表示方法。
【請求項16】
端末装置のコンピュータに、
当該端末装置の動きを検出する検出手順と、
表示部に表示されているオブジェクトを特定する特定手順と、
前記検出手順により検出された当該端末装置の動きに応じて、前記特定手順により特定されたオブジェクトを他の表示内容と区別して、前記表示部による表示内容に所定の制御を行なう制御手順と、
を実行させるためのプログラム。
【請求項17】
端末装置における表示方法であって、
当該端末装置の動きを検出する検出ステップと、
表示部に表示されているオブジェクトを特定する特定ステップと、
前記検出ステップにより検出された当該端末装置の動きに応じて、前記特定ステップにより特定されたオブジェクトを他の表示内容と区別して、前記表示部による表示内容に所定の制御を行なう制御ステップと、
を備えることを特徴とする表示方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図11】
image rotate

【図17】
image rotate

【図18】
image rotate


【公開番号】特開2013−80491(P2013−80491A)
【公開日】平成25年5月2日(2013.5.2)
【国際特許分類】
【出願番号】特願2012−261752(P2012−261752)
【出願日】平成24年11月29日(2012.11.29)
【分割の表示】特願2009−105705(P2009−105705)の分割
【原出願日】平成21年4月23日(2009.4.23)
【出願人】(310006855)NECカシオモバイルコミュニケーションズ株式会社 (1,081)
【Fターム(参考)】