説明

情報処理装置、情報処理方法およびプログラム

【課題】タッチパネルを搭載した携帯型の情報処理装置、当該情報処理装置における情報処理方法及びプログラムにおいて、ユーザ操作を従来よりもさらに単純かつ直感的なものとし、かつ、携帯型の情報処理装置による大画面表示コンテンツの直接操作を可能とする。
【解決手段】表示パネルの表示画面側に設けられ、操作体による表示パネル上における入力位置を検出する入力位置検出部と、表示パネルの表示画面の裏面側に設けられ、所定のジェスチャを検知するジェスチャ検知部と、ジェスチャ検知部により検知されたジェスチャを表す第1のジェスチャ情報に基づいて、選択オブジェクトに対応するコンテンツデータを出力する出力機器を選択する出力機器選択部と、ジェスチャ検知部により検知されたジェスチャを表す第2のジェスチャ情報に基づいて、選択された出力機器に所定の処理を実行させるための制御信号を生成する信号生成部と、を設けた。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法およびプログラムに関する。
【背景技術】
【0002】
近年、タッチパネルやタッチパッド等(以下、タッチパネル)を搭載した携帯型の情報処理装置が広く普及してきている。このような携帯型の情報処理装置としては、例えば、携帯電話、PHS(Personal Handy−phone System)、携帯動画プレーヤ、携帯音楽プレーヤ、PDA(Personal Digital Assistant)等がある。さらに、最近では、テレビジョン受像機、携帯ゲーム機、リモートコントローラ(以下、リモコン)等にもタッチパネルが搭載されるようになってきている。
【0003】
また、最近では、携帯型の情報処理装置においては表示画面の面積が限られていることから、画面面積の限られた携帯型の情報処理装置の画面における表示内容を大画面に直感的に出力するというインタラクションが注目されている。このようなインタラクションとして、例えば、特許文献1では、携帯型の情報処理装置のタッチパネルへの直感的なジェスチャ入力により、携帯型の情報処理装置の表示画面を大画面の表示装置にスワップさせる技術が提案されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2004−336597号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載された技術のように、携帯型の情報処理装置の表示画面上に、大画面にスワップさせるためのジェスチャを割り当てるという手法では、割り当てたジェスチャ以外のジェスチャとの判別が困難となる、という問題があった。また、上記特許文献1の技術では、ジェスチャ数がスワップのためのジェスチャ分だけ増えるため、ユーザが覚えるべき操作が増えてしまう。このように、特許文献1に記載された技術では、ユーザの操作が煩雑になる、という問題もあった。
【0006】
さらに、上記特許文献1の技術では、大画面の表示装置に出力されているコンテンツの視聴のための操作方法として、携帯型の情報処理装置を用いて直接操作するための手段(直接操作手段)を持っておらず、このような直接操作手段が必要とされていた。特に、WEBコンテンツの視聴を前提としたケース、例えば、早送りや巻戻しの操作を必要とする動画・音楽コンテンツや、スクロールやズームなどの操作を必要とするニュース記事・地図コンテンツ等を含むケースなどでは、直接操作手段の必要性が高い。
【0007】
そこで、本発明は、上記問題に鑑みてなされたものであり、タッチパネルを搭載した携帯型の情報処理装置、当該情報処理装置における情報処理方法及びプログラムにおいて、ユーザ操作を従来よりもさらに単純かつ直感的なものとし、かつ、携帯型の情報処理装置による大画面表示コンテンツの直接操作を可能とすることを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明のある観点によれば、所定のオブジェクトが表示される表示パネルと、前記表示装置の表示画面側に設けられ、第1の操作体による前記表示画面上における入力位置を検出する入力位置検出部と、前記入力位置を表す入力位置情報と前記オブジェクトの表示位置を表す表示位置情報とに基づいて、前記第1の操作体により選択された前記オブジェクトである選択オブジェクトを特定するオブジェクト特定部と、前記表示装置の表示画面の裏面側に設けられ、前記第2の操作体により所定のジェスチャが入力された場合に、当該ジェスチャを検知するジェスチャ検知部と、前記ジェスチャ検知部により検知されたジェスチャを表す第1のジェスチャ情報に基づいて、前記選択オブジェクトに対応するコンテンツデータを出力する外部機器である出力機器を選択する出力機器選択部と、前記コンテンツデータの所在情報を前記出力機器に送信した後に検知されたジェスチャを表す第2のジェスチャ情報に基づいて、前記選択された出力機器に所定の処理を実行させるための制御信号を生成する信号生成部と、を備える情報処理装置が提供される。
【0009】
前記情報処理装置は、前記選択オブジェクトに対応するコンテンツデータの所在情報を、前記出力機器選択部により選択された前記出力機器に対して転送する、所在情報転送部をさらに備えていてもよい。
【0010】
前記情報処理装置において、前記ジェスチャ検知部は、前記第2の操作体による前記表示画面の裏面上における入力位置を検出することが可能であり、前記情報処理装置は、前記表示画面上の領域及び前記表示画面の裏面上の領域を、それぞれ複数の分割領域に分割するとともに、前記入力位置検出部から入力された前記第1の操作体の入力位置を表す第1入力位置情報と、前記ジェスチャ検知部から入力された前記第2の操作体の入力位置を表す第2入力位置情報とに基づいて、前記第1の操作体が位置する前記表示画面上の前記分割領域と、前記第2の操作体が位置する前記表示画面の裏面上の前記分割領域とを検出する入力領域検出部と、前記第1の操作体が位置する前記分割領域を表す第1分割領域情報と、前記第2の操作体が位置する前記分割領域を表す第2分割領域情報とに基づいて、前記第1の操作体が位置する前記分割領域と、前記第2の操作体が位置する前記分割領域とが対応する位置関係にあるか否かを判定する判定部と、をさらに備え、前記所在情報転送部は、前記判定部により、前記第1の操作体が位置する前記分割領域と前記第2の操作体が位置する前記分割領域とが対応する位置関係にあると判定された場合にのみ、前記所在情報を転送するようにしてもよい。
【0011】
前記情報処理装置は、前記選択オブジェクトに対応するコンテンツデータの前記出力機器への表示制御のための情報である表示制御情報を前記出力機器から取得し、さらに、取得した当該表示制御情報と、前記コンテンツデータが前記出力機器に表示された後に前記ジェスチャ検知部により検知されたジェスチャを表す第3のジェスチャ情報とに基づいて、前記コンテンツデータの前記出力機器の表示画面におけるレイアウトを調整するための指令信号を生成する、レイアウト調整部をさらに備えていてもよい。
【0012】
前記出力機器は、一のコンテンツデータを表示する際にレイアウト調整が行われた場合に、当該レイアウト調整後の前記一のコンテンツデータのレイアウトに関するレイアウト情報を、当該コンテンツデータの所在情報と対応付けて記憶しており、前記レイアウト調整部は、前記ジェスチャ検知部から入力されたジェスチャ情報に応じて、前記出力機器が他のコンテンツデータを表示する際において、前記出力機器に記憶されている前記一のコンテンツデータの所在情報に対応付けられた前記レイアウト情報の適用条件を表す適用条件情報を、前記出力機器に送信してもよい。
【0013】
前記情報処理装置は、外部機器に対し、前記情報処理装置と共通のプロトコルによりネットワークを介して互いにアクセス可能な状態とする機器登録処理を行う機器登録部をさらに備え、前記出力機器選択部は、前記機器登録処理が行われた前記外部機器の中から前記出力機器を選択してもよい。
【0014】
また、上記課題を解決するために、本発明の他の観点によれば、所定のオブジェクトが表示される表示装置の表示画面上における第1の操作体の入力位置を検出する入力位置検出ステップと、前記入力位置を表す入力位置情報と前記オブジェクトの表示位置を表す表示位置情報とに基づいて、前記第1の操作体により選択された前記オブジェクトである選択オブジェクトを特定するオブジェクト特定ステップと、前記選択オブジェクトが前記第1の操作体により選択されている状態で第2の操作体により入力された所定のジェスチャを検知するジェスチャ検知ステップと、前記ジェスチャ検知ステップにより検知されたジェスチャを表す第1のジェスチャ情報に基づいて、前記選択オブジェクトに対応するコンテンツデータを出力する外部機器である出力機器を選択する出力機器選択ステップと、前記コンテンツデータの所在情報を前記出力機器に送信する所在情報送信ステップと、前記所在情報を前記出力機器に送信した後に検知されたジェスチャを表す第2のジェスチャ情報に基づいて、前記選択された出力機器に所定の処理を実行させるための制御信号を生成する信号生成ステップと、を含む、情報処理方法が提供される。
【0015】
また、上記課題を解決するために、本発明のさらに他の観点によれば、コンピュータを、所定のオブジェクトが表示される表示装置の表示画面側に設けられ、第1の操作体による前記表示画面上における入力位置を検出する入力位置検出部と、前記入力位置を表す入力位置情報と前記オブジェクトの表示位置を表す表示位置情報とに基づいて、前記第1の操作体により選択された前記オブジェクトである選択オブジェクトを特定するオブジェクト特定部と、前記表示装置の表示画面の裏面側に設けられ、第2の操作体により所定のジェスチャが入力された場合に、当該ジェスチャを検知するジェスチャ検知部と、前記ジェスチャ検知部により検知されたジェスチャを表す第1のジェスチャ情報に基づいて、前記選択オブジェクトに対応するコンテンツデータを出力する外部機器である出力機器を選択する出力機器選択部と、前記コンテンツデータの所在情報を前記出力機器に送信した後に検知されたジェスチャを表す第2のジェスチャ情報に基づいて、前記選択された出力機器に所定の処理を実行させるための制御信号を生成する信号生成部と、を備える、情報処理装置として機能させるためのプログラムが提供される。
【0016】
かかる構成によれば、コンピュータプログラムは、コンピュータが備える記憶部に格納され、コンピュータが備えるCPUに読み込まれて実行されることにより、そのコンピュータを上記の情報処理装置として機能させる。また、コンピュータプログラムが記録された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
【発明の効果】
【0017】
本発明によれば、タッチパネルを搭載した携帯型の情報処理装置、当該情報処理装置における情報処理方法及びプログラムにおいて、ユーザ操作が従来よりもさらに単純かつ直感的なものとなり、かつ、携帯型の情報処理装置による大画面表示コンテンツの直接操作が可能となる。
【図面の簡単な説明】
【0018】
【図1】関連技術における携帯型の情報処理装置を含む情報処理システムの構成を示す説明図である。
【図2】本発明の第1の実施形態に係る情報処理システムの全体構成を示す説明図である。
【図3】同実施形態に係る情報処理装置の外観構成(表示画面側)及び使用例を示す説明図である。
【図4】同実施形態に係る情報処理装置の外観構成(裏面側)及び使用例を示す説明図である。
【図5】同実施形態に係る情報処理方法の概略を示す説明図である。
【図6】同実施形態に係る情報処理装置のハードウェア構成を示す分解斜視図である。
【図7】同実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。
【図8】同実施形態に係る情報処理装置の機能構成を示すブロック図である。
【図9】同実施形態に係るコンテンツデータ管理部の構成を示すブロック図である。
【図10】同実施形態に係る情報処理方法の処理の流れを示すフローチャートである。
【図11】同実施形態に係る情報処理方法の処理の流れを示すフローチャートである。
【図12】同実施形態に係る情報処理方法を適用した第1の例を示す説明図である。
【図13】同実施形態に係る情報処理方法を適用した第2の例を示す説明図である。
【図14】同実施形態に係る情報処理方法を適用した第3の例を示す説明図である。
【図15】同実施形態に係る情報処理方法の変形例を示す説明図である。
【図16】同実施形態に係る情報処理方法の変形例を示す説明図である。
【発明を実施するための形態】
【0019】
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0020】
なお、説明は以下の順序で行うものとする。
1. 関連技術の例(図1)
2. 関連技術の例における課題の解決手段
3. 第1の実施形態
3−1. 情報処理システムの構成(図2)
3−2. 情報処理装置及び情報処理方法の概略(図3〜5)
3−3. 情報処理装置のハードウェア構成(図6,7)
3−4. 情報処理装置の機能構成(図8,9)
3−5. 情報処理方法(図10〜16)
4.まとめ
【0021】
<1.関連技術の例>
まず、本発明の第1の実施形態に係る情報処理装置の説明をする前に、本発明の関連技術における携帯型の情報処理装置の表示画面を大画面の表示装置にスワップする技術の例について、図1を参照しながら説明する。なお、図1は、関連技術における携帯型の情報処理装置を含む情報処理システムの一例としての映像表示システム1(例えば、特許文献1を参照)の構成を示す説明図である。
【0022】
図1に示すように、映像表示システム1は、関連技術における情報処理装置の一例としての可塑型表示装置2と、ベース装置(ベースステーション)3と、大画面表示装置4とからなっている。この映像表示システム1では、ベース装置3から供給される映像信号を可塑型表示装置2と大画面表示装置4とで表示できるようになっている。
【0023】
また、映像表示システム1では、可塑型表示装置2の表示素子としてのLCD上のタッチパネルにおける指示位置の座標変化に対してユーザからの指示内容を予め割り当てておく。そして、可塑型表示装置2は、表示画面上の指示位置の座標変化を検出し、検出された座標変化に対して割り当てられた指示内容を判別し、この判別した指示内容に基づいて、制御信号を形成する。
【0024】
ここで、例えば、可塑型表示装置2の表示画面上の指示位置の座標変化(例えば、ユーザの手元から手先の方へ向けたドラッグ操作)に対して、可塑型表示装置2の表示内容を大画面表示装置4の表示画面にスワップさせる指示内容を割り当てておいたとする。この場合に、ユーザが上記ドラッグ操作を行えば、可塑型表示装置2の表示内容を大画面表示装置4の表示画面にスワップさせることができる。
【0025】
<2.関連技術の例における課題の解決手段>
しかしながら、このような技術においては、上述したように、ユーザ操作が煩雑となり、また、大画面表示装置4に出力されたコンテンツに対し可塑型表示装置2が直接操作する手段を持たない、といった課題があった。
【0026】
そこで、このような課題を解決するために、後述する本発明の第1の実施形態に係る情報処理装置及び情報処理方法では、携帯型の情報処理装置の表示パネルの両面にタッチパネルを設けている。ここで、一方のタッチパネル(例えば、表示パネルの表面側のタッチパネル)では、携帯型の情報処理装置自身の操作を行えるようにしている。また、他方のタッチパネル(表示パネルの裏面側のタッチパッド)では、外部機器(例えば、スワップさせたオブジェクトに対応するコンテンツを再生させる機器)の直接操作を行えるようにしている。さらに、一方のタッチパネルと他方のタッチパネルとの連動した操作により、外部機器へのコンテンツの転送などの処理をシームレスに行うことを可能としている。以下、本発明の第1の実施形態に係る情報処理装置及び情報処理方法について詳細に説明する。
【0027】
<3.第1の実施形態>
[3−1.情報処理システムの構成]
初めに、図2を参照しながら、本発明の第1の実施形態に係る情報処理装置を含む情報処理システムの全体構成について説明する。図2は、本実施形態に係る情報処理システムの全体構成を示す説明図である。
【0028】
図2に示すように、本実施形態に係る情報処理システム10は、携帯型の情報処理装置100と、出力機器200と、WEBサーバ300とを主に備える。この情報処理システム100では、情報処理装置100が、ネットワーク400を介して、出力機器200及びWEBサーバ300等と通信可能となっている。ネットワーク400の種類は、特に限定はされないが、例えば、インターネット、DLNA(Digital Living Network Alliance)等のプロトコルを用いたホームネットワークなどがある。
【0029】
情報処理システム10においては、ユーザが、情報処理装置100を用いてブラウザなどを介してWEBサーバ300内のWEBページを閲覧している場合に、特定のコンテンツを選択して、出力機器200に出力することができる。この場合に、ユーザが情報処理装置100を操作することで、情報処理装置100は、インターネット400を介して取得した選択したコンテンツデータの所在情報(例えば、当該コンテンツデータの格納先のWEBページのURL等)を出力機器200に送信できる。また、コンテンツデータの所在情報を取得した出力機器200は、当該コンテンツデータに関連付けられたアプリケーションにより、コンテンツデータを出力する。さらに、ユーザが情報処理装置100を操作することで、情報処理装置100は、出力機器200における各種処理を実行させるための制御信号を生成し、生成した制御信号を出力機器200に送信する。この制御信号を受信した出力機器200は、当該制御信号に対応する処理(例えば、画像のスクロール・ズーム、映像や音楽の早送り・巻戻し・音量変更等)を実行する。
【0030】
続いて、情報処理システム10に含まれる各装置の構成について説明する。
【0031】
情報処理装置100は、FTTH(Fiber To The Home)やWiMAX(Worldwide Interoperability for Microwave Acces)などの任意の手段でネットワーク400に接続されており、ブラウザを介してWEBページを閲覧可能な電子機器である。このような情報処理装置100としては、ノートブック型のパーソナルコンピュータ(以下、PC)、携帯電話、PHS(Personal Handy−phone System)、携帯動画プレーヤ、携帯音楽プレーヤ、PDA(Personal Digital Assistant)、携帯ゲーム機等がある。さらに、情報処理装置100としては、LCD等の表示装置を有していれば、リモートコントローラ(以下、リモコン)等であってもよい。
【0032】
情報処理装置100は、詳細な構成については後述するが、表示装置を有し、この表示装置の表示画面の表裏両面にタッチパネルまたはタッチパッドが搭載されている。ユーザが情報処理装置100を操作する場合、通常、ユーザは、指やスタイラス等(以下、「操作体」という。)でタッチパネルまたはタッチパッドの面上を押圧しつつ、操作体を移動させることで所定の操作(ジェスチャー操作)を行う。このような操作が行われると、タッチパネルは、操作体がタッチパネル表面と接触した点を座標として読み取る。この場合に、タッチパネルは、操作体とタッチパネル表面との接触位置を読み取る方式は特に限定はされず、いわゆる静電式、加圧式、光学式等の任意の方式を用いることができる。そして、タッチパネルにより読み取られた座標が演算処理手段に伝送され、所定の処理が実行される。なお、図1には、情報処理装置100が1台のみネットワーク400に接続されている例を示しているが、情報処理装置100の台数は特に限定されるものではない。
【0033】
出力機器200は、情報処理装置100の表示装置の表示画面に表示されているオブジェクトの中から操作体により選択されたオブジェクトに対応するコンテンツデータを出力する機器である。このような出力機器200としては、情報処理装置100上のコンテンツデータを出力できる機器であれば特に限定はされない。出力機器200の具体例としては、大画面ディスプレイを有するテレビジョン受像機、据置型のオーディオ機器等が挙げられる。また、出力機器200も、情報処理装置100と同様に、FTTHやWiMAXなどの任意の手段でネットワーク400に接続されている。図1には、出力機器200として、大画面ディスプレイを有するテレビジョン受像機210と、据置型のオーディオ機器220とがネットワーク400に接続されている例を示している。ただし、出力機器200の台数についても特に限定はされない。
【0034】
本実施形態では、出力機器200は、操作体により選択されたオブジェクトに対応するコンテンツデータ(以下、選択コンテンツデータ)を出力する機器として選択された場合に、当該コンテンツデータの所在情報を情報処理装置100から取得する。そして、出力機器200は、取得したコンテンツデータの所在情報(例えば、コンテンツデータ格納先のURL)に基づいて、WEBサーバ300からコンテンツデータを取得し、情報処理装置100からの制御信号に基づき、所定の処理を実行する。このような処理としては、例えば、選択コンテンツデータが写真等の静止画像の場合には、フォーカスやズーム等、選択コンテンツが動画像や音楽の場合には、再生、一時停止、早送り、巻戻し、音量調整等がある。
【0035】
WEBサーバ300は、例えば、情報処理装置100からの要求に応じて、情報処理装置100にコンテンツデータの所在情報(例えば、当該コンテンツデータの格納先のWEBページのURL等)を送信する。また、WEBサーバ300は、情報処理装置100からコンテンツデータの所在情報を取得した出力機器200の要求に応じて、当該コンテンツデータの所在情報に対応するコンテンツデータを配信する。WEBサーバ300が配信するコンテンツデータの種類は、表示部に表示するもとになるデータであれば特に限定されるものではない。なお、本実施形態では、WEBサーバ300は、WEBブラウザなどで実行できるWEBサービスを提供するサーバを示しており、例えば、写真共有サービス、動画配信サービス、音楽配信サービス等のサービスを提供するサーバとする。ユーザは、情報処理装置100や出力機器200上で、WEBサーバ300から配信されたコンテンツを視聴することができる。
【0036】
ネットワーク400は、情報処理装置100、出力機器200、コンテンツ配信サーバ400を双方向又は一方向に通信可能に接続する通信回線網である。ネットワーク400は、例えば、インターネット、電話回線網、衛星通信網、同報通信路等の公衆回線網や、WAN(Wide Area Network)、LAN(Local Area Network)、IP−VPN(Internet Protocol−Virtual Private Network)、Ethernet(登録商標)、ワイヤレスLAN等の専用回線網などで構成されており、有線/無線を問わない。
【0037】
なお、上述したように、情報処理装置100と出力機器200とは、DLNAなどのプロトコルによってホームネットワーク上で互いにデータ通信が可能となっている。
【0038】
[3−2.情報処理装置及び情報処理方法の概略]
続いて、図3〜図5を参照しながら、本実施形態に係る情報処理装置100及び情報処理方法の概略について説明する。図3は、本実施形態に係る情報処理装置100の外観構成(表示画面側)及び使用例を示す説明図である。図4は、本実施形態に係る情報処理装置100の外観構成(裏面側)及び使用例を示す説明図である。図5は、本実施形態に係る情報処理方法の概略を示す説明図である。
【0039】
(情報処理装置の概略)
図3及び図4に示すように、情報処理装置100は、表面(表示画面側)にタッチパネル150、裏面(表示画面の裏側)にタッチパッド160が設けられた携帯型の電子機器である。
【0040】
図3に示すように、ユーザは、表面のタッチパネル150におけるジェスチャ操作により、情報処理装置100を操作する。具体的には、ユーザは、タッチパネル150における第1の操作体170(例えば、ユーザの親指)を用いたタップ操作やドラッグ操作等により、WEBブラウザを介してWEBサーバ300上のコンテンツを視聴することができる。また、ユーザは、タッチパネル150上に表示されているオブジェクトのうち、出力機器200に出力するコンテンツデータに対応するオブジェクトを、第1の操作体170を用いたタップ操作等により選択することもできる。
【0041】
一方、図4に示すように、ユーザは、裏面のタッチパッド160におけるジェスチャ操作におり、出力機器200の選択、選択した出力機器200へのスワップ、出力機器200の直接操作などを行うことができる。具体的には、ユーザは、タッチパッド160における第2の操作体180(例えば、ユーザの人差し指)を用いたタップ操作やドラッグ操作等により、所望の出力機器200を選択することができる。ここでいう所望の出力機器200とは、第1の操作体170におけるジェスチャ入力により選択されたオブジェクトに対応するコンテンツデータ(以下、選択コンテンツデータ)を出力する出力機器200のことである。ユーザのジェスチャ操作により出力機器200が選択されると、情報処理装置100は、選択コンテンツデータの所在情報をWEBサーバ300から取得し、取得した所在情報を出力機器200に送信する。また、ユーザは、選択コンテンツデータの所在情報が出力機器200に送信された後にタッチパッド160におけるタップ操作やドラッグ操作等を行うことで、出力機器200に対する操作を、情報処理装置100を用いて直接行うことができる。このような出力機器200に対する直接操作としては、例えば、例えば、選択コンテンツデータが写真等の静止画像の場合には、フォーカスやズーム等、選択コンテンツが動画像や音楽の場合には、再生、一時停止、早送り、巻戻し、音量調整等がある。
【0042】
なお、以下の説明では、第1の操作体170の一例としてユーザの右手の親指、第2の操作体180の一例としてユーザの右手の人差し指(必要に応じて、ユーザの右手の薬指及び小指も含む)を使用する例を挙げて説明するが、これらの指には限定されない。すなわち、第1の操作体170及び第2の操作体180としては、ユーザ自身が使いやすい指(例えば、左手の指)を使用すればよく、さらに、スタイラス等を使用してもよい。
【0043】
(情報処理方法の概略)
続いて、以上のような情報処理装置100を用いた本実施形態の情報処理方法の概略を説明する。情報処理装置100の表示画面(タッチパネル150)には、一般的なWEBブラウザ、動画プレーヤ、音楽プレーヤなど、再生するコンテンツに関連付けられたアプリケーションの画面が表示されている。図5には、情報処理装置100のタッチパネル150に表示されたアプリケーションの画面に、オブジェクトとして、矩形で示された複数のサムネイル画像が表示されている例を示している。このタッチパネル150に表示されている複数のオブジェクトの中から、第1の操作体170(ユーザの親指)によりオブジェクト150aがタップされ、オブジェクト150aが選択されたとする。そして、オブジェクト150aが第1の操作体170によりタップされている状態で、タッチパッド160に対して第2の操作体180(例えば、ユーザの人差し指)によりタップ操作が行われると、例えば、そのタップ回数により出力機器200が選択される。図5では、出力機器200として、大画面ディスプレイ211を有するテレビジョン受像機210と、オーディオ機器220がネットワーク400に接続されている場合を例示してある。この例で、例えば、タッチパッド160のタップ回数が1回である場合には、情報処理装置100は、出力機器200としてテレビジョン受像機210を選択するようにできる。また、例えば、タッチパッド160のタップ回数が2回である場合には、情報処理装置100は、出力機器200としてオーディオ機器220を選択するようにできる。そして、情報処理装置100は、選択された出力機器200に対し、オブジェクト150aに対応するコンテンツデータの所在情報(例えば、URL)を送信する。
【0044】
このように、情報処理装置の表面のタッチパネル150と裏面のタッチパッド160との連携操作により、第1の操作体170により選択されたオブジェクト150aに対応するコンテンツデータの所在情報等の情報を出力機器200に転送することができる。
【0045】
コンテンツデータの所在情報を受信した出力機器200は、当該コンテンツデータの所在情報に基づいて、WEBサーバ300にアクセスし、オブジェクト150aに対応するコンテンツデータをWEBサーバ300から取得する。例えば、情報処理装置100により選択された出力機器200がテレビジョン受像機210である場合には、ディスプレイ211に、オブジェクト150aに対応するコンテンツが表示される。その後、第2の操作体180によりタッチパッド160にジェスチャが入力されると、当該ジェスチャに対応する処理(写真画像のズーム、動画の再生等)がテレビジョン受像機210で実行される。また、例えば、情報処理装置100により選択された出力機器200がオーディオ機器220である場合には、WEBサーバ300から取得した音楽コンテンツデータがオーディオ機器220に記憶される。この際、オーディオ機器220が表示部を有するものである場合には、この表示部に、取得した音楽コンテンツデータに合わせたプレーヤ画面が表示されてもよい。その後、第2の操作体180によりタッチパッド160にジェスチャが入力されると、当該ジェスチャに対応する処理(音楽の再生等)がオーディオ機器220で実行される。
【0046】
以上、本実施形態に係る情報処理装置100及び情報処理方法の概略について説明した。
【0047】
[3−3.情報処理装置のハードウェア構成]
続いて、図6及び図7を参照しながら、本実施形態に係る情報処理装置100のハードウェア構成について詳述する。図6は、本実施形態に係る情報処理装置100のハードウェア構成を示す分解斜視図である。図7は、本実施形態に係る情報処理装置100のハードウェア構成を示すブロック図である。
【0048】
図6に示すように、情報処理装置100は、基板191上に設けられた表示装置151と、表示装置151の表示画面151a側(情報処理装置100の表面側)に設けられた情報入力装置153と、表示装置151の表示画面151aの裏面側(情報処理装置100の裏面側)に設けられたタッチパッド160と、を有している。
【0049】
基板191には、情報処理装置100で使用される様々な部品、装置等が取り付けられている。具体的には、図7を用いて後述する、不揮発性メモリ193、RAM(Random Access Memory)195、CPU(Central Processing Unit)197、ネットワークインターフェース199等の装置が取り付けられている。
【0050】
表示装置151は、情報処理装置100が行った各種処理により得られた結果を、テキストまたはイメージで表示する。表示装置151は、後述する情報入力装置153とともにタッチパネル150を構成するものである。表示装置151の具体例としては、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ装置等、情報をユーザに対して視覚的に通知することが可能な装置が挙げられる。
【0051】
情報入力装置153は、パネル状の形状を有しており、表示装置151とともにタッチパネル150を構成するものである。情報入力装置153は、その表面に接触した第1の操作体170の接触位置を、表示装置151の表示画面上における第1の操作体170による入力位置として検出する。情報入力装置153は、検出した第1の操作体170による入力位置を表す入力位置情報をCPU197に情報信号として出力する。情報処理装置100のユーザは、情報入力装置153を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
【0052】
タッチパッド160は、情報入力装置153と同様に、パネル状の形状を有している。タッチパッド160は、その表面に接触した第2の操作体180の接触位置を、タッチパッド160上における第2の操作体180による入力位置として検出する。タッチパッド160は、検出した第2の操作体180による入力位置を表す入力位置情報をCPU197に情報信号として出力する。情報処理装置100のユーザは、タッチパッド160を操作することにより、出力機器200に対して各種のデータを送信したり処理動作を指示したりすることができる。
【0053】
続いて、図7を参照しながら、本実施形態に係る情報処理装置100のハードウェア構成について、さらに詳細に説明する。
【0054】
図7に示すように、情報処理装置100は、上述したタッチパネル150(表示装置151及び情報入力装置153)とタッチパッド160に加えて、不揮発性メモリ193と、RAM195と、CPU197と、ネットワークインターフェース199と、をさらに備えている。
【0055】
不揮発性メモリ(ストレージ装置)193は、情報処理装置100の記憶装置の一例として構成されたデータ格納用の装置であり、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。不揮発性メモリ193は、CPU197が実行するプログラムや各種データを格納する。本実施形態では、不揮発性メモリ193は、例えば、WEBサーバ300から取得したコンテンツデータを出力機器200で表示する際に最適なレイアウトやズーム率等に関する情報を、当該コンテンツデータの格納先のURLのドメイン等と対応付けて記憶している。
【0056】
RAM195は、CPU197において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶するものである。
【0057】
CPU(制御部)197は、演算処理装置および制御装置として機能し、不揮発性メモリ193、RAM195に記録された各種プログラムにしたがって、情報処理装置100内の動作全般またはその一部を制御するものである。
【0058】
ネットワークインターフェース199は、ネットワーク400を介して、出力機器200やWEBサーバ300等の外部機器と各種データの送受信を行うためのインターフェースである。
【0059】
以上、本実施形態に係る情報処理装置100の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。したがって、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
【0060】
[3−4.情報処理装置の機能構成]
続いて、図8を参照しながら、上述したハードウェア構成により実現される本実施形態に係る情報処理装置100の機能構成について説明する。図8は、本実施形態に係る情報処理装置100の機能構成を示すブロック図である。
【0061】
図8に示すように、情報処理装置100は、入力位置検出部103と、表示制御部105と、オブジェクト特定部107と、ジェスチャ検知部109と、出力機器選択部111と、信号生成部115とを有する。本実施形態では、情報処理装置100は、機器登録部101と、コンテンツデータ管理部113と、レイアウト調整部117と、記憶部119と、通信部121とをさらに有する。
【0062】
機器登録部101は、情報処理装置100と出力機器200とをWPS(Wi−Fi Protected Setup)などの簡易登録手法により機器登録する。このように機器登録を行うことにより、情報処理装置100と出力機器200とは、共通のプロトコル(例えば、DLNA等)によりネットワークを介して互いにアクセスすることが可能となる。ただし、機器登録の手法としては、WPSには限定されず、情報処理装置100と出力機器200とが互いにアクセス可能となるものであれば任意の手法を採用できる。また、機器登録部101は、機器登録が行われた外部機器に関する情報(例えば、機器名称、IPアドレス等の情報)を表す登録機器情報を記憶部119に記録する。
【0063】
入力位置検出部103は、第1の操作体170によるタッチパネル150上における入力位置を検出する。具体的には、入力位置検出部103は、タッチパネル150の表面における第1の操作体170(例えば、情報処理装置100のユーザの親指)が接触した位置(点)を座標として読み取る。この場合に、入力位置検出部103が第1の操作体170による接触位置を検出する方式は特に限定はされず、いわゆる静電式、加圧式、光学式等の任意の方式を用いることができる。例えば、加圧式の場合には、入力位置検出部103は、タッチパネル150に圧力が加えられたことを検知し、その圧力が加えられた点の座標を読み取る。また、入力位置検出部103は、第1の操作体170により直接接触されていなくても、タッチパネル150に近接したタッチパネル150上の空間に第1の操作体170が存在するのを検出し、接触位置として認識できる機能を有していてもよい。つまり、ここで言う接触位置は、第1の操作体170がタッチパネル150の画面上で空を描くように行った動作に対する位置情報を含むものであってもよい。
【0064】
また、入力位置検出部103は、検出した接触位置に関する情報(より詳細には、接触位置の座標)を、入力位置情報として、表示制御部105及びオブジェクト特定部107に伝送する。例えば、検出した接触位置が1箇所である場合には、入力位置検出部103は、入力位置情報として、1つの座標(X1,Y1)を出力する。また、検出した接触位置が2箇所である場合には、入力位置検出部103は、検出した複数の座標(X1,Y1)、(X2,Y2)を出力する。
【0065】
表示制御部105は、タッチパネル150に表示される内容を制御する制御手段である。例えば、表示制御部105は、後述する記憶部119に記録された任意の画像データのサムネイル画像などのオブジェクトデータを読み出して、タッチパネル150に表示させる。このとき、表示制御部105は、タッチパネル150に対してオブジェクトの表示位置を指定し、その表示位置にオブジェクトデータを表示させる。そのため、表示制御部105には、タッチパネル150に表示されるオブジェクトの表示位置等を示す情報が保持されている。オブジェクトの表示位置等を示す情報は、表示制御部105からオブジェクト特定部107に伝送される。
【0066】
表示制御部105には、入力位置検出部103から入力位置情報が入力される。例えば、タッチパネル150に接触している第1の操作体170が移動すると、表示制御部105には、入力位置検出部103からはリアルタイムに入力位置情報が入力される。表示制御部105は、情報処理装置100が有する動画コンテンツのサムネイル等のオブジェクトを後述する記憶部119等から取得し、表示画面に表示させる。また、表示制御部105は、後述するコンテンツデータ管理部113から、WEBサーバ300から取得したコンテンツデータが伝送された場合には、当該コンテンツデータに対応するオブジェクトを表示画面に表示させる。
【0067】
オブジェクト特定部107は、入力位置情報とオブジェクト等の表示位置を表す表示位置情報とに基づいて、第1の操作体170により選択されたオブジェクトである選択オブジェクトを特定する。すなわち、オブジェクト特定部107には、入力位置検出部103から入力位置情報が入力される。さらに、オブジェクト特定部107には、表示制御部105からオブジェクト等の表示位置を示す表示位置情報も入力される。そこで、オブジェクト特定部107は、入力位置検出部103から入力された入力位置情報と、表示制御部105から入力された表示位置情報とを比較する。そして、オブジェクト特定部107は、第1の操作体170によって選択されたオブジェクトを特定する。この処理により、オブジェクト特定部107は、選択されたコンテンツのオブジェクト等に関する情報を、表示制御部105及びコンテンツデータ管理部113に伝送する。
【0068】
ジェスチャ検知部109は、タッチパッド160に所定のジェスチャが入力された場合に、当該ジェスチャを検知する。ジェスチャ検知部109の具体的な機能は、上述した入力位置検出部103の機能と類似している。すなわち、ジェスチャ検知部109は、第2の操作体180によるタッチパッド160上における入力位置を検出する。具体的には、ジェスチャ検知部109は、タッチパッド160の表面における第2の操作体180(例えば、情報処理装置100のユーザの人差し指)が接触した位置(点)を座標として読み取る。この場合に、ジェスチャ検知部109が第2の操作体180による接触位置を検出する方式は特に限定はされず、いわゆる静電式、加圧式、光学式等の任意の方式を用いることができる。例えば、加圧式の場合には、ジェスチャ検知部109は、タッチパッド160に圧力が加えられたことを検知し、その圧力が加えられた点の座標を読み取る。また、ジェスチャ検知部109は、第2の操作体180により直接接触されていなくても、タッチパッド160に近接したタッチパッド160上の空間に第2の操作体180が存在するのを検出し、接触位置として認識できる機能を有していてもよい。つまり、ここで言う接触位置は、第2の操作体180がタッチパッド160の画面上で空を描くように行った動作に対する位置情報を含むものであってもよい。
【0069】
また、ジェスチャ検知部109は、検出した接触位置に関する情報(より詳細には、接触位置の座標)や検出した接触位置の経時的な変化の方向や変化量に関する情報を、ジェスチャ情報として、出力機器選択部111、信号生成部115及びレイアウト調整部117に伝送する。例えば、検出した接触位置が1箇所である場合には、入力位置検出部103は、入力位置情報として、1つの座標(X1,Y1)を出力する。また、検出した接触位置が2箇所である場合には、入力位置検出部103は、検出した複数の座標(X1,Y1)、(X2,Y2)を出力する。さらには、所定時間内に検出した複数の座標(X1,Y1)、(X2,Y2)の変化を表すベクトルを出力する。
【0070】
出力機器選択部111は、ジェスチャ検知部109により検知されたジェスチャを表す第1のジェスチャ情報に基づいて、選択オブジェクトに対応するコンテンツデータを出力する出力機器200を選択する。すなわち、出力機器選択部111には、ジェスチャ検知部109から、第1の操作体170により特定のオブジェクトが選択されている状態で検知されたジェスチャを表す第1のジェスチャ情報が入力される。さらに、出力機器選択部111は、記憶部119から、情報処理装置100と互いにアクセス可能な登録機器に関する情報(登録機器情報)を取得する。そして、出力機器選択部111は、第1のジェスチャ情報に基づいて、機器登録がされている出力機器200(例えば、テレビジョン受像機210及びオーディオ機器220)の中から、一の出力機器200(例えば、テレビジョン受像機210)を選択する。
【0071】
例えば、ジェスチャ検知部109が、所定時間内にタッチパッド160に対してタップ操作が行われた回数を検知するようにしておく。そして、例えば、出力機器選択部111に、タッチパッド160に1回タップ操作が行われたことを示すジェスチャ情報が入力された場合には、出力機器選択部111は、テレビジョン受像機210を出力機器200として選択するようにする。また、出力機器選択部111に、タッチパッド160に2回タップ操作が行われたことを示すジェスチャ情報が入力された場合には、出力機器選択部111は、オーディオ機器220を出力機器200として選択するようにする。ただし、出力機器選択部111が出力機器200を選択するための判断基準としては、タッチパッド160のタップ回数により出力機器200を選択する手法に限られない。
【0072】
すなわち、例えば、表示制御部105が機器登録済みの外部機器の名称等を表示画面に表示させておき、この中から、タッチパッド160に対するドラッグ操作に応じて、出力機器選択部111が出力機器200を選択するようにしてもよい。あるいは、例えば、タッチパッド160に同時に接触しているユーザの指の本数等に応じて出力機器200を選択(1本ならテレビジョン受像機210を選択、2本ならオーディオ機器220を選択)するようにしてもよい。なお、タップ回数により出力機器200を選択する場合であると、例えば、テレビジョン受像機210を選択したいのに誤って2回タップしてしまった場合などにユーザの操作性が良くない場合もある。このようなユーザの操作性の観点からは、ドラッグ操作や指の本数等により出力機器200を選択する方が、誤操作をした場合でも、直ちに所望の出力機器200を選択し直すことができるため好ましい。
【0073】
上述した処理により、出力機器選択部111は、選択された出力機器200の名称やIPアドレス等に関する情報を、コンテンツデータ管理部113及び信号生成部115に伝送する。
【0074】
コンテンツデータ管理部113は、WEBサーバ300からのコンテンツデータ等の取得、出力機器選択部111により選択された出力機器200へのコンテンツデータの所在情報の転送などを行う。ここで、図9を参照しながら、コンテンツデータ管理部113の詳細な構成について説明する。図9は、本実施形態に係るコンテンツデータ管理部113の構成を示すブロック図である。
【0075】
図9に示すように、コンテンツデータ管理部113は、コンテンツデータ取得部131と、選択コンテンツ特定部132と、所在情報抽出部133と、出力機器特定部134と、所在情報転送部135と、を主に有する。また、コンテンツデータ管理部113は、必要に応じて、入力領域検出部136と、判定部137とを有していてもよい。
【0076】
コンテンツデータ取得部131は、通信部121を介して、WEBサーバ300から、所定のコンテンツデータ、その所在情報(当該コンテンツデータの格納先のURL等)及び当該コンテンツデータに関連付けられたアプリケーションに関する情報等を取得する。コンテンツデータ取得部131は、取得したコンテンツデータ等の情報を記憶部119に記録してもよい。また、コンテンツデータ取得部131は、取得したコンテンツデータを表示制御部105に伝送し、当該コンテンツデータを情報処理装置100の表示画面にテキストやイメージ等として表示させてもよい。
【0077】
選択コンテンツ特定部132には、オブジェクト特定部107から、第1の操作体170により選択されたオブジェクト等に関する情報が入力される。選択コンテンツ特定部113は、入力された選択オブジェクトに関する情報から、当該オブジェクトに対応するコンテンツデータを特定する。そして、選択コンテンツ特定部132は、特定したコンテンツデータに関する情報を所在情報抽出部133に伝送する。
【0078】
所在情報抽出部133は、選択コンテンツ特定部132から入力された選択コンテンツデータに関する情報から、当該コンテンツデータの所在情報を抽出する。この抽出される選択コンテンツデータの所在情報は、コンテンツデータ管理部113が保持しているものでもよいし、記憶部119に記憶されているものでもよい。更に、所在情報抽出部133は、抽出した選択コンテンツデータの所在情報を所在情報転送部135に伝送する。
【0079】
また、出力機器特定部134には、出力機器選択部111から、第1の操作体170により選択されたオブジェクトに対応するコンテンツデータ(以下、選択コンテンツデータ)を出力する出力機器200として選択された機器に関する情報が入力される。出力機器特定部134は、入力された出力機器200に関する情報に基づいて、出力機器200により選択された出力機器200を特定する。さらに、出力機器特定部134は、特定した出力機器200に関する情報(当該出力機器200の名称やIPアドレス等)を所在情報転送部135に伝送する。
【0080】
所在情報転送部135は、所在情報抽出部133から入力された選択コンテンツデータの所在情報を、通信部121を介して、出力機器特定部134により特定された出力機器200に対して転送する。
【0081】
入力領域検出部136には、入力位置検出部103から、タッチパネル150上における第1の操作体170の接触位置を表す入力位置情報が入力される。また、入力領域検出部136には、ジェスチャ検知部109から、タッチパッド160上における第2の操作体180の接触位置を表す入力位置情報が入力される。そして、入力領域検出部136は、タッチパネル150上の領域を複数の分割領域に分割し、入力位置検出部103から入力された入力位置情報に基づいて、第1の操作体170が位置する分割領域を検出する。また、入力領域検出部136は、タッチパッド160上の領域を複数の分割領域に分割し、ジェスチャ検知部109から入力された入力位置情報に基づいて、第2の操作体180が位置する分割領域を検出する。さらに、接触位置検出部136は、検出した第1の操作体170が位置する分割領域を表す第1分割領域情報、及び、第2の操作体180が位置する分割領域を表す第2分割領域情報を、判定部137に伝送する。
【0082】
判定部137は、入力領域検出部136から入力された第1分割領域情報及び第2分割領域情報に基づいて、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが対応する位置関係にあるか否かを判定する。ここで、「対応する位置関係」とは、例えば、タッチパネル150における第1の操作体170が位置する分割領域と、タッチパッド160における第2の操作体180が位置する分割領域とが、互いに対向する位置する関係のことをいう。言い換えれば、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが、XY座標平面において同一の座標を有する領域である関係のことをいう。さらに、判定部137は、上記判定の結果を所在情報転送部135に伝送する。
【0083】
所在情報転送部135は、判定部137から判定結果が入力された場合には、選択コンテンツの所在情報を転送するか否かを決定する。すなわち、所在情報転送部135は、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが対応する位置関係にあるとの判定結果が入力された場合には、選択コンテンツの所在情報を出力機器200に転送する。一方、所在情報転送部135は、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが対応する位置関係にないとの判定結果が入力された場合には、選択コンテンツの所在情報を出力機器200に転送しない。この場合、第2の操作体180によるタッチパッド160への操作入力が誤操作であると判断されることとなる。
【0084】
このように、情報処理装置100が、入力領域検出部136及び判定部137を有することで、ユーザの誤操作で第2の操作体180が誤ってタッチパッド160に接触した場合に、選択コンテンツの所在情報を出力機器200に転送することを防止できる。
【0085】
以上、コンテンツデータ管理部113の構成について詳述したが、以下、再び、図8を参照しながら、情報処理装置100の機能構成についての説明を続ける。
【0086】
信号生成部115は、コンテンツデータの所在情報を出力機器200に送信した後にジェスチャ検知部109により検知されたジェスチャを表す第2のジェスチャ情報に基づいて、選択された出力機器200に所定の処理を実行させるための制御信号を生成する。その処理の詳細は、以下の通りである。
【0087】
すなわち、信号生成部115には、コンテンツデータ管理部113から、出力機器200に所在情報を転送した選択コンテンツデータや関連付けられたアプリケーション等に関する情報などが入力される。また、信号生成部115には、出力機器選択部111から、選択された出力機器200に関する情報が入力される。さらに、信号生成部115には、ジェスチャ検知部109から、タッチパッド160に入力されたジェスチャを表すジェスチャ情報が入力される。
【0088】
信号生成部115は、出力機器200への選択コンテンツデータの所在情報の転送後にジェスチャ検知部109からジェスチャ情報が入力された場合に、当該ジェスチャ情報に対応するジェスチャの内容を認識する。例えば、ジェスチャ情報が、所定時間内にタッチパッド160に接触した第2の操作体180の接触位置が1箇所(例えば、座標(X1,Y1))であることを示す情報であった場合には、タッチパッド160に対するタップ操作が1回行われたと認識される。また、例えば、ジェスチャ情報が、所定時間内にタッチパッド160に接触した第2の操作体180の接触位置が座標(X1,Y1)から座標(X2,Y2)に移動したことを示す情報であった場合は、タッチパッド160にドラッグ操作が行われたと認識される。
【0089】
次に、信号生成部115は、ジェスチャ検知部109から入力されたジェスチャ情報(認識したジェスチャの内容)に基づいて、当該ジェスチャに割り当てられた処理を出力機器200に実行させるための制御信号を生成する。例えば、選択コンテンツデータの所在情報の送信後における1回のタップ操作にはコンテンツの再生処理、ドラッグ操作には音量調整処理が割り当てられていたとする。この場合、信号生成部115は、選択コンテンツデータの所在情報の転送後にジェスチャ検知部109から入力されたジェスチャ情報が1回のタップ操作に関するものであれば、出力機器200に選択コンテンツデータの再生処理を実行させる制御信号を生成する。さらにその後、信号生成部115は、ジェスチャ検知部109から入力されたジェスチャ情報がドラッグ操作に関するものであれば、出力機器200に選択コンテンツの再生音量の調整処理を実行させるための制御信号を生成する。なお、各ジェスチャに割り当てられた処理の内容は、例えば、記憶部119に、ジェスチャの内容と処理の内容とが対応付けられて記憶されていてもよい。
【0090】
レイアウト調整部117は、ジェスチャ検知部109により検知されたジェスチャに基づいて、出力機器200において選択コンテンツを表示させる際のレイアウトを調整する。具体的には、レイアウト調整部117は、出力機器200から、当該出力機器200の表示画面のサイズ、解像度等の出力機器200における表示制御のための情報である表示制御情報を取得する。そして、レイアウト調整部117は、取得した表示制御情報を保持しておくか、あるいは、記憶部119に記録する。また、レイアウト調整部117は、表示制御情報とジェスチャ情報とに基づいて、出力機器200に表示されているコンテンツデータの表示画面上におけるレイアウトを調整するためのスクロールやズーム等の指令信号を生成し、出力機器200に送信する。
【0091】
例えば、WEBコンテンツではレイアウトが自由にできるようになっている。そのため、出力機器200が、転送されたURL等のコンテンツの所在情報に基づいて、選択コンテンツをそのまま再生しても、当該コンテンツが、表示画面の中心に最適なズーム率で表示されるとは限られない。従って、上記のようなレイアウト調整が必要となる。
【0092】
ここで、出力機器200に選択コンテンツデータが表示されている状態であるとする。この場合に、ジェスチャ検知部109からレイアウト調整部117に、タッチパッド160にドラッグ、ピンチイン、ピンチアウト等のジェスチャが入力されたことを検知した内容を表すジェスチャ情報が入力されたとする。すると、レイアウト調整部117は、例えば、ドラッグ操作の入力があれば、そのドラッグした距離及び方向と、表示制御情報(表示画面サイズ等)に基づいて、出力機器200の表示画面におけるスクロールの指令信号を生成し、出力機器200に送信する。また、レイアウト調整部117は、例えば、ピンチアウト操作の入力があれば、そのピンチアウトした距離と、表示制御情報(表示画面サイズ等)に基づいて、出力機器200の表示画面におけるズームアウトの指令信号を生成し、出力機器200に送信する。なお、レイアウト調整部117は、レイアウト調整後のコンテンツデータの表示に関するプリセット位置やズーム率等に関するレイアウト情報を記憶部119に記録してもよい。
【0093】
また、レイアウト情報は同一のWEBコンテンツ内では共通化されていることが多い。そこで、出力機器200が、レイアウト調整後のレイアウト情報を、WEBサイトやドメイン等ごとに記録しておくことで、後に同一のWEBコンテンツを出力機器200が再生する際に、自動的に最適なコンテンツレイアウトでの再生が可能になる。すなわち、レイアウト調整が行われた場合には、レイアウト情報は、出力機器200において、例えば、コンテンツの所在情報(例えば、コンテンツの格納先のWEBサイトのメインページのURL、コンテンツの格納先のドメイン等)と対応付けて記録される。そして、出力機器200は、同一のWEBサイト内のコンテンツや、同一のドメインを有するコンテンツを再び表示する際には、記憶されているレイアウト情報を用いることで、自動的に最適なコンテンツレイアウトで再生することができる。
【0094】
この場合、レイアウト調整部117は、出力機器200が選択コンテンツを再生する際に、ジェスチャ検知部109から入力されたジェスチャ情報に応じて、出力機器200に記憶されているレイアウト情報の適用条件を選択してもよい。適用条件としては、例えば、「(1)記憶されているレイアウト情報を適用しない」、「(2)同一のWEBサイトのコンテンツの場合に適用する」、「(3)同一ドメインのコンテンツの場合に適用する」等がある。ここで、上記適用条件に対しては、それぞれ、別のジェスチャが割り当てられている。例えば、タッチパッド160に接触している第2の操作体180の数(ユーザの指の本数等)が1つの場合は、(1)の適用条件、2つの場合は(2)の適用条件、3つの場合は(3)の適用条件というように、適用条件ごとにジェスチャが割り当てられている。そして、レイアウト調整部117は、ジェスチャ検知部109から入力されたジェスチャ情報に応じて選択した適用条件を表す適用条件情報を出力機器200に送信する。
【0095】
レイアウト調整部117がレイアウト情報の適用条件を選択するトリガとしては、例えば、以下のようなものがある。すなわち、出力機器200が選択コンテンツデータの所在情報を受信した際に、出力機器200の表示画面に、当該出力機器200に記憶されているレイアウト情報を適用するか否かを問う表示をすること等が考えられる。そして、この表示を見たユーザが、第2の操作体180によりタッチパッド160に所定のジェスチャを入力し、このジェスチャに基づいて、レイアウト調整部117が、レイアウト情報の適用条件を選択する。
【0096】
記憶部119は、タッチパネル150に表示されるオブジェクトデータが格納されている。ここで言うオブジェクトデータには、例えば、アイコン、ボタン、サムネイル等のグラフィカルユーザインターフェース(以下、GUI)を構成する任意のパーツ類が含まれる。また、記憶部119には、情報処理装置100で再生可能なコンテンツのオブジェクトデータが格納されていてもよい。また、記憶部119には、個々のオブジェクトデータに対し、属性情報が対応付けて格納されている。属性情報としては、例えば、オブジェクトデータまたは実体データの作成日時、更新日時、作成者名、更新者名、実体データの種別、実体データのサイズ、重要度、優先度等がある。
【0097】
また、記憶部119には、オブジェクトデータに対応する実体データも相互に対応付けて格納されている。ここで言う実体データは、タッチパネル150に表示されたオブジェクトが操作された際に実行される所定の処理に対応するデータである。例えば、動画コンテンツに対応するオブジェクトデータには、その動画コンテンツのコンテンツデータが実体データとして対応付けられている。また、記憶部119には、格納されているコンテンツを再生するためのアプリケーションもオブジェクトデータ、コンテンツデータ、または属性情報に対応付けて格納されている。
【0098】
記憶部119に格納されているオブジェクトデータは、表示制御部105により読み出されてタッチパネル150に表示される。また、記憶部119には、機器登録部101により機器登録がされた登録機器に関する登録機器情報も登録されている。さらに、記憶部119には、選択コンテンツの出力機器200への表示の際のプリセット位置やズーム率等に関するレイアウト情報が記憶されていてもよい。
【0099】
また、記憶部119は、これらのデータ以外にも、情報処理装置100が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、または、各種のデータベース等を、適宜記憶することが可能である。この記憶部119は、機器登録部101、入力位置検出部103、表示制御部105、オブジェクト特定部107、ジェスチャ検知部109、出力機器選択部111、コンテンツデータ管理部113、信号生成部115、レイアウト調整部117等が、自由に読み書きを行うことが可能である。
【0100】
通信部121は、インターネット400や出力機器200との間のホームネットワーク等に接続して、情報処理装置100における外部機器(本実施形態では、出力機器200及びWEBサーバ300)とデータの送受信を行う。
【0101】
以上、本実施形態に係る情報処理装置100の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
【0102】
また、上述のような本発明の各実施形態に係る情報処理装置100の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。
【0103】
[3−5.情報処理方法]
次に、図10〜図16を参照しながら、上述した構成を有する情報処理装置100を用いた本実施形態に係る情報処理方法の処理の流れについて詳細に説明する。図10及び図11は、本実施形態に係る情報処理方法の処理の流れを示すフローチャートである。図12は、本実施形態に係る情報処理方法を適用した第1の例を示す説明図である。図13は、本実施形態に係る情報処理方法を適用した第2の例を示す説明図である。図14は、本実施形態に係る情報処理方法を適用した第3の例を示す説明図である。図15は、本実施形態に係る情報処理方法の変形例を示す説明図である。図16は、本実施形態に係る情報処理方法の変形例を示す説明図である。
【0104】
本実施形態に係る情報処理方法は、以下の各ステップを主に含むものである。
(1) 所定のオブジェクトが表示される表示装置151(タッチパネル150)の表示画面上における第1の操作体170の入力位置を検出する入力位置検出ステップ
(2) 第1の操作体170の入力位置を表す入力位置情報とオブジェクトの表示位置を表す表示位置情報とに基づいて、第1の操作体170により選択されたオブジェクトである選択オブジェクトを特定するオブジェクト特定ステップ
(3) 選択オブジェクトが第1の操作体170により選択されている状態で第2の操作体180により入力された所定のジェスチャを検知するジェスチャ検知ステップ
(4) (3)のジェスチャ検知ステップにより検知されたジェスチャを表す第1のジェスチャ情報に基づいて、選択オブジェクトに対応するコンテンツデータを出力する外部機器である出力機器200を選択する出力機器選択ステップ
(5) 選択オブジェクトに対応するコンテンツデータ(選択コンテンツデータ)の所在情報を出力機器200に送信する所在情報送信ステップ
(6) 選択コンテンツデータの所在情報を出力機器200に送信した後に検知されたジェスチャを表す第2のジェスチャ情報に基づいて、選択された出力機器200に所定の処理を実行させるための制御信号を生成する信号生成ステップ
【0105】
以下、上記(1)〜(6)の各ステップを含む本実施形態に係る情報処理方法の詳細について説明する。
【0106】
図10に示すように、まず、情報処理装置100と所望の外部機器(例えば、テレビジョン受像機210及びオーディオ機器220)とを、例えば、WPSなどの簡易登録手法により機器登録する(S101)。これにより、情報処理装置100と機器登録された外部機器(例えば、テレビジョン受像機210及びオーディオ機器220)とが、共通のプロトコルによりネットワークを介して互いにアクセスできるようになる。
【0107】
次に、情報処理装置100は、インターネット等のネットワーク400を介して、WEBサーバ300にアクセスし、任意のコンテンツデータを取得し、タッチパネル150にWEBコンテンツを表示する。さらに、第1の操作体170(例えば、ユーザの親指)により、機器登録されている外部機器に出力したい任意のコンテンツがタップされる。
【0108】
例えば、図12に示すように、外部機器に出力したいコンテンツが、WEBサーバ300上の写真共有サービスにおける写真コンテンツである場合には、情報処理装置100のタッチパネル150上には、複数のオブジェクト(サムネイル画像)が表示されている。この中から、第1の操作体170(例えば、ユーザの親指)により、一のオブジェクト150aがタップされる(S202)。また、図13に示すように、外部機器に出力したいコンテンツが、WEBサーバ300上の動画配信サービスにおける動画コンテンツである場合には、情報処理装置100のタッチパネル150上には、当該サービスにおけるWEBページが表示されている。この中から、第1の操作体170により、動画コンテンツに対応するオブジェクト150bがタップされる(S302)。また、図14に示すように、外部機器に出力したいコンテンツが、WEBサーバ300上の音楽配信サービスにおける音楽コンテンツである場合には、情報処理装置100のタッチパネル150上には、当該サービスにおけるWEBページが表示されている。この中から、第1の操作体170により、音楽コンテンツに対応するオブジェクト150bがタップされる(S402)。
【0109】
すると、入力位置検出部103が、第1の操作体170によりタップされた位置(入力位置)を検出する(S103)。さらに、オブジェクト特定部107は、ステップS103で検出された入力位置と、表示制御部105から取得した表示位置情報とに基づいて、第1の操作体170により選択されたオブジェクト(選択オブジェクト)を特定する(S105)。例えば、オブジェクト特定部107は、図12の例の場合には、オブジェクト150aを、図13の例の場合には、オブジェクト150bを、図14の例の場合には、オブジェクト150cを、それぞれ、選択オブジェクトとして特定する。
【0110】
次に、ジェスチャ検知部109が、第1の操作体170が選択オブジェクトをタップし続けたまま、すなわち、タッチパネル150上の所定のオブジェクトが選択されている状態で、タッチパッド160にタップ入力が検出されるか否かを判定する(S107)。例えば、ジェスチャ検知部109は、図12の例では、オブジェクト150aが選択されている状態で、タッチパッド160に第2の操作体180(例えば、ユーザの人差指)によりタッチパッド160にタップ入力が検出されるか否かを判定する。
【0111】
ここで、例えば、外部機器として複数の機器(例えば、テレビジョン受像機210及びオーディオ機器220)が機器登録されていた場合、タッチパッド160をタップした回数等により、選択コンテンツを出力する対象(選択する出力機器200)を切り替える。例えば、タッチパッド160へのタップ回数が1回である場合には、出力対象をテレビジョン受像機210、タップ回数が2回である場合には、出力対象をオーディオ機器220といった形になる。なお、ここまでの段階では、図12〜図14のいずれの例においても、テレビジョン受像機210の表示画面211やオーディオ機器220の表示画面223には何も表示されていないものとする(図12〜図14のS201、S301、S401)。
【0112】
ステップS107における判定の結果、ジェスチャ検知部109がタッチパッド160にタップ入力を検出しなかった場合には、情報処理装置100は、再びステップS103に戻って、第1の操作体170による入力位置の検出があるまで待機する。一方、ステップS107における判定の結果、ジェスチャ検知部109がタッチパッド160にタップ入力を検出した場合には、出力機器選択部111は、例えば、当該タップ入力のタップ回数等に応じて、選択コンテンツを出力する出力機器200を選択する(S109)。
【0113】
次に、コンテンツデータ管理部113は、ステップS109で選択された出力機器200に対し、第1の操作体170にタップされているオブジェクトに対応する選択コンテンツデータの所在情報(URL)をネットワークを介して転送する(S111)。なお、ここでのネットワークは、ステップS101において機器登録された外部機器との間の共通のプロトコルによるネットワーク(例えば、ホームネットワーク)であり、WEBサーバ300等との通信を行うネットワーク(例えば、インターネット)とは異なる。
【0114】
ここで、図15を参照しながら、本実施形態の変形例について説明する。本変形例では、所在情報転送部135は、タッチパネル150上の第1の操作体170の位置と、タッチパッド160上の第2の操作体180の位置とが対応する位置関係にある場合にのみ、選択コンテンツデータのURLを出力機器200に転送する。すなわち、図15に示すように、入力領域検出部136が、タッチパネル150上の領域を複数の分割領域(図15の例では、4つの分割領域150A、150B、150C、150D)に分割する。また、入力領域検出部136は、タッチパッド160上の領域も複数の分割領域(図15の例では、4つの分割領域160A、160B、160C、160D)に分割する。ここで、例えば、タッチパネル150上の分割領域150Aと、タッチパッド160上の分割領域160Aとは、対応する位置関係にある。なお、ここでいう「対応する位置関係」とは、例えば、タッチパネル150における第1の操作体170が位置する分割領域と、タッチパッド160における第2の操作体180が位置する分割領域とが、互いに対向する位置する関係のことをいう。言い換えれば、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが、XY座標平面において同一の座標を有する領域である関係のことをいう。
【0115】
次に、入力領域検出部136が、入力位置検出部103から入力された入力位置情報に基づいて、第1の操作体170が位置する分割領域を検出する。図15の例では、第1の操作体170は分割領域150D上に位置しているので、入力領域検出部136は、第1の操作体170が位置するのが分割領域150Dであることを検出する。また、入力位置検出部136は、ジェスチャ検知部109から入力された入力位置情報に基づいて、第2の操作体180が位置する分割領域を検出する。図15の例では、第2の操作体180は分割領域160D上に位置しているので、入力領域検出部136は、第2の操作体180が位置するのが分割領域160Dであることを検出する。
【0116】
次に、判定部137が、入力領域検出部136から入力された検出結果に基づいて、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが対応する位置関係にあるか否かを判定する。図15の例では、第1の操作体170が分割領域150Dに、第2の操作体180が分割領域160Dに位置していることから、判定部137は、第1の操作体170と第2の操作体180とが位置する分割領域は、対応する位置関係にあると判定する。
【0117】
さらに、所在情報転送部135が、判定部137から判定結果が入力された場合には、選択コンテンツの所在情報を転送するか否かを決定する。すなわち、所在情報転送部135は、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが対応する位置関係にあるとの判定結果が入力された場合には、選択コンテンツの所在情報を出力機器200に転送する。一方、所在情報転送部135は、第1の操作体170が位置する分割領域と、第2の操作体180が位置する分割領域とが対応する位置関係にないとの判定結果が入力された場合には、選択コンテンツの所在情報を出力機器200に転送しない。この場合、第2の操作体180によるタッチパッド160への操作入力が誤操作であると判断されることとなる。図15の例では、第1の操作体170と第2の操作体180とが位置する分割領域は、対応する位置関係にあると判定されていることから、所在情報転送部135は、選択コンテンツの所在情報を出力機器200に転送する。
【0118】
このように、情報処理装置100が、入力領域検出部136及び判定部137を有することで、ユーザの誤操作で第2の操作体180が誤ってタッチパッド160に接触した場合に、選択コンテンツの所在情報を出力機器200に転送することを防止できる。
【0119】
再び、本実施形態に係る情報処理方法の説明を続ける。選択コンテンツデータのURLを受信した出力機器200は、受信したURLに基づき、当該URLを有するWEBサーバ300上のWEBサイトにアクセスし、選択コンテンツデータを取得する(S113)。このとき、出力機器200では、例えば、自身に転送されるコンテンツデータのURLのドメインごとに、表示画面に表示されるオブジェクトのプリセット位置やズーム率等のレイアウト情報が記憶されている。そして、出力機器200は、WEBサーバ300に接続を開始した段階で、記憶されているレイアウト情報を適用する(S115)。
【0120】
ステップS115のような処理が行われるのは、以下のような理由である。すなわち、WEBコンテンツではレイアウトが自由にできるようになっている。そのため、出力機器200が、転送されたURL等のコンテンツの所在情報に基づいて、選択コンテンツをそのまま再生しても、当該コンテンツが、表示画面の中心に最適なズーム率で表示されるとは限られない。一方、コンテンツの表示レイアウトは同一のWEBコンテンツ内では共通化されていることが多い。従って、レイアウトを情報処理装置100側で調整した際のレイアウト情報を出力機器200側で記憶しておくことで、次回から、最適なレイアウトでコンテンツの再生が可能となる。この点について、図12の例を用いて具体的に説明する。
【0121】
図12は、WEBサーバ300における写真共有サービスを情報処理装置100のタッチパネル150上で表示し、表示されているオブジェクトの中から選択されたオブジェクトに対応するコンテンツデータ(写真画像データ)を出力機器200に出力する例である。
【0122】
図12に示すように、ステップS111で情報処理装置100から出力機器200へ選択コンテンツデータのURLの転送処理が行われると、ステップS113及びS115における処理で、出力機器200では、受信したURLに基づくリンク先の高解像度写真画像が表示される(S203)。しかし、この段階(S203)では、選択オブジェクトに対応する写真画像211aと同時に、写真共有サービスのサイトにおけるタイトルバーやその他の関連情報なども表示画面211に表示されてしまう。このとき、第2の操作体180によりタッチパッド160にジェスチャが入力、例えば、タッチパッド160にドラッグなどのジェスチャが入力されると(S204)、このジェスチャ入力に応じて、写真画像211aのフォーカス位置が移動する(S205)。さらに、例えば、第2の操作体180によりタッチパッド160にピンチアウトやピンチインなどのジェスチャが入力されると(S206)、このジェスチャ入力に応じて、写真画像211aのズームが行われる(S207)。以上のような処理が行われることで、写真画像211aを最適な表示位置及びズーム率に調整することができる。例えば、同一の写真共有サイト内のコンテンツであれば、高解像度写真のレイアウトは共通である。そのため、出力機器200が、上記レイアウト調整後のレイアウト情報を記憶しておき、その後、他の写真画像に対して出力機器200への出力を行った場合に記憶されているレイアウト情報を適用することで、最適なレイアウトで表示画面211に表示できる。
【0123】
なお、選択されたコンテンツ(例えば、写真画像)を中心に、もっともらしい矩形(例えば、表示画面211のサイズと同一サイズの矩形)を自動的に検出し、検出した矩形に併せて、コンテンツの表示位置やズーム率を自動的に調整してもよい。
【0124】
また、この場合、情報処理装置100のレイアウト調整部117は、出力機器200が選択コンテンツを再生する際に、ジェスチャ検知部109から入力されたジェスチャ情報に応じて、出力機器200に記憶されているレイアウト情報の適用条件を選択してもよい。適用条件としては、例えば、「(1)記憶されているレイアウト情報を適用しない」、「(2)同一のWEBサイトのコンテンツの場合に適用する」、「(3)同一ドメインのコンテンツの場合に適用する」等がある。ここで、上記適用条件に対しては、それぞれ、別のジェスチャが割り当てられている。例えば、図16(a)に示すように、レイアウト調整部117は、タッチパッド160に接触している第2の操作体180が操作体181のみ(ユーザの人差し指のみ)の場合は、(1)の適用条件を適用する。また、例えば、図16(b)に示すように、レイアウト調整部117は、タッチパッド160に接触している第2の操作体180が操作体181と操作体182の2つ(ユーザの人差し指と中指)の場合は、(2)の適用条件を適用する。さらに、例えば、図16(c)に示すように、レイアウト調整部117は、タッチパッド160に接触している第2の操作体180が操作体181、操作体182及び操作体183の3つ(ユーザの人差し指、中指、薬指)の場合は、(3)の適用条件を適用する。そして、レイアウト調整部117は、ジェスチャ検知部109から入力されたジェスチャ情報に応じて選択した適用条件を表す適用条件情報を出力機器200に送信する。
【0125】
レイアウト調整部117がレイアウト情報の適用条件を選択するトリガとしては、例えば、以下のようなものがある。すなわち、出力機器200が選択コンテンツデータの所在情報を受信した際に、出力機器200の表示画面に、当該出力機器200に記憶されているレイアウト情報を適用するか否かを問う表示をすること等が考えられる。そして、この表示を見たユーザが、第2の操作体180によりタッチパッド160に所定のジェスチャを入力し、このジェスチャに基づいて、レイアウト調整部117が、レイアウト情報の適用条件を選択する。
【0126】
再び、図11を参照しながら、本実施形態に係る情報処理方法の説明を続ける。出力機器200は、ステップS113で取得した選択コンテンツデータを関連付けられたアプリケーション(通常は、WEBブラウザ等)を起動し、選択コンテンツを再生する(S117)。関連付けられたアプリケーションの種類の判断は、例えば、再生するコンテンツデータのファイル名(特に、「wma」、「mpg」等の拡張子)に基づいて行われる。
【0127】
さらにその後、ジェスチャ検知部109は、第2の操作体180によりタッチパッド160にジェスチャ入力が検出されるか否かを判定する(S119)。この判定は、例えば、所定の時間を設定し、この時間内において行われてもよいし、例えば、第2の操作体180によるジェスチャ入力に応じて、この判定を終了させてもよい。ステップS119の判定の結果、第2の操作体180によるジェスチャ入力が検出されなかった場合には、後述するステップS127の処理に進む。一方、ステップS119の判定の結果、第2の操作体180によるジェスチャ入力が検出された場合には、信号生成部115が、入力されたジェスチャに対応する処理を出力機器200に実行させるための制御信号を生成する(S121)。そして、信号生成部115は、生成した制御信号を出力機器200に送信し(S123)、この信号を受信した出力機器200では、受信した制御信号に該当する処理が実行される(S125)。
【0128】
例えば、図12の例のように、テレビジョン受像機210に表示させるコンテンツが、写真共有サービスにおける写真画像等のWEBコンテンツであれば、タッチパッド160におけるジェスチャは、相対的な指の移動のみで実現可能な操作となる。具体的には、例えば、タッチパッド160に上下左右方向のドラッグ操作が入力された場合には、ジェスチャ検知部109が、当該ドラッグ操作が入力されたことを検知する。そして、信号生成部115が、この検知結果に基づき、表示画面211に表示されているWEBページ上におけるスクロールを行うように指示する制御信号を生成する。
【0129】
また、図13の例のように、テレビジョン受像機210に表示させるコンテンツが、動画配信サービスにおける動画コンテンツであれば、テレビジョン受像機210で再生している動画コンテンツに関する操作は、タッチパッド160へのジェスチャ入力により行われる。具体的には、例えば、タッチパッド160に上下左右方向のドラッグ操作、左右方向のドラッグ操作、単純なタップ操作等が入力された場合には、ジェスチャ検知部109が、当該ジェスチャ操作が入力されたことを検知する。そして、信号生成部115が、この検知結果に基づき、表示画面211に表示されている動画コンテンツに関する操作を指示する制御信号を生成する。この操作としては、例えば、上下左右方向のドラッグ操作があった場合には、再生音量の変更、左右方向のドラッグ操作があった場合には、早送り・巻戻し、単純なタップ操作があった場合には、一時停止・再生といったものが考えられる。このように、タッチパッド160の操作は、本実施形態では、対象コンテンツ(出力機器200に出力されたコンテンツ)で完結する操作が主なものとなる。
【0130】
また、図14の例のように、オーディオ機器220に再生させるコンテンツが、音楽配信サービスにおける音楽コンテンツであれば、オーディオ機器220で再生している音楽コンテンツに関する操作は、タッチパッド160へのジェスチャ入力により行われる。オーディオ機器220へ音楽コンテンツや動画コンテンツ(音声のみ)を出力した場合、情報処理装置100の操作と独立して、オーディオ機器220で再生している音楽を制御(再生等)することができる。例えば、Bluetooth(登録商標)などの技術により、オーディオ機器をモバイル機器の外部スピーカとして使用することは既に広く普及している。しかし、この場合、オーディオ機器とモバイル機器の音声が同期してしまうため、オーディオ機器のスピーカで音楽を流しながら、ブラウザで別の音楽を視聴するといったことができない。一方、本実施形態では、WEBサーバ300への接続や、取得したコンテンツの再生(スピーカ221からの音声出力)はオーディオ機器200等の出力機器200側で独立して行い、情報処理装置100は、当該コンテンツのURLや制御信号を送信するだけである。従って、別途装置を設けたり、処理コストをかけたりせずに、オーディオ機器とモバイル機器とで別々の音楽を再生することが可能となる。
【0131】
オーディオ機器側でWEBページ上の操作を可能として(例えば、LCDなどの画面表示機構をもつなど)、当該オーディオ機器でWEBコンテンツを再生するという方法もある。しかし、WEBコンテンツ上におけるナビゲーションをオーディオ機器で行うのは現実的には困難であり、部品コストの負担もある。従って、WEBコンテンツのナビゲーションを情報処理装置100側で行い、音楽等のコンテンツの再生をオーディオ機器220等の出力機器200側で行うという分業処理は、部品コストの面でも装置の単純化の面でも有効である。
【0132】
最後に、出力機器200が現在再生しているコンテンツに対しレイアウト調整が行われたか否かを判定し(S127)、レイアウト調整が行われていないと判定した場合には、コンテンツの再生終了後処理を終了する。一方、ステップS127の判定の結果、レイアウト調整が行われたと判定した場合には、直近のレイアウト調整後のプリセットの位置やズーム率等のレイアウト情報をURLのドメイン等と対応付けて記録し(S129)、処理を終了する。この記録されたレイアウト情報は、出力機器200における他のコンテンツの再生時に必要に応じて適用される。
【0133】
以上のように、本実施形態に係る情報処理方法では、それぞれの装置が持つ特徴を生かした分業操作を起こっている。具体的には、複雑な操作を必要とする処理、例えば、WEBコンテンツ間のナビゲーション等は、情報処理装置100側で行っている。一方、簡易な操作で済むが大画面でじっくり見たいコンテンツ、例えば、WEB動画やニュース記事等の視聴は、出力機器200側で行っている。
【0134】
<4.まとめ>
以上のように、本実施形態に係る情報処理装置100は、一方の面(例えば、表面)にタッチパネル150、他方の面(例えば、裏面)にタッチパッド160を搭載したモバイル機器である。そして、情報処理装置100は、タッチパネル150で情報処理装置100の画面上における操作を行い、タッチパッド160で、情報処理装置100とホームネットワーク等により接続可能な出力機器200の画面上における操作を行う。これにより、1台の装置(情報処理装置100)で、2つの装置(情報処理装置100及び出力機器200)の表示画面上における操作を同時に行うことが可能となる。また、本実施形態によれば、例えば、WEBコンテンツのナビゲーションのような複雑な操作は、タッチ操作がしやすい情報処理装置100で行い、コンテンツの出力は出力機器200で行い、これらをシームレスに連携させることを可能となる。
【0135】
このような本実施形態に係る情報処理装置100、情報処理方法及びプログラムによれば、以下の(1)〜(3)のような効果を主に得ることができる。
(1)WEBコンテンツで複雑な操作を必要とするナビゲーションと、簡易な操作で実現できるが大画面や良好な音質等を必要とするコンテンツ再生を、それぞれを得意とする別々の装置(情報処理装置100及び出力機器200)で行い、同時に制御することが可能となる。
(2)本実施形態では、情報処理装置100のタッチパネル150とタッチパッド160との連携したジェスチャ操作によるコンテンツのURL転送、タッチパネル150上における情報処理装置100の操作、タッチパッド160上における出力機器200の操作、とハードウェアレベルで操作が分離している。そのため、ユーザに対して、比較的単純で直感的な操作を提供し、ユーザの利便性を向上させることができる。
(3)ブラウザとWPSなどの一般的な技術や、ドメイン別にスクロール・ズーム位置を保存するといったシンプルで、他方、共通レイアウトをもちいるWEBコンテンツにおいては大変有用な仕組みを用いることで、本実施形態を実現できる。そのため、従来のシステムに新たに独自のシステムをインストールするコストがかからない。
【0136】
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
【符号の説明】
【0137】
100 情報処理装置
101 機器登録部
103 入力位置検出部
105 表示制御部
107 オブジェクト特定部
109 ジェスチャ検知部
111 出力機器選択部
113 コンテンツデータ管理部
115 信号生成部
117 レイアウト調整部
119 記憶部
135 所在情報転送部
136 入力領域検出部
137 判定部
150 タッチパネル
160 タッチパッド
170 第1の操作体
180 第2の操作体



【特許請求の範囲】
【請求項1】
所定のオブジェクトが表示される表示装置と、
前記表示装置の表示画面側に設けられ、第1の操作体による前記表示画面上における入力位置を検出する入力位置検出部と、
前記入力位置を表す入力位置情報と前記オブジェクトの表示位置を表す表示位置情報とに基づいて、前記第1の操作体により選択された前記オブジェクトである選択オブジェクトを特定するオブジェクト特定部と、
前記表示装置の表示画面の裏面側に設けられ、第2の操作体により所定のジェスチャが入力された場合に、当該ジェスチャを検知するジェスチャ検知部と、
前記ジェスチャ検知部により検知されたジェスチャを表す第1のジェスチャ情報に基づいて、前記選択オブジェクトに対応するコンテンツデータを出力する外部機器である出力機器を選択する出力機器選択部と、
前記コンテンツデータの所在情報を前記出力機器に送信した後に検知されたジェスチャを表す第2のジェスチャ情報に基づいて、前記選択された出力機器に所定の処理を実行させるための制御信号を生成する信号生成部と、
を備える、情報処理装置。
【請求項2】
前記選択オブジェクトに対応するコンテンツデータの所在情報を、前記出力機器選択部により選択された前記出力機器に対して転送する、所在情報転送部をさらに備える、請求項1に記載の情報処理装置。
【請求項3】
前記ジェスチャ検知部は、前記第2の操作体による前記表示画面の裏面上における入力位置を検出することが可能であり、
前記情報処理装置は、
前記表示画面上の領域及び前記表示画面の裏面上の領域を、それぞれ複数の分割領域に分割するとともに、前記入力位置検出部から入力された前記第1の操作体の入力位置を表す第1入力位置情報と、前記ジェスチャ検知部から入力された前記第2の操作体の入力位置を表す第2入力位置情報とに基づいて、前記第1の操作体が位置する前記表示画面上の前記分割領域と、前記第2の操作体が位置する前記表示画面の裏面上の前記分割領域とを検出する入力領域検出部と、
前記第1の操作体が位置する前記分割領域を表す第1分割領域情報と、前記第2の操作体が位置する前記分割領域を表す第2分割領域情報とに基づいて、前記第1の操作体が位置する前記分割領域と、前記第2の操作体が位置する前記分割領域とが対応する位置関係にあるか否かを判定する判定部と、
をさらに備え、
前記所在情報転送部は、前記判定部により、前記第1の操作体が位置する前記分割領域と前記第2の操作体が位置する前記分割領域とが対応する位置関係にあると判定された場合にのみ、前記所在情報を転送する、請求項2に記載の情報処理装置。
【請求項4】
前記選択オブジェクトに対応するコンテンツデータの前記出力機器への表示制御のための情報である表示制御情報を前記出力機器から取得し、さらに、取得した当該表示制御情報と、前記コンテンツデータが前記出力機器に表示された後に前記ジェスチャ検知部により検知されたジェスチャを表す第3のジェスチャ情報とに基づいて、前記コンテンツデータの前記出力機器の表示画面におけるレイアウトを調整するための指令信号を生成する、レイアウト調整部をさらに備える、請求項1〜3のいずれか1項に記載の情報処理装置。
【請求項5】
前記出力機器は、一のコンテンツデータを表示する際にレイアウト調整が行われた場合に、当該レイアウト調整後の前記一のコンテンツデータのレイアウトに関するレイアウト情報を、当該コンテンツデータの所在情報と対応付けて記憶しており、
前記レイアウト調整部は、前記ジェスチャ検知部から入力されたジェスチャ情報に応じて、前記出力機器が他のコンテンツデータを表示する際において、前記出力機器に記憶されている前記一のコンテンツデータの所在情報に対応付けられた前記レイアウト情報の適用条件を表す適用条件情報を、前記出力機器に送信する、請求項4に記載の情報処理装置。
【請求項6】
外部機器に対し、前記情報処理装置と共通のプロトコルによりネットワークを介して互いにアクセス可能な状態とする機器登録処理を行う機器登録部をさらに備え、
前記出力機器選択部は、前記機器登録処理が行われた前記外部機器の中から前記出力機器を選択する、請求項1〜5のいずれか1項に記載の情報処理装置。
【請求項7】
所定のオブジェクトが表示される表示装置の表示画面上における第1の操作体の入力位置を検出する入力位置検出ステップと、
前記入力位置を表す入力位置情報と前記オブジェクトの表示位置を表す表示位置情報とに基づいて、前記第1の操作体により選択された前記オブジェクトである選択オブジェクトを特定するオブジェクト特定ステップと、
前記選択オブジェクトが前記第1の操作体により選択されている状態で第2の操作体により入力された所定のジェスチャを検知するジェスチャ検知ステップと、
前記ジェスチャ検知ステップにより検知されたジェスチャを表す第1のジェスチャ情報に基づいて、前記選択オブジェクトに対応するコンテンツデータを出力する外部機器である出力機器を選択する出力機器選択ステップと、
前記コンテンツデータの所在情報を前記出力機器に送信する所在情報送信ステップと、
前記所在情報を前記出力機器に送信した後に検知されたジェスチャを表す第2のジェスチャ情報に基づいて、前記選択された出力機器に所定の処理を実行させるための制御信号を生成する信号生成ステップと、
を含む、情報処理方法。
【請求項8】
コンピュータを、
所定のオブジェクトが表示される表示装置の表示画面側に設けられ、第1の操作体による前記表示画面上における入力位置を検出する入力位置検出部と、
前記入力位置を表す入力位置情報と前記オブジェクトの表示位置を表す表示位置情報とに基づいて、前記第1の操作体により選択された前記オブジェクトである選択オブジェクトを特定するオブジェクト特定部と、
前記表示装置の表示画面の裏面側に設けられ、第2の操作体により所定のジェスチャが入力された場合に、当該ジェスチャを検知するジェスチャ検知部と、
前記ジェスチャ検知部により検知されたジェスチャを表す第1のジェスチャ情報に基づいて、前記選択オブジェクトに対応するコンテンツデータを出力する外部機器である出力機器を選択する出力機器選択部と、
前記コンテンツデータの所在情報を前記出力機器に送信した後に検知されたジェスチャを表す第2のジェスチャ情報に基づいて、前記選択された出力機器に所定の処理を実行させるための制御信号を生成する信号生成部と、
を備える、情報処理装置として機能させるためのプログラム。




【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate


【公開番号】特開2010−182046(P2010−182046A)
【公開日】平成22年8月19日(2010.8.19)
【国際特許分類】
【出願番号】特願2009−24237(P2009−24237)
【出願日】平成21年2月4日(2009.2.4)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】