説明

情報処理装置および方法、並びにプログラム

【課題】通信相手のユーザのいまの状態を知り、その状態に応じた処理を行うことができるようにする。
【解決手段】携帯電話機1にはセンサが内蔵されており、センサデータに基づいて携帯電話機1を持っているユーザの行動が認識される。「歩き」、「走り」、「静止」、「車に乗っている」などの行動がユーザの行動として認識される。認識結果はプレゼンス状態情報に含められ、携帯電話機2に送信される。携帯電話機2にはそれぞれの行動をとるキャラクタのデータが用意されており、送信されてきたプレゼンス状態情報により表される携帯電話機1のユーザのいまの行動に応じたアニメーションが、携帯電話機2の画面上に表示される。本発明は、ユーザの行動を認識し、認識結果を含む情報を送信する機器と通信を行うことができる機器に適用することができる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置および方法、並びにプログラムに関し、特に、通信相手のユーザのいまの状態を知り、その状態に応じた処理を行うことができるようにする情報処理装置および方法、並びにプログラムに関する。
【背景技術】
【0002】
「今なにしてるの?」。これは携帯電話機などでの通話の開始直後に通話の相手方に対する問い合わせとしてたびたび用いられるフレーズである。この問い合わせに対して「電車に乗るところ。」などとして返事があった場合、例えば、電話をかけた本人は、「またかけ直す。」と相手方に伝え、電話を切ることになる。
【0003】
特許文献1には、利用者端末の次の通信可能時間をスケジュール情報から抽出し、それをサーバ上で管理する技術が開示されている。
【特許文献1】特開2005−57706号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
このようなやりとりは日常よく行われるものであることから、電話をかける前に、相手方のいまの状態を確認することができれば、上述したようなほとんど意味のないやりとりをする必要がなく便利であると考えられる。
【0005】
電話をかける前に、携帯電話機の電子メール機能を用いてこれから電話をかけたいことを伝え、返信によって許可が得られたときに電話をかけることによって相手の都合の悪いときに電話をかけてしまうことを防止することができるが、許可を得るためだけに電子メールを送ることは煩雑である。
【0006】
また、例えば自分の子供が外でなにをしているのかを親が知りたいときなど、電話をかけることや電子メールを送ることまでは必要ないけれども、相手方(この例の場合、子供)の様子を知りたいこともあり、このような場合も、相手方のいまの状態を確認することができれば便利である。
【0007】
特許文献1に開示されている技術によれば、ユーザは、サーバにアクセスすることによって、利用者端末のユーザの予定(次に通信可能となる時間)を確認することができるものの、その利用者端末のユーザの、いま現在の状態をリアルタイムで確認することはできない。
【0008】
本発明はこのような状況に鑑みてなされたものであり、通信相手のユーザのいまの状態を知り、その状態に応じた処理を行うことができるようにするものである。
【課題を解決するための手段】
【0009】
本発明の第1の側面の情報処理装置および方法、並びにプログラムは、行動情報により表される他の情報処理装置のユーザの行動に応じたコミュニケーションツールを、他の情報処理装置のユーザとのコミュニケーションに用いるツールとして対応関係に基づいて選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる選択手段/ステップを備えることを特徴とする。
【0010】
この情報処理装置および方法、並びにプログラムにおいては、行動情報により表される他の情報処理装置のユーザの行動に応じたコミュニケーションツールが、他の情報処理装置のユーザとのコミュニケーションに用いるツールとして対応関係に基づいて選択され、選択されたコミュニケーションツールを管理するアプリケーションが起動される。
【0011】
本発明の第2の側面の情報処理装置および方法、並びにプログラムは、他の情報処理装置のユーザの所定の目的地への到着時刻、または所定の目的地に到着するまでの時間を、行動情報に基づいて予測する予測手段/ステップを備えることを特徴とする。
【0012】
この情報処理装置および方法、並びにプログラムにおいては、他の情報処理装置のユーザの所定の目的地への到着時刻、または所定の目的地に到着するまでの時間が、行動情報に基づいて予測される。
【0013】
本発明の第3の側面の情報処理装置および方法、並びにプログラムは、行動情報により表される他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた画像の近傍に表示させる表示制御手段/ステップを備えることを特徴とする。
【0014】
この情報処理装置および方法、並びにプログラムにおいては、行動情報により表される他の情報処理装置のユーザの行動と同じ行動をとるキャラクタが、送信されてきた画像の近傍に表示される。
【発明の効果】
【0015】
本発明によれば、通信相手のユーザのいまの状態を知ることができる。また、通信相手の状態に応じた処理を行うことができる。
【発明を実施するための最良の形態】
【0016】
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする実施の形態が本明細書に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
【0017】
さらに、この記載は、本明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
【0018】
請求項1に記載の情報処理装置は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報(例えば、プレゼンス状態情報)を送信する他の情報処理装置(例えば、図1の携帯電話機1)との間でネットワークを介して接続される情報処理装置(例えば、図1の携帯電話機2)であって、前記他の情報処理装置において認識可能なそれぞれの行動と、コミュニケーションツールとの対応関係(例えば、図11の推薦テーブル)を管理する管理手段(例えば、図7のテーブルDB44)と、前記行動情報により表される前記他の情報処理装置のユーザの行動に応じたコミュニケーションツールを、前記他の情報処理装置のユーザとのコミュニケーションに用いるツールとして前記管理手段により管理される前記対応関係に基づいて選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる選択手段(例えば、図7の通信手段選択処理部43)とを備えることを特徴とする。
【0019】
請求項4に記載の情報処理方法は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報(例えば、プレゼンス状態情報)を送信する他の情報処理装置(例えば、図1の携帯電話機1)との間でネットワークを介して接続される情報処理装置(例えば、図1の携帯電話機2)の情報処理方法であって、前記行動情報により表される前記他の情報処理装置のユーザの行動に応じたコミュニケーションツールを、前記他の情報処理装置において認識可能なそれぞれの行動と、コミュニケーションツールとの対応関係(例えば、図11の推薦テーブル)に基づいて前記他の情報処理装置のユーザとのコミュニケーションに用いるツールとして選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる選択ステップ(例えば、図14のステップS23)を含むことを特徴とする。
【0020】
請求項5に記載のプログラムにおいても、各ステップが対応する実施の形態(但し一例)は、請求項4に記載の情報処理方法と同様である。
【0021】
請求項6に記載の情報処理装置は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報(例えば、プレゼンス状態情報)を、現在位置を表す情報とともに送信する他の情報処理装置(例えば、図1の携帯電話機1)との間でネットワークを介して接続される情報処理装置(例えば、図1の携帯電話機2)であって、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測手段(例えば、図7の行動予測処理部45)を備えることを特徴とする。
【0022】
請求項8に記載の情報処理方法は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報(例えば、プレゼンス状態情報)を、現在位置を表す情報とともに送信する他の情報処理装置(例えば、図1の携帯電話機1)との間でネットワークを介して接続される情報処理装置(例えば、図1の携帯電話機2)の情報処理方法であって、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップ(例えば、図16のステップS43)を含むことを特徴とする。
【0023】
請求項9に記載のプログラムにおいても、各ステップが対応する実施の形態(但し一例)は、請求項8に記載の情報処理方法と同様である。
【0024】
請求項10に記載の情報処理装置は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報(例えば、プレゼンス状態情報)を、撮影した画像とともに送信する他の情報処理装置(例えば、図1の携帯電話機1)との間でネットワークを介して接続される情報処理装置(例えば、図1の携帯電話機2)であって、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御手段(例えば、図7のBuddyプレゼンス状態認識処理部42)を備えることを特徴とする。
【0025】
請求項11に記載の情報処理方法は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報(例えば、プレゼンス状態情報)を、撮影した画像とともに送信する他の情報処理装置(例えば、図1の携帯電話機1)との間でネットワークを介して接続される情報処理装置(例えば、図1の携帯電話機2)の情報処理方法であって、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップ(例えば、図18のステップS64)を含むことを特徴とする。
【0026】
請求項12に記載のプログラムにおいても、各ステップが対応する実施の形態(但し一例)は、請求項11に記載の情報処理方法と同様である。
【0027】
以下、本発明の実施の形態について図を参照して説明する。
【0028】
図1は、本発明の一実施形態に係る通信システムの構成例を示す図である。
【0029】
図1の通信システムにおいて、携帯電話機1と携帯電話機2はネットワーク4を介して接続されており、相互に通信を行うことができるようになされている。また、携帯電話機1とパーソナルコンピュータ3もネットワーク4を介して接続されており、相互に通信を行うことができるようになされている。
【0030】
携帯電話機1は、加速度センサ、ジャイロセンサなどのセンサを内蔵しており、その内蔵のセンサにより取得されたセンサデータ(加速度センサデータ、ジャイロセンサデータなど)に基づいて携帯電話機1を持っているユーザの行動を認識し、認識したユーザの行動を表す情報(行動情報)を含むプレゼンス状態情報を、所定の周期で携帯電話機2とパーソナルコンピュータ3にそれぞれネットワーク4を介して送信する。
【0031】
例えば、携帯電話機1においては、「歩き」、「走り」、「静止」、「車に乗っている」などの行動が携帯電話機1のユーザの行動として認識される。
【0032】
携帯電話機1からのプレゼンス状態情報を受信した携帯電話機2とパーソナルコンピュータ3には、「歩き」、「走り」、「静止」、「車に乗っている」などのそれぞれの行動をとるキャラクタのアニメーションのデータが用意されている。携帯電話機1からプレゼンス状態情報が送信されてきたとき、プレゼンス状態情報により表される携帯電話機1のユーザのいまの行動に応じたアニメーションが、例えば、携帯電話機2とパーソナルコンピュータ3のそれぞれの画面上に表示される。
【0033】
図2A乃至Dは、携帯電話機2とパーソナルコンピュータ3にデータが用意されるキャラクタの例を示す図である。図2A乃至Dのキャラクタは、「歩き」、「走り」、「静止」、「車に乗っている」をそれぞれ表す。
【0034】
キャラクタの表示は携帯電話機1からプレゼンス状態情報が送信されてくる毎に必要に応じて切り替えられ、例えば、携帯電話機1のユーザが歩いている状態から走りはじめたとき、そのときに送信されてくるプレゼンス状態情報に基づいて、携帯電話機2とパーソナルコンピュータ3の画面においても、図2Aのものから図2Bのものにキャラクタの表示が切り替えられる。
【0035】
このようなアニメーションを見ることにより、携帯電話機2のユーザ、またはパーソナルコンピュータ3のユーザは、携帯電話機1のユーザのいまの状態を知ることができる。例えば、電話をかける前にアニメーションの表示を確認し、携帯電話機1のユーザが車に乗っているとき(図2Dのアニメーションが表示されているとき)に電話をかけないようにすることにより、携帯電話機2のユーザは、携帯電話機1のユーザの都合の悪いときに電話をかけないで済む。
【0036】
図3は、携帯電話機2に表示される画面の例を示す図である。
【0037】
図3の例においては、アドレス帳に登録されている「村田」、「趙」、「Brian」のそれぞれの名前の右方に、「村田」、「趙」、「Brian」が有するそれぞれの機器から送信されてきたプレゼンス状態情報から確認された行動を表すキャラクタ2A乃至2Cが表示されている。図1の通信システムには、携帯電話機1と同様の機能を有する機器がネットワーク4に複数接続されており、図3に示すように、それらの機器から送信されてきたプレゼンス状態情報に基づいて、複数の人の行動を表すアニメーションがそれぞれ表示される。
【0038】
図3の例においては、「村田」は、いま走っている状態であることがキャラクタ2Aにより表されており、この表示から、携帯電話機2のユーザは、「村田」が忙しくしていることを確認することができ、電話をかけるのであればあとにしておこうと判断することができる。
【0039】
また、図3の例においては、「趙」は、いま「静止」している状態であることがキャラクタ2Bにより表されており、この表示から、携帯電話機2のユーザは、「趙」がじっとしていることを確認することができ、いま電話をかけようと判断することができる。
【0040】
同様に、図3の例においては、「Brian」は、いま「車にのっている」状態であることがキャラクタ2Cにより表されており、この表示から、携帯電話機2のユーザは、「Brian」が車に乗っていることを確認することができ、要件を電話で伝えるのではなく、電子メールで伝えておこうと判断することができる。
【0041】
図4は、パーソナルコンピュータ3に表示される画面(ウインドウの表示)の例を示す図である。
【0042】
図4の例においては、インスタントメッセージのウインドウが表示されており、その中に、「たまご」、「ふじお」、「あきら」が有するそれぞれの機器から送信されてきたプレゼンス状態情報から確認された行動を表すキャラクタ3A乃至3Cが表示されている。
【0043】
図4の例においては、「たまご」は、いま「車にのっている」状態であることがキャラクタ3Aにより表されており、「ふじお」は、いま走っている状態であることがキャラクタ3Bにより表されている。
【0044】
「あきら」は、いま「静止」している状態であることがキャラクタ3Cにより表されている。図4の例において、「あきら」の名前の隣には、「K-005 会議室」の文字が表示されているが、これは、「あきら」が、自分の機器から、プレゼンス状態情報に含めて送信した自分の居場所の情報に基づいて表示されたものである。
【0045】
このように、プレゼンス状態情報には、ユーザの行動を表す情報だけでなく、各種の情報を含めて他の機器に送信するようにすることができる。
【0046】
また、図4の例においては、「たまご」、「ふじお」、「あきら」のそれぞれの設定の状況として、ウインドウの右端に「場所を通知しない」、「通知しない」、「すべて通知する」の文字が表示されているが、これは、プレゼンス状態情報に含めて送信した情報のうち、どの情報までを相手方(プレゼンス状態情報を受信した機器)において表示されるようにするのかの設定の状況を表す。
【0047】
例えば、「あきら」は「すべてを通知する」を設定しているから、パーソナルコンピュータ3においては、プレゼンス状態情報に含めて「あきら」の機器から送信されてきた情報に基づいて、「あきら」の行動を表すキャラクタ3Cだけでなく、居場所までが表示されている。すなわち、プレゼンス状態情報の送信元の機器のユーザは、プレゼンス状態情報を受信した機器においてどこまでの情報が公開されるのかを設定することができ、プレゼンス状態情報にはその設定の状況を表す情報も含まれる。
【0048】
以上のような、送信されてきたプレゼンス状態情報に基づいて図3、図4に示すような画面を表示させる携帯電話機2やパーソナルコンピュータ3の機能は、携帯電話機1にも用意されている。また、反対に、内蔵するセンサからの出力に基づいて行動を認識し、認識した行動を表す情報を含むプレゼンス状態情報を他の機器に送信する携帯電話機1の機能は、携帯電話機2やパーソナルコンピュータ3にも用意されている。
【0049】
従って、携帯電話機1のユーザも、携帯電話機1に表示される画面から、携帯電話機2のユーザやパーソナルコンピュータ3のユーザの状態を確認することができる。
【0050】
なお、以上の例においては、プレゼンス状態情報の送信元の機器は、「歩き」、「走り」、「静止」、「車に乗っている」の4つの行動を認識することができるものとしたが、加速度センサ、ジャイロセンサだけでなく、マイクロフォンにより収音された音声などの様々なセンサにより得られるセンサデータや現在時刻などにも基づいて、「歩き」、「走り」、「静止」、「車に乗っている」以外の行動が認識されるようにしてもよい。
【0051】
図5は、認識結果の例を示す図である。
【0052】
例えば、図5の左側に示すように、マイクロフォンにより収音された音の音量から「静か」であることが得られ、時計の出力から現在時刻が「昼間」であることが得られ、さらに、加速度センサ、ジャイロセンサの出力から「移動なし」であることが得られたステータスS1に示すような状態の場合、ユーザのいまの行動(状態)は「のんびり中」として判断され、それを表す情報を含むプレゼンス状態情報が送信される。
【0053】
プレゼンス状態情報を受信した機器においては、「のんびり中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うことが可能であると判断され、チャットを管理するアプリケーションが自動的に(ユーザの操作によらずに)起動される。後述するように、プレゼンス状態情報を受信した機器においては、そのプレゼンス状態情報の送信元のユーザとのコミュニケーションをとるためのツールが、プレゼンス状態情報の送信元のユーザのいまの状態に応じて自動的に選択されるようになされている。
【0054】
また、図5の中央に示すように、例えば、マイクロフォンにより収音された音の音量から「静か」であることが得られ、時計の出力から現在時刻が「夜間」であることが得られ、さらに、加速度センサ、ジャイロセンサの出力から「移動なし」であることが得られたステータスS2に示すような状態の場合、ユーザのいまの状態は「おやすみ中」として判断され、それを表す情報を含むプレゼンス状態情報が送信される。
【0055】
プレゼンス状態情報を受信した機器においては、「おやすみ中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うことが不可能であると判断される。この場合、例えば、メールを行うことが可能であると判断され、メールを管理するアプリケーション(メーラ)が起動される。
【0056】
同様に、図5の右側に示すように、例えば、加速度センサ、ジャイロセンサの出力から「猛ダッシュ中」であるとして判断されたステータスS3に示すような状態の場合、それを表す情報を含むプレゼンス状態情報が送信される。
【0057】
プレゼンス状態情報を受信した機器においては、「猛ダッシュ中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うこと、および電話をかけることが不可能であると判断される。この場合も、例えば、メールを行うことが可能であると判断され、メーラが起動される。
【0058】
以上のようなプレゼンス状態情報の送受信や、相手方のユーザの状態に応じた処理を行うそれぞれの機器の動作についてはフローチャートを参照して後述する。
【0059】
図6は、図1の携帯電話機1のハードウェア構成例を示すブロック図である。
【0060】
センサ部11は、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサなどよりなり、所定の周期で測定を行い、測定結果である加速度センサデータ、ジャイロセンサデータ、GPSセンサデータなどのセンサデータを行動認識部12とメイン処理部13に出力する。センサ部11を構成する加速度センサは、例えば、互いに直交する3軸方向の加速度を測定可能なものとされる。また、ジャイロセンサは、例えば、互いに直交する3軸周りの角速度を測定可能なものとされる。
【0061】
行動認識部12は、後に詳述するように、センサ部11から供給されてきたセンサデータから特徴を抽出し、抽出した特徴の時系列に基づいて、ユーザの行動を、あらかじめ用意されているHMM(Hidden Markov Model)を参照して認識する。行動認識部12は、認識結果を表す情報をメイン処理部13に出力する。
【0062】
メイン処理部13は、携帯電話機1の全体の動作を制御し、例えば、行動認識部12から供給されてきた行動の認識結果を表す情報を含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報を、あらかじめ登録されている機器に通信部14から送信させる。送信先としては、例えば、アドレス帳に登録されている機器、インスタントメッセージを管理するアプリケーションに登録されている機器が選択される。
【0063】
また、メイン処理部13は、他の機器から送信されてきたプレゼンス状態情報が通信部14において受信され、それが供給されてきたとき、他の機器のユーザの行動を確認し、確認した行動を表すキャラクタを表示部15に表示させる。さらに、メイン処理部13は、他の機器から送信されてきたプレゼンス状態情報により表される他の機器のユーザの行動に応じて、そのユーザとのコミュニケーションに用いるツール(通信手段)を選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させたりする。
【0064】
後述するように、メイン処理部13には、それぞれの行動と、それぞれの行動のときに用いるのに適したコミュニケーションツールの対応関係を表す推薦テーブルが用意されており、それが参照されて、他の機器のユーザのいまの行動に適したコミュニケーションツールが選択される。
【0065】
通信部14は、メイン処理部13から供給されてきた情報をネットワーク4を介して他の機器に送信するとともに、他の機器からネットワーク4を介して送信されてきた情報を受信し、メイン処理部13に出力する。
【0066】
表示部15はLCD(Liquid Crystal Display)などよりなり、メイン処理部13による制御に従って、キャラクタ(キャラクタが表示される画面)などを表示させる。
【0067】
記憶部16はHDD(Hard Disk Drive)などよりなり、キャラクタを表示するためのデータなどの各種のデータを記憶する。
【0068】
図7は、携帯電話機1のソフトウェア構成例(機能構成例)を示すブロック図である。図7に示す機能部のうちの少なくとも一部は、図6のメイン処理部13により所定のプログラムが実行されることによって実現される。
【0069】
以下、適宜、携帯電話機1において扱われる携帯電話機1のユーザの状態(行動)をMyプレゼンス状態といい、携帯電話機1のユーザの仲間にあたる、携帯電話機2やパーソナルコンピュータ3などの他の機器のユーザの状態をBuddyプレゼンス状態という(反対に、例えば携帯電話機2から見れば、携帯電話機2のユーザの状態はMyプレゼンス状態となり、携帯電話機2のユーザの仲間にあたる、携帯電話機1やパーソナルコンピュータ3などの他の機器のユーザの状態はBuddyプレゼンス状態となる)。
【0070】
図7に示すように、携帯電話機1は、基本的に、他の機器に対するプレゼンス状態情報の送信を行う送信処理部21と、他の機器から送信されてきたプレゼンス状態情報に基づく各種の処理を行う受信処理部22とからなる。
【0071】
送信処理部21は、特徴抽出処理部31、行動認識処理部32、HMM DB33、Myプレゼンス状態認識処理部34、およびプレゼンス状態情報送信部35から構成される。このうちの実線で囲んで示す特徴抽出処理部31、行動認識処理部32、HMM DB33は、図6の行動認識部12により実現される。
【0072】
特徴抽出処理部31は、例えば、加速度センサから供給されてきた加速度センサデータと、ジャイロセンサから供給されてきたジャイロセンサデータから特徴を抽出し、抽出した特徴を表す特徴データを行動認識処理部32に出力する。
【0073】
具体的には、特徴抽出処理部31は、図8Aに示すように、加速度センサデータから歩行の周波数(Impulse pitch)を特徴の1つとして求める。図8Aのサンプル結果においては、横軸が時刻(加速度センサ11のサンプル数)、縦軸が周波数(Hz)となっている。人が歩くときに加速度センサにより測定される周波数は一般的に2Hz(1秒間に2歩)であるから、この2Hzの測定結果の時系列などから、認識結果としての「歩き」がHMMが参照されて得られる。
【0074】
また、特徴抽出処理部31は、図8Bに示すように、加速度センサデータから歩行の強さ、衝撃の度合い(Impulse magnitude)を特徴の1つとして求める。図8Bのサンプル結果においては、横軸が時刻、縦軸が強さとなっている。
【0075】
さらに、特徴抽出処理部31は、図8Cに示すように、加速度センサデータから重力軸を求め、ジャイロセンサデータから求められる、重力軸まわりの回転角(Heading)を特徴の1つとして求める。加速度センサが重力軸に対して水平方向の加速度を検出する状態にある場合にはその出力は0となり、一方、重力軸に対して水平方向以外の方向の加速度を検出する状態にある場合には所定の値が測定されるから、上述したように、3軸方向の加速度を測定することができるようになされているときには、それぞれの方向の加速度の測定結果から重力軸を求めることが可能となる。なお、図8Cのサンプル結果においては、横軸が時刻、縦軸が回転角となっている。
【0076】
例えば、以上のような各種の特徴が特徴抽出処理部31においてセンサデータに基づいて抽出される。抽出された特徴を表す特徴データは、抽出される毎に、行動認識処理部32に順次出力される。
【0077】
行動認識処理部32は、特徴抽出処理部31から供給されてきた特徴データを所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM DB33に用意されているHMMを参照して認識する。
【0078】
HMM DB33には、例えば、人が歩いているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「歩き」を認識するために用いられるモデル、人が走っているいるときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「走り」を認識するために用いられるモデル、人が静止しているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「静止」を認識するために用いられるモデル、人が車に乗っているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「車に乗っている」を認識するために用いられるモデルなどがあらかじめ用意されている。
【0079】
行動認識処理部32により認識された「歩き」、「走り」、「静止」、「車に乗っている」などの行動の認識結果を表す情報はMyプレゼンス状態認識処理部34に出力される。
【0080】
図9は、行動認識部12による行動認識を模式的に示す図である。
【0081】
生データ(raw data)としての加速度センサデータとジャイロセンサデータに対してはキャリブレーションが施され、キャリブレーションが施されることによって得られたデータから、上述したような、歩行ピッチ、歩行の強さ、重力、進行方向が特徴量(low level context)として取得される。また、取得されたそれらの特徴量に基づいて、HMMが参照され、ユーザの行動(high level context)が統計学的に認識される。
【0082】
なお、行動認識のアルゴリズムは上述したものに限られず、各種のアルゴリズムにより行われるようにしてもよい。
【0083】
図10は、センサデータ、特徴量、認識結果の例を時系列的に示す図である。
【0084】
図10の例においては、「歩き」、「走り」、「歩き」、「走り」、「静止」、「歩き」、「静止」の順に行動の認識結果が取得されている。このようなそれぞれの認識結果には、例えば、その認識結果を得るために用いられたセンサデータの測定時刻が付加され、プレゼンス状態情報のうちの行動を表す情報として用いられる。
【0085】
図7の説明に戻り、Myプレゼンス状態認識処理部34は、行動認識処理部32から供給されてきた行動の認識結果を含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報をプレゼンス状態情報送信部35に出力する。Myプレゼンス状態認識処理部34は、必要に応じて、プレゼンス状態情報にGPSセンサデータなどを含める。
【0086】
また、Myプレゼンス状態認識処理部34は、適宜、行動認識処理部32から供給されてきた行動の認識結果に基づいて、携帯電話機1のユーザの状態を表すアニメーションを表示部15に表示させる。
【0087】
プレゼンス状態情報送信部35は、通信部14を制御し、Myプレゼンス状態認識処理部34により生成され、供給されてきたプレゼンス状態情報をネットワーク4を介して他の機器に送信する。
【0088】
受信処理部22は、プレゼンス状態情報取得部41、Buddyプレゼンス状態認識処理部42、通信手段選択処理部43、テーブルDB44、および行動予測処理部45から構成される。
【0089】
プレゼンス状態情報取得部41は、他の機器からネットワーク4を介して送信されてきたプレゼンス状態情報を受信し、それをBuddyプレゼンス状態認識処理部42に出力する。
【0090】
Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(他の機器のユーザの状態)を認識し、Buddyプレゼンス状態を表すアニメーションを表示部15に表示させる。
【0091】
また、Buddyプレゼンス状態認識処理部42は、認識したBuddyプレゼンス状態を表す情報を通信手段選択処理部43と行動予測処理部45に出力する。他の機器から送信されてきたプレゼンス状態情報に他の機器のユーザの現在位置を表すGPSセンサデータが含まれている場合、Buddyプレゼンス状態認識処理部42は、そのGPSセンサデータも行動予測処理部45に出力する。後述するように、行動予測処理部45においては、Buddyプレゼンス状態とGPSセンサデータに基づいて、そのGPSセンサデータ等をプレゼンス状態情報に含めて送信してきた機器のユーザの目的地までの予測時間などが求められる。
【0092】
さらに、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報を送信してきた機器のユーザとのコミュニケーションに用いるツールが通信手段選択処理部43により選択され、選択されたツールを表す情報が供給されてきたとき、適宜、その選択されたコミュニケーションツールがどれであるのかを表すメッセージなどを表示部15に表示させ、携帯電話機1のユーザに提示する。
【0093】
通信手段選択処理部43は、Buddyプレゼンス状態認識処理部42により認識されたBuddyプレゼンス状態に基づいて、他の機器のユーザとのコミュニケーションツールとして適したものをテーブルDB44に記憶されている推薦テーブルを参照して選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる。
【0094】
図11は、テーブルDB44に記憶されている推薦テーブルの例を示す図である。
【0095】
図11の推薦テーブルの例においては、各時間帯(平日の昼/夜、休日の昼/夜)の行動と、他の機器のユーザがその行動をとっているときに適したコミュニケーションツールが対応付けられている。また、図11の例においては、携帯電話機1に用意されているコミュニケーションツールとして、電話、電子メール(電子メールの返信)、SMS(Short Message Service)(SMSの返信)、チャットが示されている。
【0096】
図11において、「○」はそのコミュニケーションツールが適していることを表し、「×」は適していないことを表す。「△」はその中間であることを表す。
【0097】
例えば、時間帯が平日の昼間であり、認識されたBuddyプレゼンス状態が歩行中(「歩き」)であるときには、チャット以外の、電話、電子メール(電子メールの返信)、SMS(SMSの返信)が適したコミュニケーションツールと判断される。
【0098】
従って、このように、時間帯が平日の昼間であり、認識されたBuddyプレゼンス状態が歩行中であることが他の機器から送信されてきたプレゼンス状態情報に基づいて認識されたときには、通信手段選択処理部43により、電話、電子メール(電子メールの返信)、SMS(SMSの返信)のいずれかのコミュニケーションツールが選択され、それを管理するアプリケーションが起動される。このように複数のコミュニケーションツールが適していると判断された場合、例えば、ユーザによりあらかじめ設定された優先度の高いツールが選択される。
【0099】
このような推薦テーブルが参照され、コミュニケーション相手となる他の機器のユーザのいまの状態に応じたツールが通信手段選択処理部43により選択されることになる。なお、図11の例においては、他の機器のユーザの行動として、歩行中(上述した「歩き」)、走っている(上述した「走り」)、座っている、立っている、乗り物(上述した「車にのっている」)が示されている。
【0100】
なお、行動とコミュニケーションツールの対応関係を表す情報として、図11に示すようなテーブル状の情報ではなく、行動を入力としてその行動に応じたコミュニケーションツールを出力とする確率モデルなどの各種の情報が用意されるようにしてもよい。
【0101】
図7の説明に戻り、行動予測処理部45は、Buddyプレゼンス状態とGPSセンサデータに基づいて、そのGPSセンサデータ等をプレゼンス状態情報に含めて送信してきた機器のユーザの目的地に到着するまでの予測時間や、目的地に到着する予測時刻を求め、例えば、そのユーザの行動履歴などとともに、地図上に、求めた予測時間や時刻を表示させる。
【0102】
なお、図6と図7に示す構成は、携帯電話機1だけでなく、携帯電話機2やパーソナルコンピュータ3も有している。以下、適宜、図6と図7に示す構成を、携帯電話機2やパーソナルコンピュータ3の構成としても引用して説明する。
【0103】
次に、携帯電話機1と携帯電話機2の動作についてフローチャートを参照して説明する。
【0104】
以下においては、携帯電話機1がプレゼンス状態情報の送信側の機器であり、携帯電話機2がプレゼンス状態情報の受信側の機器である場合について説明するが、携帯電話機1により行われる処理は、適宜、携帯電話機2やパーソナルコンピュータ3においても行われる。また、携帯電話機2により行われる処理は、適宜、携帯電話機1やパーソナルコンピュータ3においても行われる。
【0105】
はじめに、図12のフローチャートを参照して、プレゼンス状態情報を送信する携帯電話機1の処理について説明する。
【0106】
携帯電話機1のメイン処理部13による制御に従って各種のセンサにより測定が行われ、測定結果であるセンサデータが供給されてきたとき、ステップS1において、行動認識部12により行動認識処理が行われる。行動認識処理の詳細については図13のフローチャートを参照して後述するが、この処理により、携帯電話機1のユーザのいまの行動が認識される。認識された行動を表す情報は行動認識処理部32からMyプレゼンス状態認識処理部34に出力される。
【0107】
ステップS2において、Myプレゼンス状態認識処理部34は、行動認識処理部32から供給されてきた行動の認識結果を表す情報や、GPSセンサデータなどを含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報をプレゼンス状態情報送信部35に出力する。
【0108】
ステップS3において、プレゼンス状態情報送信部35は、Myプレゼンス状態認識処理部34により生成されたプレゼンス状態情報をネットワーク4を介して携帯電話機2に送信し、処理を終了させる。
【0109】
このような処理が所定の周期で繰り返し行われることにより、携帯電話機1から送信されてきたプレゼンス状態情報を受信した携帯電話機2のユーザは、携帯電話機1のユーザの状態をリアルタイムで確認することができる。
【0110】
次に、図13のフローチャートを参照して、図12のステップS1において行われる行動認識処理の詳細について説明する。
【0111】
ステップS11において、行動認識部12の特徴抽出処理部31は、加速度センサの出力である加速度センサデータやジャイロセンサの出力であるジャイロセンサデータなどから、上述したような、歩行ピッチ、歩行の強さ、重力、進行方向などの特徴を抽出する。特徴抽出処理部31により抽出された特徴を表す特徴データは行動認識処理部32に出力される。
【0112】
ステップS12において、行動認識処理部32は、特徴抽出処理部31から供給されてきた特徴データを所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM DB33に用意されているHMMを参照して認識する。行動認識処理部32は認識結果をMyプレゼンス状態認識処理部34に出力し、処理を終了させる。その後、処理は図12のステップS1に戻り、それ以降の処理が行われる。
【0113】
次に、図14のフローチャートを参照して、コミュニケーションツールを選択する携帯電話機2の処理について説明する。この処理は、携帯電話機1による図12の処理に対応して行われる処理である。
【0114】
ステップS21において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。
【0115】
プレゼンス状態情報取得部41は、ステップS21において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS22に進む。携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。
【0116】
ステップS22において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識し、認識したBuddyプレゼンス状態を表す情報を通信手段選択処理部43に出力する。
【0117】
ステップS23において、通信手段選択処理部43は、Buddyプレゼンス状態認識処理部42により認識されたBuddyプレゼンス状態に基づいて、携帯電話機1のユーザとのコミュニケーションツールとして適したものをテーブルDB44に記憶されている推薦テーブルを参照して選択する。
【0118】
ステップS24において、通信手段選択処理部43は、コミュニケーションツールを自動的に選択する自動選択モードが設定されているか否かを判定し、自動選択モードが設定されていると判定した場合、ステップS25に進む。
【0119】
ステップS25において、通信手段選択処理部43は、ステップS23で選択したコミュニケーションツールを、携帯電話機2のユーザが、携帯電話機1のユーザとの間でメッセージをやりとりするなどしてコミュニケーションをとるときに用いるツールとしてセットする。ステップS24において、自動選択モードが設定されていないと判定された場合、このステップS25の処理はスキップされる。
【0120】
ステップS26において、Buddyプレゼンス状態認識処理部42は、ステップS22で認識した携帯電話機1のユーザの状態を表すアニメーションが表示される、例えば図3に示すようなBuddyプレゼンス状態表示画面を表示部15に表示させる。
【0121】
Buddyプレゼンス状態表示画面が表示された状態で、例えば、携帯電話機2のユーザにより、携帯電話機1のユーザとの間でメッセージなどのやりとりを開始することが指示されたとき、ステップS27において、通信手段選択処理部43は、ステップS25でセットしたコミュニケーションツールを管理するアプリケーションを起動させる。
【0122】
これにより、携帯電話機2のユーザは、携帯電話機1のユーザのいまの状態に適したツールで、携帯電話機1のユーザとの間でコミュニケーションをとることができる。
【0123】
以上においては、プレゼンス状態情報に基づいて得られた携帯電話機1のユーザの状態であるBuddyプレゼンス状態に基づいてコミュニケーションツールを選択する処理について主に説明したが、次に、Buddyプレゼンス状態に基づいて、携帯電話機1のユーザが所定の目的地に到着する時刻、または所定の目的地に到着するまでの時間を予測する処理について説明する。
【0124】
図15は、予測結果に基づいて携帯電話機2に表示される画面の例を示す図である。図15は、携帯電話機1のユーザが目的地に到着するまでの時間が予測された場合の例を示している。
【0125】
図15の例においては、所定の範囲の地図が表示され、目的地Pが設定されている。この目的地Pは例えば携帯電話機2のユーザにより地図上から選択されたものである。
【0126】
また、図15の例においては、地図上のそれぞれの場所に、その場所で携帯電話機1のユーザがとっていた行動を表すキャラクタが表示されている。地図上のキャラクタの表示位置は、プレゼンス状態情報に含めて携帯電話機1から送信されてきたGPSセンサデータに基づいて求められる位置であり、キャラクタは、上述したように、プレゼンス状態情報により表される携帯電話機1のユーザの状態に基づいて選択されたものである。
【0127】
図15の画面上に表示されるキャラクタ61は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが車にのっていたことを表し、キャラクタ62は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが静止していたことを表す。また、キャラクタ63,64,65は、それぞれのキャラクタが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが歩いていたことを表し、キャラクタ66は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが走っていたことを表す。
【0128】
キャラクタ67は携帯電話機1のユーザの現在位置と、その行動を表し、キャラクタ67の下には、携帯電話機1のユーザの現在の行動を表す「現在:車で移動中」のメッセージが表示されている。
【0129】
さらに、図15の例においては、地図上に設定されている目的地Pの上に、携帯電話機2において予測された、携帯電話機1のユーザが目的地Pに到着するまでの時間を表す「到着予定:10分後」のメッセージが表示されている。この予測時間は、例えば、携帯電話機1のユーザの現在位置から目的地Pまでの距離と、目的地Pに向かう速さ(例えば、プレゼンス状態情報に含めて携帯電話機1から順次送信されてくるGPSセンサデータにより表される位置の変化量から求められる速さ、または、車の予想速度)から求められる。
【0130】
例えば、目的地で携帯電話機1のユーザと待ち合わせをしているにもかかわらず、待ち合わせの時刻に携帯電話機1のユーザがこない場合、携帯電話機2のユーザは、このような画面を携帯電話機2を用いて確認することにより、携帯電話機1のユーザが目的地に向かっていることや、到着するまでの時間などを確認することができる。すなわち、携帯電話機2のユーザは、携帯電話機2から電話をかけるなどして携帯電話機1のユーザにいまの状態を問い合わせる必要がない。
【0131】
ここで、図16のフローチャートを参照して、図15に示すような画面を表示させる携帯電話機2の処理について説明する。なお、携帯電話機1においては、図12の処理と同様の処理が行われ、GPSセンサデータを含むプレゼンス状態情報が携帯電話機2に対して繰り返し送信されている。
【0132】
ステップS41において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。
【0133】
プレゼンス状態情報取得部41は、ステップS41において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS42に進む。携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。
【0134】
ステップS42において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識し、認識したBuddyプレゼンス状態を表す情報を、プレゼンス状態情報に含めて携帯電話機1から送信されてきたGPSセンサデータとともに行動予測処理部45に出力する。
【0135】
ステップS43において、行動予測処理部45は、Buddyプレゼンス状態認識処理部42により認識された携帯電話機1のユーザの行動と、GPSセンサデータにより求められる携帯電話機1のユーザの現在位置から、例えば携帯電話機2のユーザにより設定された目的地への携帯電話機1のユーザの到着時刻、または目的地に到着するまでの時間を計算により予測する。到着時刻の予測には、到着までの時間を求めるときに用いられる、上述したような携帯電話機1のユーザの現在位置から目的地Pまでの距離と、目的地Pに向かう速さの他に、現在時刻も用いられる。
【0136】
ステップS44において、行動予測処理部45は、ステップS43で求めた携帯電話機1のユーザの目的地への到着時刻、または目的地に到着するまでの時間を表示部15に表示させ、携帯電話機2のユーザに提示する。この提示は、例えば、図15に示したような画面表示により行われる。
【0137】
ステップS45において、Buddyプレゼンス状態認識処理部42は、ステップS42で認識した携帯電話機1のユーザの状態を表すアニメーションが表示されるBuddyプレゼンス状態表示画面を表示部15に表示させる。
【0138】
例えば、プレゼンス状態情報表示画面が表示されている状態で、携帯電話機1のユーザとの間でコミュニケーションをとることが携帯電話機2のユーザにより指示されたとき、通信手段選択処理部43は、指示されたコミュニケーションツールを管理するアプリケーションを起動させ、携帯電話機1のユーザとの間でコミュニケーションをとることを可能な状態とする。なお、携帯電話機2がコミュニケーションツールを自動的に選択する自動選択モードが設定されている場合、図14を参照して説明した処理により、自動的に、携帯電話機1のユーザとの間でコミュニケーションをとることができる状態が設定されるようにしてもよい。
【0139】
次に、携帯電話機1のユーザの状態を表すアニメーションを、携帯電話機1により撮影され、プレゼンス状態情報とともに送信されてきた画像(動画)と並べて表示させる携帯電話機2の処理について説明する。
【0140】
この例においては、携帯電話機2のセンサ部11にはカメラも設けられており、それにより撮影された画像が、携帯電話機2により認識された携帯電話機2のユーザ自身の行動を表すアニメーションと並べて表示されるようになされている。すなわち、表示される画面から、携帯電話機2のユーザは、自分自身のプレゼンス状態であるMyプレゼンス状態と、携帯電話機1のユーザ等のBuddyプレゼンス状態を確認しながら、それぞれの機器により撮影された画像を確認することができる。
【0141】
図17は、携帯電話機2に表示されるプレゼンス状態表示画面の例を示す図である。
【0142】
図17のプレゼンス状態表示画面には、右方に表示される、携帯電話機2のカメラにより撮影されている画像と、携帯電話機1を含む他の機器のカメラにより撮影されている画像の中からユーザにより選択された画像を表示するStream View81が表示されている。
【0143】
また、プレゼンス状態表示画面には、携帯電話機2のユーザに関する情報(行動と撮影された画像)が表示されるMyプレゼンス状態表示部82と、他の機器に関する情報が一覧表示されるBuddyリスト83が表示されている。
【0144】
このうちのMyプレゼンス状態表示部82は、携帯電話機2により認識された携帯電話機2のユーザの行動を表すアニメーションが表示されるアニメーション表示部82Aと、携帯電話機2のカメラにより撮影されている画像が表示される画像表示部82Bからなる。アニメーション表示部82Aに表示されるアニメーションは、所定の周期で行われる携帯電話機2のユーザの行動の認識結果に応じて表示される。
【0145】
また、図17の例においては、Buddyリスト83には、携帯電話機1のユーザに関する情報が表示されるBuddyプレゼンス状態表示部83−1と、携帯電話機1以外の他の機器のユーザに関する情報が表示されるBuddyプレゼンス状態表示部83−2が表示されている。すなわち、図17の例は、携帯電話機2が、携帯電話機1の他に、携帯電話機1以外の機器とも通信を行っており、それらの機器から送信されてきたプレゼンス状態情報に基づいて表示される画面の例を示している。
【0146】
Buddyプレゼンス状態表示部83−1は、携帯電話機1により認識された携帯電話機1のユーザの行動を表すアニメーションが表示されるアニメーション表示部83−1Aと、携帯電話機1のカメラにより撮影されている画像が表示される画像表示部83−1Bからなる。また、Buddyプレゼンス状態表示部83−2は、他の機器により認識されたその機器のユーザの行動を表すアニメーションが表示されるアニメーション表示部83−2Aと、他の機器のカメラにより撮影されている画像が表示される画像表示部83−2Bからなる。アニメーション表示部83−1A,83−2Aに表示されるアニメーションも、それぞれの機器から送信されてくるプレゼンス状態情報により表される、それぞれの機器のユーザの行動の認識結果に応じて表示される。
【0147】
携帯電話機2のユーザは、例えば、Buddyプレゼンス状態表示部83−1の画像表示部83−1Bに表示されている画像を選択することによって、そこに表示されている画像と同じ画像をStream View81に拡大して表示させることができる。図17の例においては、携帯電話機2で撮影され、画像表示部82Bに表示されている画像と同じ画像がStream View81に拡大表示されている。
【0148】
遠隔で撮影され、ネットワークを介して送信されてきた画像を見ることのできる画面においては、通常、その撮影者がどんな行動をとっているかなどは画面を見ているユーザは確認することができないが、このように、撮影を行っている機器から送信されてきたプレゼンス状態情報に基づくその撮影者の行動を表すアニメーションと、撮影されている画像が並べて(近くに)表示されることにより、画面を見ているユーザは、撮影されている画像だけでなく、撮影者の行動をも確認することができる。
【0149】
ここで、図18のフローチャートを参照して、図17に示すような画面を表示させる携帯電話機2の処理について説明する。なお、携帯電話機1においては、図12の処理と同様の処理が行われ、プレゼンス状態情報が、撮影された画像とともに携帯電話機2に対して繰り返し送信されている。
【0150】
ステップS61において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。
【0151】
プレゼンス状態情報取得部41は、ステップS61において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS62に進む。例えば携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。また、携帯電話機1などの他の機器において撮影され、プレゼンス状態情報とともに送信されてきた画像もBuddyプレゼンス状態認識処理部42に供給される。
【0152】
ステップS62において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識する。
【0153】
ステップS63において、センサ部11を構成する各種のセンサにより測定が行われ、測定結果であるセンサデータが供給されてきたとき、携帯電話機2の行動認識部12は行動認識処理を行う。すなわち、図13を参照して説明した処理と同様の処理が携帯電話機2において行われ、認識結果(Myプレゼンス状態)がMyプレゼンス状態認識処理部34に出力される。
【0154】
ステップS64において、Myプレゼンス状態認識処理部34は、表示部15の所定の位置にMyプレゼンス状態を表すアニメーションを表示させるとともに、携帯電話機2自身により撮影された画像を表示させる。Buddyプレゼンス状態認識処理部42も同様に、表示部15の所定の位置にBuddyプレゼンス状態を表すアニメーションを表示させるとともに、他の機器において撮影された画像を表示させる。これにより、図17に示すようなプレゼンス状態表示画面が表示される。
【0155】
プレゼンス状態表示画面が表示されている状態で携帯電話機1のユーザとメッセージをやりとりすることにより、携帯電話機2のユーザは、例えば、携帯電話機1のユーザの撮影対象について、携帯電話機1のユーザの行動を見ながらメッセージによりコミュニケーションをとったりすることができる。
【0156】
以上においては、プレゼンス状態情報の送信側の機器においてユーザの行動の認識処理が行われ、認識結果が受信側の機器にプレゼンス状態情報に含められて送信されるものとしたが、センサデータがそのまま受信側の機器に送信され、その受信側の機器において、センサデータに基づく行動(送信側の機器のユーザの行動)の認識処理が行われるようにしてもよい。
【0157】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、そのソフトウェアを実行させる装置は、例えば、図19に示されるようなパーソナルコンピュータにより構成される。
【0158】
図19において、CPU(Central Processing Unit)101は、ROM(Read Only Memory)102に記憶されているプログラム、または、記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0159】
CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。
【0160】
入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部107、ハードディスクなどより構成される記憶部108、ネットワークを介しての通信処理を行う通信部109が接続されている。
【0161】
入出力インタフェース105にはまた、必要に応じてドライブ110が接続される。ドライブ110には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着され、それから読み出されたコンピュータプログラムが必要に応じて記憶部108にインストールされる。
【0162】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0163】
この記録媒体は、図19に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア111により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。
【0164】
なお、本明細書において、各ステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0165】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【図面の簡単な説明】
【0166】
【図1】本発明の一実施形態に係る通信システムの構成例を示す図である。
【図2】キャラクタの例を示す図である。
【図3】携帯電話機2に表示される画面の例を示す図である。
【図4】パーソナルコンピュータ3に表示される画面の例を示す図である。
【図5】認識結果の例を示す図である。
【図6】携帯電話機1のハードウェア構成例を示すブロック図である。
【図7】携帯電話機1のソフトウェア構成例を示すブロック図である。
【図8】特徴データの例を示す図である。
【図9】行動認識を模式的に示す図である。
【図10】センサデータ、特徴量、認識結果の例を時系列的に示す図である。
【図11】推薦テーブルの例を示す図である。
【図12】携帯電話機1のプレゼンス状態情報送信処理について説明するフローチャートである。
【図13】図12のステップS11において行われる行動認識処理の詳細について説明するフローチャートである。
【図14】携帯電話機2の通信手段選択処理について説明するフローチャートである。
【図15】予測結果の表示画面の例を示す図である。
【図16】携帯電話機2の予測処理について説明するフローチャートである。
【図17】プレゼンス状態表示画面の例を示す図である。
【図18】携帯電話機2の表示処理について説明するフローチャートである。
【図19】パーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
【0167】
1,2 携帯電話機, 3 パーソナルコンピュータ, 11 センサ部, 12 行動認識部, 13 メイン処理部, 14 通信部, 15 表示部, 16 記憶部, 31 特徴抽出処理部, 32 行動認識処理部, 33 HMM DB, 34 Myプレゼンス状態認識処理部, 35 プレゼンス状態情報送信部, 41 プレゼンス状態情報取得部, 42 Buddyプレゼンス状態認識処理部, 43 通信手段選択処理部, 44 テーブルDB, 45 行動予測処理部

【特許請求の範囲】
【請求項1】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、
前記他の情報処理装置において認識可能なそれぞれの行動と、コミュニケーションツールとの対応関係を管理する管理手段と、
前記行動情報により表される前記他の情報処理装置のユーザの行動に応じたコミュニケーションツールを、前記他の情報処理装置のユーザとのコミュニケーションに用いるツールとして前記管理手段により管理される前記対応関係に基づいて選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる選択手段と
を備えることを特徴とする情報処理装置。
【請求項2】
前記対応関係が、各時間帯の行動と、コミュニケーションツールとの対応を表すものである場合、
前記選択手段は、前記行動情報により表される前記他の情報処理装置のユーザの行動の他に、さらに、現在時刻にも基づいてコミュニケーションツールを選択する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記管理手段は、前記他の情報処理装置において認識可能なそれぞれの行動と、コミュニケーションツールとの対応関係を、テーブル状の情報により管理する
ことを特徴とする請求項1に記載の情報処理装置。
【請求項4】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、
前記行動情報により表される前記他の情報処理装置のユーザの行動に応じたコミュニケーションツールを、前記他の情報処理装置において認識可能なそれぞれの行動と、コミュニケーションツールとの対応関係に基づいて前記他の情報処理装置のユーザとのコミュニケーションに用いるツールとして選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる選択ステップを含む
ことを特徴とする情報処理方法。
【請求項5】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、
前記行動情報により表される前記他の情報処理装置のユーザの行動に応じたコミュニケーションツールを、前記他の情報処理装置において認識可能なそれぞれの行動と、コミュニケーションツールとの対応関係に基づいて前記他の情報処理装置のユーザとのコミュニケーションに用いるツールとして選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる選択ステップを含む
ことを特徴とするプログラム。
【請求項6】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測手段を備える
ことを特徴とする情報処理装置。
【請求項7】
前記予測手段は、予測された前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記他の情報処理装置のユーザの行動の履歴とともに表示させる
ことを特徴とする請求項6に記載の情報処理装置。
【請求項8】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む
ことを特徴とする情報処理方法。
【請求項9】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む
ことを特徴とするプログラム。
【請求項10】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御手段を備える
ことを特徴とする情報処理装置。
【請求項11】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む
ことを特徴とする情報処理方法。
【請求項12】
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む
ことを特徴とするプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate


【公開番号】特開2006−345269(P2006−345269A)
【公開日】平成18年12月21日(2006.12.21)
【国際特許分類】
【出願番号】特願2005−169505(P2005−169505)
【出願日】平成17年6月9日(2005.6.9)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】