説明

ロボット制御システム、ロボット、プログラム及び情報記憶媒体

【課題】ユーザの行動や状況を反映したロボット制御を実現できるロボット制御システム、ロボット、プログラム及び情報記憶媒体の提供。
【解決手段】ロボット制御システムは、ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得するユーザ情報取得部と、取得されたユーザ情報に基づいてロボットがユーザに対して提示する提示情報の決定処理を行う提示情報決定部と、提示情報をユーザに対してロボットに提示させるための制御を行うロボット制御部を含む。提示情報決定部は、取得された同じユーザ情報に対して第1、第2のロボットが異なる提示情報を提示するようにユーザに対して提示する提示情報の決定処理を行う。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ロボット制御システム、ロボット、プログラム及び情報記憶媒体に関係する。
【背景技術】
【0002】
従来より、ユーザ(人間)の音声を認識し、音声の認識結果に基づいて、ユーザとの会話を行うロボットの制御システムが知られている(例えば、特許文献1。)。
【0003】
しかしながら、これまでのロボット制御システムでは、1人のユーザに対して1台のロボットが対峙して会話することが想定されていた。このため、音声の認識処理や会話処理のために複雑なアルゴリズムが必要になってしまい、ユーザとの間のスムーズな会話を実現することが、現実的には難しかった。
【0004】
またこのようにユーザとロボットが1対1で対峙すると、ユーザがロボットとの会話に閉塞感を感じてしまい、直ぐに飽きられてしまうという問題もあった。
【0005】
また、これまでのロボット制御システムでは、ユーザがその日に行った行動や、ユーザの過去や現在の状況を反映したロボット制御は行われていなかった。従って、ロボットが、ユーザの心境や状況に反した動作を行ってしまうという問題があった。
【0006】
【特許文献1】特開2003−66986号公報
【発明の開示】
【発明が解決しようとする課題】
【0007】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、ユーザの行動や状況を反映したロボット制御を実現できるロボット制御システム、ロボット、プログラム及び情報記憶媒体を提供することにある。
【課題を解決するための手段】
【0008】
本発明は、ロボットを制御するためのロボット制御システムであって、ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得するユーザ情報取得部と、取得された前記ユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行う提示情報決定部と、前記提示情報をユーザに対してロボットに提示させるための制御を行うロボット制御部とを含み、前記提示情報決定部は、取得された同じ前記ユーザ情報に対して第1、第2のロボットが異なる提示情報を提示するように、ユーザに対して提示する提示情報の決定処理を行うロボット制御システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
【0009】
本発明によれば、行動センサ、状態センサ及び環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報が取得される。そして取得されたユーザ情報に基づいて、ロボットがユーザに提示する提示情報の決定処理が行われ、提示情報をロボットに提示させるための制御が行われる。そして本発明によれば、取得された同じユーザ情報に対して、第1、第2のロボットが異なる提示情報を提示するように、提示情報の決定処理が行われる。このようにユーザ情報に基づいて提示情報を決定すれば、ユーザは、第1、第2のロボットの提示情報に基づいて、ユーザの過去又は現在についての行動、状態又は環境等を間接的に知ることができる。また同じユーザ情報に対して第1、第2のロボットが異なる提示情報を提示すれば、第1、第2のロボットが提示する提示情報により、自身に関する気付きを、直接的ではなく間接的にユーザに与えることが可能になる。
【0010】
また本発明では、前記第1のロボットはマスタ側に設定され、前記第2のロボットはスレーブ側に設定され、マスタ側の前記第1のロボットに設けられた前記提示情報決定部が、スレーブ側の前記第2のロボットに対して、ユーザへの提示情報の提示を指示してもよい。
【0011】
このようにすれば、複雑な提示情報の解析処理を行わなくても、第1、第2のロボットによる提示情報の提示を、誤動作の少ない安定した制御の下で実現できる。
【0012】
また本発明では、提示情報の提示を指示する指示情報を、マスタ側の前記第1のロボットからスレーブ側の前記第2のロボットに対して通信する通信部を含んでもよい。
【0013】
このようにすれば、提示情報そのものではなくて、その指示情報を通信するだけで済むため、通信データ量の低減や、処理の簡素化を図れる。
【0014】
また本発明では、前記ユーザ情報取得部は、前記ユーザ情報として、ユーザの行動履歴、ユーザの状態履歴及びユーザの環境履歴の少なくとも1つであるユーザ履歴情報を取得し、前記提示情報決定部は、取得された前記ユーザ履歴情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行ってもよい。
【0015】
このようにすれば、ユーザの過去の行動履歴、状態履歴又は環境履歴が反映された提示情報を、第1、第2のロボットにより提示できるようになり、自身の過去の行動履歴、状態履歴又は環境履歴に関する気付きをユーザに間接的に与えることができる。
【0016】
また本発明では、ロボットの利用が可能な状態になったことを示す利用可能イベントの発生を判定するイベント判定部を含み、前記提示情報決定部は、前記利用可能イベント発生前の第1の期間において取得された第1のユーザ履歴情報と、前記利用可能イベント発生後の第2の期間において取得された第2のユーザ履歴情報とに基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行ってもよい。
【0017】
このようにすれば第1の期間でのユーザの行動等と第2の期間でのユーザの行動等との両方を加味した提示情報をユーザに提示できるようになる。
【0018】
また本発明では、前記提示情報決定部は、提示情報の前記決定処理における前記第1のユーザ履歴情報の重み付けと前記第2のユーザ履歴情報の重み付けとを、前記第2の期間において変化させてもよい。
【0019】
このようにすれば、第2の期間において提示される情報を徐々に変化させることが可能になる。
【0020】
また本発明では、前記提示情報決定部は、前記利用可能イベント発生時には、前記決定処理における前記第1のユーザ履歴情報の重み付けを大きくし、前記第2のユーザ履歴情報の重み付けを小さくし、その後、前記第1のユーザ履歴情報の重み付けを小さくし、前記第2のユーザ履歴情報の重み付けを大きくしてもよい。
【0021】
このようにすれば、ユーザの行動、状況等に応じたタイムリーな情報を提示できるようになる。
【0022】
また本発明では、前記ユーザ履歴情報は、ユーザのウェアラブルセンサからのセンサ情報により更新することで得られる情報であってもよい。
【0023】
このようにすれば、ウェアラブルセンサからのセンサ情報により行動履歴、状態履歴又は環境履歴を更新し、更新されたこれらの履歴が反映された提示情報を、第1、第2のロボットにより提示できるようになる。
【0024】
また本発明では、前記提示情報決定部は、ロボットによる提示情報の提示に対するユーザの反応に基づいて、ロボットがユーザに対して次に提示する提示情報の決定処理を行ってもよい。
【0025】
このようにすれば、提示情報に対するユーザの反応に基づいて、次の提示情報が変化するようになり、第1、第2のロボットによる提示情報の提示が単調になってしまう事態を防止できる。
【0026】
また本発明では、ユーザ特性情報を記憶するユーザ特性情報記憶部と、ロボットによる提示情報の提示に対するユーザの反応に基づいて、前記ユーザ特性情報を更新するユーザ特性情報更新部を含んでもよい。
【0027】
このようにすれば、提示情報に対するユーザの反応を、ユーザ特性情報に反映させて更新することが可能になる。
【0028】
また本発明では、ロボットのセンシング面における接触状態を判定する接触状態判定部を含み、前記提示情報決定部は、ロボットによる提示情報の提示に対するユーザの反応として、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを、前記接触状態判定部での判定結果に基づき判断して、ユーザに対して次に提示する提示情報の決定処理を行ってもよい。
【0029】
このようにすれば、ロボットを撫でる動作や叩く動作などのユーザの反応を、簡素な判定処理で判断できるようになる。
【0030】
また本発明では、前記接触状態判定部は、前記センシング面よりも内側に設けられたマイクからの出力信号に対して演算処理を行うことで得られた出力データに基づいて、前記センシング面における接触状態を判定してもよい。
【0031】
このようにすれば、マイクを利用するだけで、ロボットを撫でる動作や叩く動作などのユーザの反応を検出できるようになる。
【0032】
また本発明では、前記出力データは、信号強度であり、前記接触状態判定部は、前記信号強度と、所定のしきい値との比較処理を行うことで、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定してもよい。
【0033】
このようにすれば、信号強度としきい値を比較するという簡素な処理で、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定できる。
【0034】
また本発明では、複数の会話フレーズにより構成されるシナリオデータを、前記提示情報として記憶するシナリオデータ記憶部を含み、前記提示情報決定部は、前記シナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定し、前記ロボット制御部は、決定された会話フレーズをロボットに発話させるための制御を行ってもよい。
【0035】
このようにすれば、第1、第2のロボットの会話フレーズの発話を、シナリオデータを利用して簡素な制御処理で実現できる。
【0036】
また本発明では、前記シナリオデータ記憶部は、複数の会話フレーズが分岐構造でリンクされたシナリオデータを記憶し、前記提示情報決定部は、ロボットが発話した会話フレーズに対するユーザの反応に基づいて、次にロボットに発話させる会話フレーズを決定してもよい。
【0037】
このようにすれば、ロボットが発話した会話フレーズに対するユーザの反応に基づいて、次の会話フレーズが変化するようになり、第1、第2のロボットによる会話が単調になってしまう事態を防止できる。
【0038】
また本発明では、前記提示情報決定部は、第1のシナリオデータに基づきロボットが発話した会話フレーズに対するユーザの反応が所与の反応であった場合には、前記第1のシナリオデータとは異なる第2のシナリオデータを選択し、次にロボットに発話させる会話フレーズを前記第2のシナリオデータに基づき決定してもよい。
【0039】
このようにすれば、ユーザの反応に応じて、シナリオが切り替わるようになり、ユーザの好み等に則したシナリオデータに基づく第1、第2のロボットの会話を実現できる。
【0040】
また本発明では、ロボットが発話した会話フレーズに対するユーザの反応に基づいて、前記第1、第2のロボットのいずれに対して次の会話フレーズの発話権を付与するかを制御する発話権制御部を含んでもよい。
【0041】
このようにすれば、ユーザの反応に応じて発話権の付与が切り替わるようになるため、会話が単調になってしまう事態を防止できる。
【0042】
また本発明では、前記発話権制御部は、前記第1、第2のロボットのいずれか一方のロボットが発話した会話フレーズに対してユーザが肯定的な反応をしたか否定的な反応をしたかに応じて、次の会話フレーズの発話権を付与するロボットを決定してもよい。
【0043】
このようにすれば、例えばユーザが肯定的な反応をしたロボットに対して、優先的に発話権を付与するなどの制御が可能になる。
【0044】
また本発明では、複数のシナリオデータの中から前記ユーザ情報に基づき選択されたシナリオデータを取得するシナリオデータ取得部を含んでもよい。
【0045】
このようにすれば、ユーザ情報に応じたシナリオデータの取得が可能になる。
【0046】
また本発明では、前記シナリオデータ取得部は、前記ユーザ情報に基づき選択されたシナリオデータをネットワークを介してダウンロードし、前記提示情報決定部は、ネットワークを介してダウンロードされたシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定してもよい。
【0047】
このようにすれば、全てのシナリオデータをシナリオデータ記憶部に記憶しておかなくても済むため、記憶容量の節約を図れる。
【0048】
また本発明では、前記シナリオデータ取得部は、現在の日時情報、ユーザの現在の場所情報、ユーザの現在の行動情報及びユーザの現在の状況情報の少なくとも1つに基づき選択されたシナリオデータを取得し、前記提示情報決定部は、現在の日時情報、ユーザの現在の場所情報、ユーザの現在の行動情報及びユーザの現在の状況情報の少なくとも1つに基づき選択されたシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定してもよい。
【0049】
このようにすれば、リアルタイムなユーザ情報に応じた第1、第2のロボット間の会話を実現できる。
【0050】
また本発明では、前記シナリオデータ取得部は、ユーザの行動履歴情報及びユーザの状態履歴情報の少なくとも1つに基づき選択されたシナリオデータを取得し、前記提示情報決定部は、ユーザの行動履歴情報及びユーザの状態履歴情報の少なくとも1つに基づき選択されたシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定してもよい。
【0051】
このようにすれば、過去におけるユーザの行動履歴情報又は状態履歴情報に応じた第1、第2のロボット間の会話を実現できる。
【0052】
また本発明では、ユーザ特性情報を記憶するユーザ特性情報記憶部と、ロボットが発話した会話フレーズに対するユーザの反応に基づいて、前記ユーザ特性情報を更新するユーザ特性情報更新部を含み、前記シナリオデータ取得部は、前記ユーザ特性情報に基づき選択されたシナリオデータを取得してもよい。
【0053】
このようにすれば、ロボットの会話フレーズに対するユーザの反応を、ユーザ特性情報に反映させて更新することが可能になる。
【0054】
また本発明は、上記のいずれかに記載のロボット制御システムと、前記ロボット制御システムの制御対象であるロボット動作機構とを含むロボットに関係する。
【発明を実施するための最良の形態】
【0055】
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
【0056】
1.ユーザ情報
【0057】
いわゆるユビキタスサービスにおいて、現在目指している1つ方向として、何時でもどこでも必要な情報をユーザに提供するという利便性提供型のサービスが提案されている。これは、外部からユーザに対して一方的に情報を提供するサービスである。
【0058】
しかしながら、人が生き生きと充実した生活を送るためには、このように外部からユーザに一方的に情報を提供する利便性提供型サービスだけでは不十分であり、ユーザの内面に働きかけることによりユーザに気付き(インスパイヤ)を与え、その結果、自己の成長を促すインスパイヤ型ユビキタスサービスが望まれる。
【0059】
本実施形態では、このようなインスパイヤ型ユビキタスサービスを、ロボットがユーザに提示する情報を利用して実現するために、ユーザの行動、状態、環境を計測する行動センサ、状態センサ、環境センサからのセンサ情報によりユーザ情報を取得する。そして取得されたユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報(例えば会話)を決定し、決定された提示情報をロボットに提供させるロボット制御を行う。そこで、まず、このユーザ情報(ユーザの行動、状態及び環境の少なくとも1つについての情報)の取得手法について説明する。
【0060】
図1においてユーザ(使用者)は、携帯型電子機器100(モバイルゲートウェイ)を所持している。またモバイル制御対象機器としてウェアラブルディスプレイ140(モバイルディスプレイ)を頭部の一方の眼の近傍に装着している。更にウェアラブルセンサ(モバイルセンサ)として種々のセンサを身体に身につけている。具体的には、屋内外センサ510、周囲温度センサ511、周辺湿度センサ512、周辺光度センサ513、腕装着型の運動計測センサ520、脈拍(心拍数)センサ521、体温センサ522、抹消皮膚温度センサ523、発汗センサ524、足圧力センサ530、発話・咀嚼センサ540、携帯型電子機器100に設けられるGPS(Global Position System)センサ550、ウェアラブルディスプレイ140に設けられる顔色センサ560や瞳孔の大きさセンサ561などを装着している。これらの携帯型電子機器100、ウェアラブルディスプレイ140などのモバイル制御対象機器、ウェアラブルセンサによりモバイルサブシステムが構成される。
【0061】
図1では、このようなユーザのモバイルサブシステムのセンサからのセンサ情報により更新されるユーザ情報(狭義にはユーザ履歴情報)を取得し、取得されたユーザ情報に基づいてロボット1の制御を行う。
【0062】
携帯型電子機器100(モバイルゲートウェイ)は、PDA(Personal Digital Assistant)、ノート型PCなどの携帯情報端末であり、例えばプロセッサ(CPU)、メモリ、操作パネル、通信装置、或いはディスプレイ(サブディスプレイ)などを備える。この携帯型電子機器100は、例えばセンサからのセンサ情報を収集する機能、収集したセンサ情報に基づいて演算処理を行う機能、演算結果に基づいて制御対象機器(ウェアラブルディスプレイ等)の制御(表示制御等)を行ったり外部のデータベースから情報を取り込む機能、外部と通信を行う機能などを有することができる。なお携帯型電子機器100は、携帯電話、腕時計、或いはポータブルオーディオなどとして兼用される機器であってもよい。
【0063】
ウェアラブルディスプレイ140は、ユーザの一方の眼の近傍に装着されると共にディスプレイ部の大きさが瞳孔の大きさよりも小さくなるように設定され、いわゆるシースルービューアの情報表示部として機能する。なおユーザへの情報提示は、ヘッドフォン、バイブレータなどを用いて行ってもよい。またモバイル制御対象機器としては、ウェアラブルディスプレイ140以外にも、例えば腕時計、携帯電話、或いはポータブルオーディオなどの種々の機器を想定できる。
【0064】
屋内外センサ510は、ユーザが屋内にいるのか屋外にいるのかを検知するセンサであり、例えば超音波を照射し、天井等により超音波が反射して戻ってくるまでの時間を計測する。但し屋内外センサ510は、超音波方式に限らず、アクティブ光方式、パッシブ紫外線方式、パッシブ赤外線方式、パッシブ騒音方式のセンサであってもよい。
【0065】
周囲温度センサ511は、例えばサーミスタ、放射温度計、熱電対などを用いて外界温度を計測する。周辺湿度センサ512は、例えば湿度によって電気抵抗が変化することを利用して周囲の湿度を計測する。周辺光度センサ513は、例えば光電素子を用いて周囲の光度を計測する。
【0066】
腕装着型の運動計測センサ520は、加速度センサや角加速度センサでユーザの腕の動きを計測する。この運動計測センサ520と足圧力センサ530を用いることでユーザの日常動作、歩行状態を更に正確に計測できる。脈拍(心拍数)センサ521は、手首或いは指又は耳に装着し、例えば拍動に伴う血流の変化を赤外光の透過率や反射率の変化で計測する。体温センサ522、抹消皮膚温度センサ523は、サーミスタ、放射温度計、熱電対などを用いてユーザの体温、抹消皮膚温度を計測する。発汗センサ524は、例えば皮膚の表面抵抗の変化により皮膚の発汗を計測する。足圧力センサ530は、靴にかかる足裏の圧力分布を検出して、ユーザの立ち状態、座り状態、歩行状態などを計測、判定する。
【0067】
発話・咀嚼センサ540は、ユーザが発話中(会話中)であるか、咀嚼中(食事中)であるかの可能性を計測するためのイヤホン型のセンサであり、その筺体内に骨伝導マイク、外界音マイクが内蔵されている。骨伝導マイクは、発話・咀嚼時に体内から生じ、体内を伝搬する振動である体内音を検出する。外界音マイクは、発話に応じて体外に伝導する振動である音声や、環境の雑音を含む外界音を検出する。そして骨伝導マイク、外界音マイクにより捕らえられた音の単位時間におけるパワーの比較処理等を行うことで、発話可能性や咀嚼可能性を計測する。
【0068】
GPSセンサ550はユーザの位置を検知するセンサである。なおGPSセンサ550の代わりに携帯電話の位置情報サービスや周辺にある無線LANの位置情報を利用してもよい。顔色センサ560は、例えば顔面近くに光センサを配置し、複数の光学的バンドパスフィルタを通過した後の光度を比較して顔色を計測する。瞳孔の大きさセンサ561は、例えば瞳孔の近くにカメラを配置し、カメラの信号を解析して瞳孔の大きさを計測する。
【0069】
なお、図1では携帯型電子機器100、ウェアラブルセンサ等により構成されるモバイルサブシステムにより、ユーザ情報を取得しているが、複数のサブシステムにより構成される統合システムにより、ユーザ情報を更新し、更新されたユーザ情報に基づいてロボット1の制御を行ってもよい。ここで統合システムは、例えばモバイルサブシステム、ホームサブシステム、車内サブシステム、会社内サブシステム、或いは店内サブシステムなどのサブシステムを含むことができる。
【0070】
この統合システムでは、ユーザが屋外等にいる場合(モバイル環境の場合)には、モバイルサブシステムのウェアラブルセンサ(モバイルセンサ)からのセンサ情報(センサ2次情報を含む)が取得(収集)され、取得されたセンサ情報に基づいてユーザ情報(ユーザ履歴情報)が更新される。またユーザ情報等に基づいてモバイル制御対象機器の制御が行われる。
【0071】
一方、ユーザが家にいる場合(ホーム環境の場合)には、ホームサブシステムのホームセンサからのセンサ情報が取得され、取得されたセンサ情報に基づいてユーザ情報が更新される。即ちモバイル環境で更新されたユーザ情報が、ホーム環境に移行した場合にもシームレスに更新される。またユーザ情報等に基づいてホーム制御対象機器(テレビ、オーディオ機器、エアコン等)の制御が行われる。なおホームセンサは、例えば、ホーム内の気温、湿度、光度、騒音、ユーザの会話、食事などを計測する環境センサや、ロボットに内蔵されるロボット搭載センサや、ホームの各室内、ドアなどに設置される人検知センサや、トイレに設置される尿検査用センサなどである。
【0072】
また、ユーザが車内にいる場合(車内環境の場合)には、車内サブシステムの車内センサからのセンサ情報が取得され、取得されたセンサ情報に基づいてユーザ情報が更新される。即ちモバイル環境やホーム環境で更新されたユーザ情報が、車内環境に移行した場合にもシームレスに更新される。またユーザ情報等に基づいて車内制御対象機器(ナビゲーション装置、カーAV機器、エアコン等)の制御が行われる。なお車内センサは、車の速度、移動距離などを計測する走行状態センサや、ユーザの運転操作、機器操作を計測する操作状態センサや、車内の気温、湿度、光度、ユーザの会話などを計測する環境センサなどである。
【0073】
2.ロボット
【0074】
次に図1のロボット1(ロボット2)の構成について説明する。このロボット1は犬を模したペット型のロボットになっており、胴体モジュール600、頭部モジュール610、脚部モジュール620、622、624、626、尻尾モジュール630などの複数のパーツモジュール(ロボット動作機構)により構成される。
【0075】
頭部モジュール610には、ユーザの撫でる動作や叩く動作を検知するための接触センサや、ユーザの発話を検知するための発話センサ(マイクロホン)や、画像認識のための撮像センサ(カメラ)や、音声や鳴き声を発声するための音出力部(スピーカ)が設けられる。
【0076】
胴体モジュール600と頭部モジュール610との間や、胴体モジュール600と尻尾モジュール630との間や、脚部モジュール620の関節部分等には、関節機構が設けられている。そしてこれらの関節機構は、モータ等のアクチュエータを有しており、これによりロボット1の関節運動や自立走行が実現される。
【0077】
またロボット1の例えば胴体モジュール600には1又は複数の回路基板が設けられている。そしてこの回路基板には、各種処理を行うCPU(プロセッサ)や、各種データ、プログラムを記憶するROM、RAMなどのメモリや、ロボット制御のための制御ICや、音声信号を生成する音声生成モジュールや、外部との無線通信のための無線モジュールなどが実装される。ロボット1に搭載される各種センサからの信号は、この回路基板に集約され、CPU等により処理される。また音声生成モジュールにより生成された音声信号は、この回路基板から音出力部(スピーカ)に対して出力される。また回路基板の制御ICからの制御信号は、関節機構に設けられたモータ等のアクチュエータに出力され、これによりロボット1の関節運動や自立走行が制御される。
【0078】
3.ロボット制御システム
【0079】
図2に本実施形態のシステム構成例を示す。このシステムは、ユーザが所持する携帯型電子機器100や、本実施形態のロボット制御システムにより制御されるロボット1、2(第1、第2のロボット)を有する。そして本実施形態のロボット制御システムは、例えばロボット1、2が有する処理部10、60により実現される。
【0080】
携帯型電子機器100は、処理部110、記憶部120、制御部130、通信部138を含む。そして携帯型電子機器100は、ウェアラブルセンサ150からのセンサ情報を取得する。具体的には、ウェアラブルセンサ150は、ユーザの行動(歩行、会話、食事、手足の動き、感情表現又は睡眠等)を計測する行動センサ、ユーザの状態(疲労、緊張、空腹、精神状態、身体状態又はユーザに発生したイベント等)を計測する状態センサ、及びユーザの環境(場所、明るさ、気温又は湿度等)を計測する環境センサの少なくとも1つのセンサを含んでおり、携帯型電子機器100は、これらのセンサからのセンサ情報を取得する。
【0081】
なおセンサは、センサデバイス自体であってもよいし、センサデバイスの他に、制御部や通信部等を含むセンサ機器であってもよい。またセンサ情報は、センサから直接得られるセンサ1次情報であってもよいし、センサ1次情報を加工処理(情報処理)することで得られるセンサ2次情報であってもよい。
【0082】
処理部110は、図示しない操作部からの操作情報や、ウェアラブルセンサ150から取得されたセンサ情報などに基づいて、携帯型電子機器100の動作等に必要な種々の処理を行う。この処理部110の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、図示しない情報記憶媒体(光ディスク、ICカード、HDD等)に記憶されたプログラムなどにより実現できる。
【0083】
処理部110は、演算部112、ユーザ情報更新部114を含む。ここで演算部112は、ウェアラブルセンサ150から取得されたセンサ情報のフィルタリング処理(選択処理)や解析処理のための種々の演算処理を行う。具体的には演算部112は、センサ情報の乗算処理や加算処理を行う。例えば下式(1)に示すように、複数のセンサからの複数のセンサ情報のデジタル化された計測値Xjと、各係数が係数記憶部(図示せず)に記憶され、2次元行列(マトリックス)で表される係数Aijとの積和演算を行う。そうして下式(2)に示すように、積和演算の結果を多次元座標としてn次元のベクトルYiとして演算する。なお、iはn次元空間のi座標であり、jは各センサに割り当てられる番号である。
【数1】

【数2】

【0084】
上式(1)(2)のような演算処理を行うことで、取得されたセンサ情報の中から不要なセンサ情報を除去するフィルタリング処理や、ユーザの行動、状態、環境(TPO情報)をセンサ情報に基づき同定するための解析処理などを実現できる。例えば脈拍(心拍数)、発汗量、体温の計測値Xに対して乗算される係数Aを、その他のセンサ情報の計測値に対する係数よりも大きな値に設定すれば、上式(1)(2)で演算された数値Yは、ユーザの状態である「興奮度」を表すものになる。また発話量の計測値Xに対して乗算される係数と、足圧力の計測値Xに対して乗算される係数を適当な値に設定することで、ユーザの行動が、着座して会話しているのか、歩きながら会話しているのか、静かに思考しているのか、睡眠状態なのか等を同定できる。
【0085】
ユーザ情報更新部114はユーザ情報(ユーザ履歴情報)の更新処理を行う。具体的には、ウェアラブルセンサ150から取得されたセンサ情報に基づいてユーザ情報を更新する。そして更新されたユーザ情報(ユーザ履歴情報)を記憶部120のユーザ情報記憶部122(ユーザ履歴情報記憶部)に記憶する。この場合に、ユーザ情報記憶部122のメモリ容量を節約するために、新しいユーザ情報を記憶する場合には、古いユーザ情報を削除し、削除により空いた記憶領域に対して新しいユーザ情報を記憶してもよい。或いは、各ユーザ情報に優先度(重み付け係数)を付与し、新しいユーザ情報を記憶する場合には、優先度の低いユーザ情報を削除してもよい。また既に記憶されているユーザ情報と新しいユーザ情報を演算することでユーザ情報を更新(上書き)してもよい。
【0086】
記憶部120は、処理部110、通信部138などのワーク領域となるもので、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。記憶部120が含むユーザ情報記憶部122は、ユーザの行動、状態又は環境等の情報(履歴情報)であって、取得されたセンサ情報に基づき更新されるユーザ情報(ユーザ履歴情報)を記憶する。
【0087】
制御部130はウェアラブルディスプレイ140の表示制御等を行う。通信部138は、無線や有線の通信により、ロボット1の通信部40やロボット2の通信部90との間で、ユーザ情報などの情報の転送処理を行う。無線の通信としては、ブルートゥース(Bluetoothは登録商標)や赤外線のような近距離無線や無線LANなどが考えられる。有線の通信としてはUSBやIEEE1394などを利用したものが考えられる。
【0088】
ロボット1は、処理部10、記憶部20、ロボット制御部30、ロボット動作機構32、ロボット搭載センサ34、通信部40を含む。なおこれらの一部の構成要素を省略した構成にしてもよい。
【0089】
処理部10は、ロボット搭載センサ34からセンサ情報や、取得されたユーザ情報などに基づいて、ロボット1の動作等に必要な種々の処理を行う。この処理部10の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、図示しない情報記憶媒体(光ディスク、ICカード、HDD等)に記憶されたプログラムなどにより実現できる。即ち、この情報記憶媒体には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶され、処理部10は、この情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。
【0090】
記憶部20は、処理部10、通信部40などのワーク領域となるもので、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。この記憶部20はユーザ情報記憶部22と提示情報記憶部26を含む。またユーザ情報記憶部22はユーザ履歴情報記憶部23とユーザ特性情報記憶部24を含む。
【0091】
ロボット制御部30は、制御対象であるロボット動作機構32(アクチュエータ、音出力部、LED等)の制御を行うものであり、その機能は、ロボット制御用のASICや各種プロセッサなどのハードウェアや、プログラムなどにより実現できる。
【0092】
具体的にはロボット制御部30は、提示情報をユーザに対してロボットに提示させるための制御を行う。提示情報がロボットの会話(シナリオデータ)である場合には、会話フレーズをロボットに発話させるための制御を行う。例えば会話フレーズを表すデジタルのテキストデータを、公知のTTS(Text-To-Speech)処理によりアナログの音声信号に変換し、ロボット動作機構32の音出力部(スピーカ)を介して出力する。また提示情報が、ロボットの感情状態を表す情報である場合には、その感情を表すように、ロボット動作機構32の各関節機構のアクチュエータを制御したり、LEDを点灯させるなどの制御を行う。
【0093】
ロボット搭載センサ34は、例えば接触センサ、発話センサ(マイクロホン)、或いは撮像センサ(カメラ)などの各種センサである。ロボット1は、このロボット搭載センサ34からのセンサ情報に基づいて、ユーザに提示した提示情報に対するユーザの反応をモニタできる。
【0094】
通信部40は、無線や有線の通信により、携帯型電子機器100の通信部138やロボット2の通信部90との間で、ユーザ情報などの情報の転送処理を行う。
【0095】
処理部10は、ユーザ情報取得部12、演算部13、提示情報決定部14、ユーザ特性情報更新部15を含む。なおこれらの構成要素の一部を省略する構成としてもよい。
【0096】
ユーザ情報取得部12は、ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得する。
【0097】
具体的には、ウェアラブルセンサ150からのセンサ情報によりユーザ情報が更新されたユーザが、家に帰宅してロボット1、2に近づいたり、携帯型電子機器100をクレードルに接続すると、ロボット1、2が起動する。そして携帯型電子機器100において更新されたユーザ情報(ユーザ履歴情報)が、携帯型電子機器100のユーザ情報記憶部122から、通信部138、40(通信部90)を介して、ロボット1(ロボット2)のユーザ情報記憶部22(ユーザ情報記憶部72)に転送される。そしてユーザ情報取得部12(ユーザ情報取得部62)は、このようにして転送されたユーザ情報をユーザ情報記憶部22から読み出すことで、ユーザ情報を取得する。なおユーザ情報取得部12が、ユーザ情報記憶部22を介さずに直接に携帯型電子機器100からのユーザ情報を取得してもよい。
【0098】
演算部13は、取得されたユーザ情報に対する演算処理を行う。具体的には、必要な場合には、ユーザ情報に対する解析処理やフィルタリング処理を行う。例えばユーザ情報が1次センサ情報等である場合には、上式(1)(2)で説明した演算処理を行って、取得されたセンサ情報の中から不要なセンサ情報を除去するフィルタリング処理や、ユーザの行動、状態、環境(TPO情報)をセンサ情報に基づき同定するための解析処理などを行う。
【0099】
提示情報決定部14は、取得されたユーザ情報(演算処理後のユーザ情報)に基づいて、ロボットがユーザに対して提示(提供)する提示情報(会話、感情表現、行動表現)の決定処理を行う。具体的には、取得された同じユーザ情報に対してロボット1、2が異なる提示情報(異なる会話フレーズ、異なる感情表現、異なる行動表現)を提示するように、ユーザに対して提示する提示情報の決定処理を行う。例えば、取得されたユーザ情報に対して、ロボット1が、第1の提示情報を提示し、ロボット2が、第1の提示情報とは異なる第2の提示情報を提示するように、提示情報の決定処理を行う。
【0100】
なおユーザ情報取得部12が、ユーザ情報として、ユーザの行動履歴、ユーザの状態履歴及びユーザの環境履歴の少なくとも1つであるユーザ履歴情報を取得した場合には、提示情報決定部14は、取得されたユーザ履歴情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行う。この場合のユーザ履歴情報は、ユーザのウェアラブルセンサ150からのセンサ情報により携帯型電子機器100等が更新処理を行うことで得られる情報であり、携帯型電子機器100のユーザ情報記憶部122からロボット1(ロボット2)のユーザ履歴情報記憶部23(ユーザ履歴情報記憶部73)に転送される。またユーザの行動履歴、状態履歴、環境履歴としては、ユーザの行動(歩行、発話、食事等)、状態(疲労、緊張、空腹、精神状態、肉体状態等)、環境(場所、明るさ、気温等)を日時等に関連づけて記憶した情報(ログ情報)が考えられる。
【0101】
また提示情報決定部14は、ロボットによる提示情報の提示に対するユーザの反応に基づいて、ロボットがユーザに対して次に提示する提示情報の決定処理を行う。具体的には、例えばロボット1がユーザに対して提示情報を提示し、それに対してユーザが反応すると、その反応はロボット搭載センサ34により検知される。そして提示情報決定部14は、ロボット搭載センサ34からのセンサ情報に基づいて、ユーザの反応を判断(推定)し、その反応に基づいて、次に提示する提示情報を決定する。
【0102】
ユーザ特性情報更新部15はユーザ特性情報の更新処理を行う。そして更新されたユーザ特性情報は、記憶部20のユーザ特性情報記憶部26(ユーザ特性データベース)に記憶される。具体的にはユーザ特性情報更新部15は、ロボットによる提示情報の提示に対するユーザの反応に基づいて、ユーザ特性情報(反応履歴情報)を更新する。
【0103】
ここで、ユーザ特性情報は、ユーザの趣味や嗜好を表す情報であり、ユーザの感性モデルデータである。例えば本実施形態ではユーザの趣味(例えば好きなスポーツ、チーム)や嗜好(例えば好きな色、音楽)などを調べるための提示情報をロボットに提示させる。そしてその提示情報に対するユーザの反応に基づいて、ユーザの趣味や嗜好の傾向を学習して、ユーザの感性モデルのデータベースであるユーザ特性情報を構築する。
【0104】
なお、ロボット2の構成はロボット1と同様の構成であるため、ここでは説明を省略する。
【0105】
4.動作
【0106】
次に本実施形態の動作について説明する。一般的に、ユーザとロボットとの会話(対話)は、1人のユーザと1台のロボットというように、1対1の対峙関係で実現される。
【0107】
これに対して本実施形態では図3(A)に示すように、1人のユーザに対して2台のロボット1、2(広義には複数台のロボット)が用意され、1対2(広義には1対N)の対峙関係で会話が実現される。そしてユーザは、ロボット1、2と直接会話するのではなく、ロボット1、2の間で行われる会話を傍観しならが聞くという形態をとる。
【0108】
この場合に、ロボット1、2の間での会話によりユーザに提供される情報は、ウェアラブルセンサ150などが有する行動センサ、状態センサ、環境センサからのセンサ情報により取得されたユーザ情報に基づくものになっている。従って、ユーザは、ロボット1、2の間で行われる会話を通して、ユーザの過去又は現在の行動や、ユーザの過去又は現在の状態や、ユーザを取り巻く過去又は現在の環境について間接的に知ることができる。
【0109】
このようにすれば、外部からユーザに一方的に情報を提供する利便性提供型サービスではなく、ロボット1、2の間で行われる会話を通して、ユーザの内面に働きかけ、ユーザの行動、状態、環境についての気付き(インスパイヤ)をユーザに与えることで、自己の成長を促すというインスパイヤ型ユビキタスサービスの実現が可能になる。
【0110】
例えば図3(A)において、家に帰宅したユーザは、携帯型電子機器100をクレードル101に接続して、充電等を行っている。図3(A)では、このようなクレードル101への携帯型電子機器100の接続により、ロボット1、2の利用可能イベントが発生したと判定し、ロボット1、2を起動し、その利用を可能にする。なおクレードル101への接続ではなく、ユーザとロボット1、2との接近を判定して、ロボット1、2を起動してもよい。例えば携帯型電子機器100とロボット1、2の間の情報転送が無線により行われる場合には、その無線強度を検出することでロボット1、2の利用可能イベントの発生を判定できる。
【0111】
このような利用可能イベントが発生すると、ロボット1、2が起動し、その利用が可能になる。この場合に携帯型電子機器100のユーザ情報記憶部122には、モバイル環境において更新されたユーザ情報が記憶されている。図3(A)では、ロボット1、2の利用可能イベントが発生すると、ユーザ情報記憶部122に記憶されるユーザ情報を、ロボット1、2のユーザ情報記憶部22、72に転送する。このようにすることで、モバイル環境において更新されたユーザ情報に基づいて、ロボット1、2を制御できるようになる。
【0112】
例えば図3(A)では、ユーザの帰宅時間がいつもよりも遅かったことが、ユーザ情報に基づき判断される。具体的には、ウェアラブルセンサ150のGPSセンサからの場所情報やタイマからの時間情報に基づいて、ユーザの毎日の帰宅時間が計測される。そして過去におけるユーザの帰宅時間の平均と、今回の帰宅時間とが比較され、帰宅時間が遅いと判断された場合には、ユーザの帰宅時間に関する提示情報がロボット1、2により提示される。具体的には、ユーザの帰宅時間に関するシナリオデータが選択され、選択されたシナリオデータにしたがってロボット1、2が会話を開始する。例えば図3(A)では、ロボット1が「今日はご主人様遅かったね!」という会話フレーズを発話し、それに対してロボット2が「最近、遅い日が多いんだよね〜」という会話フレーズを発話する。
【0113】
この場合に、「帰宅時間がいつもより遅い」という同じユーザ情報に対して、ロボット1、2が異なる提示情報を提示するように、ユーザに対してロボット1、2が提示する提示情報の決定処理が行われる。具体的には図3(B)では、ユーザの遅い帰宅時間について、ロボット1はユーザにとって肯定的(ポジティブ)な「きっと、仕事が忙しいんだね!」という会話フレーズを発話する。これに対して、ロボット2はユーザにとって否定的(ネガティブ)な「どうせ、毎日飲み歩いているんじゃない?」という会話フレーズを発話する。
【0114】
例えばロボットが、ユーザにとって常に肯定的な会話をしたり、常に否定的な会話をすると、ユーザはロボットとの会話に閉塞感や行き詰まり感を感じるおそれがある。
【0115】
これに対して図3(B)では、ロボット1、2が、互いに異なる対照的な会話フレーズを発話する。しかも、ユーザに対して直接会話するのではなく、ロボット1、2同士で会話を行い、ユーザがそれを見守るという形態をとる。従って、いわゆる利便性提供型サービスではなく、ロボット1、2の間で行われる会話を通してユーザに気付きを与えるというインスパイヤ型ユビキタスサービスの提供が可能になる。
【0116】
また図3(B)では、ユーザは実際には仕事で忙しくて帰宅が遅くなったため、「きっと、仕事が忙しいんだね!」と発話したロボット1の方を撫でている。そして、ロボット1の接触センサ410により(或いは後述する接触状態判定手法や発話センサ411により)、ロボット1、2による会話フレーズの発話(提示情報の提示)に対するユーザの反応である「撫でる動作」が検知される。
【0117】
すると、このような「撫でる動作」というユーザの反応に基づいて、ロボット1、2がユーザに対して次に会話する発話フレーズ(次に提示する提示情報)の決定処理を行う。具体的には図3(C)に示すように、撫でられた側のロボット1は、自身の意見が肯定されたため、「そ〜れ言った通りじゃない!」と発話し、ロボット2は対照的に「そうか〜。てっきりバーの女の子に夢中なのかと思った」と発話する。そして、その後は、ユーザの忙しい仕事の話題に関するシナリオにより、ロボット1、2の間の会話が続けられる。
【0118】
なお、図3(B)に示すようにユーザが撫でる動作を行うと、その撫でる動作がユーザの反応履歴情報として蓄積され、ユーザ特性情報記憶部24のデータベースの更新処理が行われる。例えば図3(B)でのユーザの反応により、ユーザは、毎日飲み歩くことよりも仕事の方を優先するタイプであると判断される。そこで、例えばユーザ特性情報のうちの仕事指向に関するパラメータを上昇させる処理を行い、ユーザの特性情報(感性データベース)の更新処理を行う。そして、次にユーザに対して提供するシナリオデータを選ぶ際には、このユーザ特性情報も考慮し、例えば仕事に関連するシナリオデータを優先して選択するようにする。
【0119】
例えばユーザの趣味、嗜好を、ウェアラブルセンサ150からのセンサ情報のみに基づいて推定することは難しい。例えばユーザが、趣味よりも仕事の方を優先するのか、或いはユーザはどのような色が好きなのかは、行動センサ等からのセンサ情報だけでは判断することが難しい。従って、このようなユーザの趣味、嗜好については、例えばユーザに対してアンケートにより問い合わせることなどで判断せざるを得なかった。
【0120】
この点、図3(B)では、ロボット1、2が対照的な会話フレーズを発話し、それに対するユーザの反応に基づいて、ユーザ特性情報を更新する。従って、例えばユーザが、仕事指向なのか趣味指向なのか、或いはどのような色が好きなのかなどを、簡単に判断できユーザ特性情報に反映させることが可能になる。
【0121】
図4に本実施形態の動作を説明するためのフローチャートを示す。
【0122】
まずユーザ情報取得部12が、行動センサ等からのセンサ情報により得られるユーザ情報を取得する(ステップS1)。具体的には携帯型電子機器100からのユーザ情報がユーザ情報記憶部22に転送され、この転送されたユーザ情報を読み出す。
【0123】
次に、必要であれば、ユーザ情報に基づいてユーザのTPOを推定する(ステップS2)。ここで、TPO(Time Place Occasion)の情報は、時間情報(年、月、週、日、時間等)、ユーザの場所情報(居場所、位置、距離等)及びユーザの状況情報(精神・肉体状況、ユーザに対して発生したイベント等)の少なくとも1つの情報である。例えばGPSセンサにより得られる緯度・経度情報の意味合いは、ユーザに応じて異なり、その緯度・経度の場所がユーザの自宅であれば、ユーザの居場所は自宅であると推定される。
【0124】
次に、ユーザ情報、TPOに基づいて、ロボット1、2がユーザに提示する提示情報を決定し、ロボット1、2に異なる提示情報を提示させるロボット制御を行う(ステップS3、S4)。具体的には、図3(A)〜図3(C)で説明したように、ロボット1、2が発話する会話フレーズを決定し、その会話フレーズを発話させるロボット制御を行う。
【0125】
次に、ステップS4での提示情報の提示に対するユーザの反応をモニタする(ステップS5)。例えばユーザがロボット1、2を撫でる動作をしたのか、叩く動作をしたのか、或いは何もしなかったのかを判断する。そして、モニタされたユーザの反応に基づいて、次にロボット1、2が提示する提示情報を決定する(ステップS6)。即ち次にロボット1、2が発話する会話フレーズを決定する。そしてユーザの反応に基づいて、ユーザ特性情報(感性データベース)を更新する(ステップS7)。
【0126】
5.システム構成例
【0127】
次に本実施形態の種々のシステム構成例について具体的に説明する。図5は本実施形態の第2のシステム構成例である。図5ではロボット1がマスタ側に設定され、ロボット2がスレーブ側に設定される。そして本実施形態のロボット制御システムは、主にマスタ側のロボット1が有する処理部10により実現される。
【0128】
具体的にはマスタ側のロボット1に設けられたユーザ情報取得部12がユーザ情報を取得し、マスタ側の提示情報決定部14が、取得されたユーザ情報に基づいて、ロボット1、2がユーザに対して提示する提示情報の決定処理を行う。例えばマスタ側、スレーブ側のロボット1、2が、各々、第1、第2の提示情報を提示することが決定された場合には、マスタ側のロボット制御部30は、決定された第1の提示情報をロボット1に提示させるための制御を行う。このようにしてマスタ側のロボット1が制御される。またマスタ側の提示情報決定部14は、スレーブ側のロボット2に対して、ユーザへの提示情報の提示を指示する。例えばマスタ側、スレーブ側が、各々、第1、第2の提示情報を提示することが決定された場合には、スレーブ側のロボット2に対して、第2の提示情報を提示することを指示する。するとスレーブ側のロボット制御部80は、決定された第2の提示情報をロボット2に提示させるためのロボット制御を行う。このようにしてスレーブ側のロボット2が制御される。
【0129】
この場合に、通信部40は、提示情報の提示を指示する指示情報を、マスタ側のロボット1からスレーブ側のロボット2に対して、例えば無線等により通信する。そしてスレーブ側の通信部90がこの指示情報を受信すると、スレーブ側のロボット制御部80は、この指示情報で指示された提示情報をロボット2に提示させるためのロボット制御を行う。
【0130】
ここで提示情報の指示情報は、例えば提示情報の識別コードなどである。提示情報がシナリオの会話フレーズである場合には、この指示情報は、シナリオにおける会話フレーズのデータコードになる。
【0131】
例えばロボット1、2が掛け合いの会話を行う場合に、ロボット1の発話した会話フレーズをロボット2が音声認識し、その音声認識の結果に基づいてロボット2に会話フレーズを発話させる手法が考えられる。
【0132】
しかしながら、この手法によると複雑な音声認識処理や解析処理が必要になり、ロボットの高コスト化、処理の複雑化、誤動作の発生などを招く。
【0133】
この点、図5では、マスタ側のロボット1の制御の下で、ロボット1、2の掛け合いの会話が実現される。即ち、ユーザの目からは、ロボット1、2がお互いの言葉を認識し合いながら会話しているように見えるが、実際には、全ての会話がマスタ側のロボット1の制御の下で行われる。またスレーブ側のロボット2は、マスタ側のロボット1から通信される指示情報に基づいて、自身が提示する情報を決定するため、音声認識処理を不要にできる。従って、複雑な音声認識処理等を行わなくても、ロボット1、2の間での掛け合いの会話を、誤動作の少ない安定した制御の下で実現できる。
【0134】
図6に本実施形態の第3のシステム構成例を示す。図6では、ローカルサーバであるホームサーバ200が設けられている。このホームサーバ200は、ホームサブシステムの制御対象機器の制御のための処理を行ったり、外部との通信処理などを行う。ロボット1、2はこのホームサーバ200の制御の下で動作する。
【0135】
そして図6のシステムでは、携帯型電子機器100とホームサーバ200とは例えば無線LANやクレードル等で通信接続され、ホームサーバ200とロボット1、2とは例えば無線LAN等で通信接続される。そして本実施形態のロボット制御システムは、主にホームサーバ200の処理部210により実現される。なおロボット制御システムの処理を、ホームサーバ200とロボット1、2との分散処理により実現してもよい。
【0136】
携帯型電子機器100を所持したユーザが家に近づくと、無線LAN等により携帯型電子機器100とホームサーバ200との間の通信が可能になる。或いは携帯型電子機器100をクレードルに置くことで、通信が可能になる。
【0137】
そして通信経路が確立されると、携帯型電子機器100からホームサーバ200のユーザ情報記憶部222にユーザ情報が転送される。これにより、ホームサーバ200のユーザ情報取得部212がユーザ情報を取得する。そして演算部213が必要な演算処理を行い、提示情報決定部214が、ロボット1、2がユーザに対して提示する提示情報を決定する。そして、決定された提示情報又は提示情報の指示情報(例えば会話フレーズの発話指示情報)が、ホームサーバ200の通信部238からロボット1、2の通信部40、90に送信される。そしてロボット1、2のロボット制御部30、80は、受信した提示情報又は受信した指示情報により指示される提示情報を、ユーザに提示するためのロボット制御を行う。またユーザの反応に基づくユーザ特性情報の更新も、ホームサーバ200のユーザ特性情報更新部215が行う。
【0138】
図6の構成によれば、例えばユーザ情報や提示情報(シナリオデータ)のデータサイズが大きい場合に、ロボット1、2にユーザ情報や提示情報の記憶部を設けなくても済むため、ロボット1、2の低コスト化やコンパクト化を図れる。またユーザ情報や提示情報の転送や演算処理を、ホームサーバ200に一元化して処理、管理できるため、よりインテリジェントなロボット制御が可能になる。
【0139】
また図6のシステムによれば、ロボット1、2の利用可能イベントが発生する前に、携帯型電子機器100からのユーザ情報を、ホームサーバ200のユーザ情報記憶部222に予め転送しておくことができる。例えばユーザが家に帰ってロボット1、2に近づく前に(具体的には、ユーザが身につけたウェアラブルセンサ150の1つであるGPSセンサからの情報が、ユーザが最寄り駅に着いたことを示したり、ホームセンサの1つであるドアの開閉センサからの情報が、ユーザが玄関のドアを開けたことを示したりしたタイミングなど)、モバイル環境で更新されたユーザ情報をホームサーバ200のユーザ情報記憶部222に予め転送して書き込んでおく。そしてユーザがロボット1、2に近づき、ロボット1、2の利用可能イベントが発生すると、ユーザ情報記憶部222に予め転送されたユーザ情報を用いた、ロボット1、2の制御動作を開始させる。即ちロボット1、2を起動し、例えば図3(A)〜図3(C)に示すような会話を行うようにロボット1、2を制御する。このようにすれば、ロボット1、2が起動した後に、ユーザ情報に基づく会話を直ぐに開始できるようになり、制御を効率化できる。
【0140】
図7に本実施形態の第4のシステム構成例を示す。図7では、メインサーバである外部サーバ300が設けられている。この外部サーバ300は、携帯型電子機器100との間やホームサーバ200との間での通信処理を行ったり、各種の管理制御を行う。
【0141】
そして図7のシステムでは、携帯型電子機器100と外部サーバ300とはPHS等の無線WANで通信接続され、外部サーバ300とホームサーバ200とはADSL等の有線WANで通信接続され、ホームサーバ200とロボット1、2とは無線LAN等で通信接続される。そして本実施形態のロボット制御システムは、主に、ホームサーバ200の処理部210や外部サーバ300の図示しない処理部により実現される。なおロボット制御システムの処理を、ホームサーバ200、外部サーバ300、ロボット1、2の分散処理により実現してもよい。
【0142】
携帯型電子機器100、ホームサーバ200等の各ユニットは、適宜、外部サーバ300と通信して、ユーザ情報の転送処理を行う。また、PHSの位置登録情報、GPSセンサ、マイク等を利用して、ユーザが家に近づいたか否かを判断し、近づいた場合には、外部サーバ300の図示しないユーザ情報記憶部に記憶されたユーザ情報を、ホームサーバ200のユーザ情報記憶部222にダウンロードして、ロボット1、2による提示情報の提示制御を開始させる。なお、後述するシナリオデータ等の提示情報も、外部サーバ300からホームサーバ200の提示情報記憶部226にダウンロードできる。
【0143】
図7のシステムによれば、ユーザ情報や提示情報を、外部サーバ300において一元的に管理できるようになる。
【0144】
6.ユーザ履歴情報
【0145】
次に、ユーザ情報の1つであるユーザ履歴情報の更新処理やユーザ履歴情報の具体例について説明する。なおユーザ情報は、センサ情報によりリアルタイムに得られるユーザ情報と、このリアルタイムに得られるユーザ情報の履歴であるユーザ履歴情報などを含むことができる。
【0146】
図8は、ユーザ履歴情報の更新処理の一例を示すフローチャートである。
【0147】
まず、ウェアラブルセンサ150等からのセンサ情報を取得する(ステップS21)。次に、取得されたセンサ情報のフィルタリングや解析等の演算処理を行う(ステップS22)。そして演算結果に基づきユーザの行動、状態、環境等(TPO、情感)を推定する(ステップS23)。そして推定されたユーザの行動、状態等のユーザ履歴を日時(年、月、週、日、時間)等に関連づけてユーザ履歴情報記憶部23(223)に記憶して、ユーザ履歴情報を更新する(ステップS24)。
【0148】
図9にユーザ履歴情報の具体例が模式的に示される。図9のユーザ履歴情報は、ユーザの行動等の履歴が時間帯、時刻等に関連づけられたデータ構造になっている。例えば8時にユーザは自宅を出発し、8時〜8時20分の時間帯では自宅から駅まで歩行し、8時20分に自宅の最寄りのA駅に到着している。そして8時20分〜8時45分の時間帯では電車に乗車し、8時45分に会社の最寄りのB駅で下車し、9時に会社に到着し、業務を開始している。10時〜11時の時間帯では社内のメンバとミーティングを行い、12時〜13時の時間帯では昼食をとっている。
【0149】
このように図9では、センサからの情報等により推定されるユーザの行動等の履歴を、時間帯や時刻等に関連づけることで、ユーザ履歴情報が構築されている。
【0150】
また図9では、時間帯や時刻に対して、センサ等により計測されるユーザの発話量、食事量、脈拍、発汗量等の計測値も関連づけられている。例えば8時〜8時20分の時間帯では、ユーザは自宅からA駅に歩いているが、この時の歩行量等がセンサにより計測されて、8時〜8時20分の時間帯に関連づけられる。この場合に、例えば歩行速度、発汗量等の歩行量以外のセンサ情報の計測値を更に関連づけてもよい。こうすることで、この時間帯でのユーザの運動量等を把握することが可能になる。
【0151】
10時〜11時の時間帯では、ユーザは同僚とのミーティングを行っているが、この時の発話量等がセンサにより計測されて、10時〜11時の時間帯に関連づけられる。この場合に、例えば音声状態、脈拍等のセンサ情報の計測値を更に関連づけてもよい。こうすることで、この時間帯でのユーザの会話量や緊張度等を把握することが可能になる。
【0152】
20時45分〜21時45分や22時〜23時の時間帯では、ユーザはゲームをプレイしたり、テレビを鑑賞しているが、この時の脈拍、発汗量等がこれらの時間帯に関連づけられる。こうすることで、これらの時間帯でのユーザの興奮度等を把握することが可能になる。
【0153】
23時30分〜の時間帯では、ユーザは睡眠をしているが、この時のユーザの体温の変化がこの時間帯に関連づけられる。こうすることで、睡眠時におけるユーザの健康状態を把握することが可能になる。
【0154】
なお、ユーザ履歴情報は図9のような形態に限定されず、例えばユーザの行動等の履歴を日時等に関連づけないでユーザ履歴情報を構築する変形実施も可能である。
【0155】
例えば図10(A)では、センサ情報の計測値である発話量、音声状態、脈拍、発汗量等に基づいて、所定の演算式にしたがってユーザの精神状態パラメータが演算される。例えば発話量が多ければ、精神状態パラメータも高くなり、ユーザの精神状態が良好であることが示される。またセンサ情報の計測値である歩行量、歩行速度、体温等に基づいて、所定の演算式にしたがってユーザの身体状態(健康状態)のパラメータ(運動量パラメータ)が演算される。例えば歩行量が多ければ、身体状態パラメータも高くなり、ユーザの身体状態が良好であることが示される。
【0156】
また図10(B)に示すように、ユーザの精神状態、身体状態のパラメータ(広義には状態パラメータ)は、棒グラフ等を利用して可視化することで、ウェアラブルディスプレイやホームディスプレイに表示できる。またモバイル環境で更新された精神状態、身体状態のパラメータなどに基づいて、ホーム環境のロボットを制御して、ユーザを労ったり、励ましたり、あるいはユーザに助言する動作をロボットに行わせることが可能になる。
【0157】
以上のように本実施形態では、ユーザ情報として、ユーザの行動履歴、状態履歴、及び環境履歴の少なくとも1つであるユーザ履歴情報が取得される。そして取得されたユーザ履歴情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理が行われるようになる。
【0158】
7.シナリオに基づくロボットの会話
【0159】
次に、ユーザへの提示情報がシナリオに基づくロボット同士の会話である場合を例にとり、その具体例について詳細に説明する。
【0160】
7.1 構成
【0161】
図11に本実施形態の更に詳細なシステム構成例を示す。図11は図2等に比べて、処理部10が更にイベント判定部11、接触状態判定部16、発話権制御部17、シナリオデータ取得部18、ユーザ情報更新部19を含んでいる。また記憶部20がシナリオデータ記憶部27を含んでいる。
【0162】
イベント判定部11は各種のイベントの判定処理を行う。具体的には、モバイルサブシステムや車内サブシステムでユーザ情報を更新していたユーザが、新たにホームサブシステムのロボットの利用が可能になったことを示すロボットの利用可能イベントの発生を判定する。例えばイベント判定手段11は、ユーザがロボットの場所(家)に接近(移動)した場合に、ロボットの利用可能イベントが発生したと判定する。或いは情報転送が無線により行われる場合には、その無線強度を検出することで利用可能イベントの発生を判定してもよい。或いはクレードルに携帯型電子機器が接続された場合に、利用可能イベントが発生したと判定してもよい。そして、このようなロボットの利用可能イベントが発生した場合には、ロボット1、2を起動し、ユーザ情報記憶部22等にユーザ情報がダウンロードされる。
【0163】
シナリオデータ記憶部27は、複数の会話フレーズにより構成されるシナリオデータを、提示情報として記憶する。そして提示情報決定部14は、このシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定する。するとロボット制御部30は、決定された会話フレーズをロボットに発話させるための制御を行う。
【0164】
具体的にはシナリオデータ記憶部27は、複数の会話フレーズが分岐構造でリンクされたシナリオデータを記憶する。そして提示情報決定部14は、ロボットが発話した会話フレーズに対するユーザの反応に基づいて、次にロボットに発話させる会話フレーズを決定する。更に具体的には提示情報決定部14は、第1のシナリオデータ(例えば野球の話題)に基づきロボットが発話した会話フレーズに対するユーザの反応が所与の反応(例えば無反応)であった場合には、第1のシナリオデータとは異なる第2のシナリオデータ(例えば野球以外の話題)を選択し、次にロボットに発話させる会話フレーズを第2のシナリオデータに基づき決定する。
【0165】
接触状態判定部16は、後述するように、ロボットのセンシング面における接触状態を判定する。そして提示情報決定部14は、ロボットによる会話フレーズの発話(提示情報の提示)に対するユーザの反応として、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを、接触状態判定部16での判定結果に基づき判断する。そして、ユーザに対して次に発話する会話フレーズ(次に提示する提示情報)を決定する。
【0166】
この場合に接触状態判定部16は、センシング面よりも内側(ロボットの内側)に設けられたマイク(音センサ)からの出力信号(センサ信号)に対して演算処理を行うことで得られた出力データに基づいて、センシング面における接触状態を判定する。この場合の出力データは、例えば信号強度(信号強度データ)であり、接触状態判定部16は、出力データで信号強度と、所定のしきい値との比較処理を行うことで、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定できる。
【0167】
発話権制御部17は、ロボットが発話した会話フレーズに対するユーザの反応(例えば撫でる、叩く、無言)に基づいて、ロボット1、2のいずれに対して次の会話フレーズの発話権(発話の主導権)を付与するかを制御する。具体的には、ロボット1、2のいずれか一方のロボットが発話した会話フレーズに対してユーザが肯定的な反応をしたか否定的な反応をしたかに応じて、次の会話フレーズの発話権を付与するロボットを決定する。例えばユーザが肯定的な反応をした方のロボットに発話権を付与したり、ユーザが否定的な反応をしなかった方のロボットに発話権を付与する。この発話権の制御処理は、ロボット1、2のいずれに発話権を付与するかを示す発話権フラグ等を利用して実現できる。
【0168】
例えば図12(A)では、ロボット1の「きっと仕事が忙しいんだね!」という発話フレーズに対して、ユーザは頭を撫でるという肯定的な反応をしている。従って、この場合には図12(B)に示すように、頭を撫でられた方(肯定的な反応をされた方)のロボット1に対して次の発話権を付与する。これにより発話権を付与されたロボット1は「そ〜れ、言った通りじゃない!」という会話フレーズを発話する。即ちロボット1、2は例えば交互に発話するのが原則であり、この原則に従えば図12(B)ではロボット2の方に次の発話権が付与されるはずであるが、図12(B)では、ユーザにより頭が撫でられたロボット1の方に次の発話権を付与している。
【0169】
また図13(A)では、ロボット1の「どうせ、毎日飲み歩いているんじゃない?」という発話フレーズに対して、ユーザは頭を叩くという否定的な反応をしている。従って、この場合には図13(B)に示すように、頭を叩かれていない方(否定的な反応をされていない方)のロボット2に対して、原則通り次の発話権を付与する。これにより発話権を付与されたロボット2は「そ〜れ、言った通りじゃない!」という会話フレーズを発話する。
【0170】
例えばロボット1、2が常に交互に順番に会話するだけでは、ロボット1、2の掛け合いの会話がユーザにとって単調なものになってしまい、ユーザに直ぐに飽きられてしまう。
【0171】
これに対して図12(A)〜図13(B)の発話権制御手法を用いれば、ユーザの反応に応じて発話権の付与が様々に切り替わるため、会話が単調になるのを防止でき、ユーザが飽きにくいロボット間の会話を実現できる。
【0172】
シナリオデータ取得部18は、複数のシナリオデータの中からユーザ情報に基づき選択されたシナリオデータを取得する。
【0173】
具体的には、例えばN個のシナリオデータの中から、ユーザ情報に基づき選択されたM個(N>M≧1)のシナリオデータが、図示しないネットワークを介してシナリオデータ記憶部27にダウンロードされる。例えばシナリオデータは、外部サーバ300からロボット1に設けられたシナリオデータ記憶部27に直接ダウンロードしたり、外部サーバ300からホームサーバ200を介してシナリオデータ記憶部27にダウンロードする。或いは図7の構成では、外部サーバ300からホームサーバ200に設けられたシナリオデータ記憶部(提示情報記憶部226)にダウンロードする。
【0174】
そしてシナリオデータ取得部18は、ダウンロードされたM個のシナリオデータのうちの例えば1つをシナリオデータ記憶部27から読み出すことで、ロボットの会話に使用するシナリオデータを取得する。
【0175】
この場合に、シナリオデータ取得部18により取得されるシナリオデータは、ユーザの現在の日時情報、ユーザの現在の場所情報(現在の居場所)、ユーザの現在の行動情報及びユーザの現在の状況情報の少なくとも1つに基づき選択することができる。即ちリアルタイムなユーザ情報に基づき選択できる。或いは、ユーザの行動履歴情報及びユーザの状態履歴情報の少なくとも1つに基づきシナリオデータを選択してもよい。即ちリアルタイムなユーザ情報ではなく、過去から現在に至るユーザ履歴情報に基づきシナリオデータを選択してもよい。
【0176】
このようにユーザ情報やユーザ履歴情報に基づいてシナリオデータを選択すれば、現在の日時やユーザの過去又は現在の状況、場所等に適合したシナリオデータを選択して、ロボットに会話させることが可能になる。
【0177】
なおユーザ特性情報更新部15はロボットが発話した会話フレーズに対するユーザの反応に基づいて、ユーザ特性情報を更新する。そしてこの時、シナリオデータ取得部18は、ユーザ特性情報に基づき選択されたシナリオデータを取得してもよい。このようにすれば、ユーザの反応に基づいてユーザの趣味、嗜好等を学習して、ユーザ特性情報を更新し、ユーザの趣味、嗜好等に適合したシナリオデータを選択して使用できるようになる。
【0178】
次に本実施形態の詳細な動作について図14のフローチャートを用いて説明する。
【0179】
まず、センサ情報に基づいてユーザ情報を取得する(ステップS31)。そしてユーザのTPOを推定する(ステップS32)。
【0180】
次に、ユーザ情報、TPOに基づいて、シナリオデータを取得する(ステップS33)。具体的には、ユーザ情報等に適合したシナリオデータをネットワークを介してダウンロードする。
【0181】
次に、取得されたシナリオデータに基づいて、ロボット1、2に発話させる会話フレーズを決定する(ステップS34)。そしてロボット1、2に異なる会話フレーズを発話させるロボット制御を行う(ステップS35)。
【0182】
次に、ロボット1、2の発話に対するユーザの反応をモニタする(ステップS36)。そして別のシナリオデータに分岐させるか否かを判断し(ステップS37)、分岐させる場合にはステップS33に戻る、一方、分岐させない場合には図12(A)〜図13(B)に示す手法により次の会話フレーズの発話権を決定する(ステップS38)。またユーザの反応に基づいて、次にロボット1,2が発話する会話フレーズを決定する(ステップS39)。更に、ユーザの反応に基づいて、ユーザ特性情報(感性データベース)を更新する(ステップS40)。
【0183】
7.2 シナリオの具体例
【0184】
次に、本実施形態で使用されるシナリオデータやその選択手法の具体例について説明する。
【0185】
図15に示すようにシナリオデータベースの各シナリオデータにはシナリオ番号が付与されている。そしてシナリオ番号により特定されるシナリオデータは、複数のシナリオデータコードにより構成され、各シナリオデータコードにより各会話フレーズ(テキストデータ)が指定される。
【0186】
例えば図15では、ユーザ情報に基づいて、ユーザがいつもよりも遅い時間に帰宅したと判断されたため、シナリオ番号=0579のシナリオデータが選択されている。そしてシナリオ番号=0579のシナリオデータは、A01、B01、A02、B02、A03、B03のシナリオデータコードにより構成される。ここでA01、A02、A03は、ロボット1が順次発話する会話フレーズのコードであり、B01、B02、B03は、ロボット2が順次発話する会話フレーズのコードである。そしてこのシナリオデータを使用することで、図3(A)〜図3(C)で説明した、ユーザ情報に応じたロボット1、2の間の掛け合いの会話が実現される。
【0187】
図16は、「撫でる」、「叩く」、「無反応」などのユーザの反応(行動)に基づくシナリオ分岐の例である。
【0188】
例えば、まずロボット1が「今日はチームAが勝ったみたいだよ!!」と発話する。この発話に対してユーザがロボット1を撫でた場合には、ユーザは野球チームAのファンであると推定する。従って、この場合にはロボット2は、「そうそう!8−7の逆転勝ち!!」と発話し、チームAの勝利の様子を更に詳しく解説する。そしてこの発話に対してユーザがロボット2を撫でた場合には、ユーザはチームAの勝利の仕方に満足していると推定する。従って、この場合にはロボット1は「ホームランがすごかったね!!」と発話する。一方、ロボット2を叩いた場合には、ユーザはチームAは勝ったもののその勝利の仕方に満足していないと推定する。従って、この場合にはロボット1は「でも、投手陣が不安定だね〜」と発話する。なおユーザが無反応の場合には別シナリオに移行する。
【0189】
また、ロボット1の「今日はチームAが勝ったみたいだよ!!」という発話に対して、ユーザがロボット1を叩いた場合には、ユーザは野球チームAのファンではないと推定する。従って、この場合にはロボット2は「そんなことより、チームBはどうだった?」と発話し、チームAとは異なるチームBの話に話題を変える。そして野球に関するシナリオの別分岐に移行する。
【0190】
またユーザが無反応であった場合には、ユーザはそもそも野球には興味がないと推定する。従って、この場合にはロボット2は「ふ〜ん、そうなんだ〜」と発話し、野球以外の別のシナリオに移行する。
【0191】
このように図16では、ロボットが発話した会話フレーズに対するユーザの反応に基づいて、次にロボットに発話させる会話フレーズを決定している。またユーザの撫でる、叩くなどの反応を検知することで、ユーザが好きな野球チームなどを知ることができ、これによりユーザ特性情報を更新できる。
【0192】
図17は、「撫でる」などのユーザの反応に基づくシナリオ選択やユーザ特性情報(データベース)の更新の例である。
【0193】
まずロボット1が「今日の天気はどうかな〜」と発話する。これに対してロボット2が「そんなことより、今日のニュース見た?」と発話する。そしてロボット1が「今日の株価なら見たけど・・・」と発話し、この発話に対してユーザがロボット1を撫でると、ユーザは株の話題に興味があると推定する。そこでこの場合には、株価情報シナリオに移行し、ロボット1は「今日の日経平均株価は17760円だったよ!」「プラス60円だね。C社の株価は・・・」と発話する。
【0194】
このとき、本実施形態では、ユーザの反応により選択されたシナリオログに基づいて、ユーザ特性情報のデータベースを更新する。即ちユーザの反応により、ユーザは株の話題に興味があると推定し、ユーザの趣味、嗜好の1つが株であることをデータベースに登録して学習させる。このようにすれば、次にシナリオデータを選択する時に、株に関連したシナリオが選択される確率が高くなり、ユーザの趣味、嗜好に沿った話題を提供できるようになる。
【0195】
即ち、ユーザの趣味、嗜好をアンケートの記入等により調査する手法では、ユーザに面倒な手間を強いることになり、好ましくない。この点、図17の手法では、ユーザがロボットの会話に反応することで、ユーザに余計な手間を強いることなく、自動的にユーザの趣味、嗜好を調査・収集できるという利点がある。
【0196】
図18、図19は、リアルタイムなユーザ情報に基づくシナリオ選択の例である。
【0197】
図18では、ユーザ情報として、「現在の日時:6月10日(日曜日)11:30」、「現在の場所:自宅」、「今日の歩数:186歩」、「現在の運動量:少ない」、「現在の発話量:少ない」が取得されている。これらのユーザ情報は、ウェアラブルセンサ150等からのセンサ情報により取得される。
【0198】
そして、取得されたユーザ情報に基づいて、ユーザのTPOが「日曜日に、特に何もせずに、家でゴロゴロしている」と推定される。そこでこの場合には、「今日のニュース、天気、TV番組などの話題」、「近所のイベント情報に関する話題」、「運動不足に関する話題」、「家族に関する話題」などのシナリオ(シナリオ選択候補)が選択される。即ち図18では、現在の日時情報、ユーザの現在の場所情報、ユーザの現在の行動情報、或いはユーザの現在の状況情報に基づきシナリオ(シナリオデータ)が選択される。
【0199】
具体的には図19に示すように、選択されたシナリオに基づいて、ロボット1、2の間で「ご主人様は家でゴロゴロだね」、「いつものことだよ」、「あれじゃあ、運動不足になっちゃうね」、「散歩でもすればいいのにな〜」、「面白いイベント情報があるんだけどな〜」、「う〜ん、だめだね〜」などの会話が行われる。従ってユーザは、これらのロボット1、2間の会話を傍らで聞くことにより、自身の現在の行動、状況等について間接的に知ることができる。従って、ユーザに対して一方的に情報を提供する利便性提供型のサービスではなく、ユーザの内面に間接的に働きかけることによりユーザに気付きを与え、自己の成長を促すインスパイヤ型ユビキタスサービスを実現できる。
【0200】
なお図19において「面白いイベント情報があるんだけどな〜」というロボット1の発話に対してユーザがロボット1を例えば撫でると、ユーザがイベント情報に興味があると推定し、図18のシナリオ選択候補のうちイベント情報シナリオを選択して分岐する。また「散歩でもすればいいのにな〜」というロボット2の発話に対してユーザがロボット2を例えば撫でると、ユーザが散歩に興味があると推定し、散策スポット情報シナリオに分岐する。
【0201】
図20、図21は、ユーザ履歴情報(1日の蓄積情報)に基づくシナリオ選択の例である。
【0202】
図20では、ユーザ履歴情報として、「日時:6月11日(月曜日)晴れ28度」、「その日に行った場所:自宅、新宿、横浜」、「今日の累積の歩数:15023歩」、「今日の累積の運動量:多い」、「今日の累積の発話量:多い」が取得されている。これらのユーザ履歴情報は、ウェアラブルセンサ150等からのセンサ情報の蓄積・履歴により取得される。
【0203】
そして、取得されたユーザ履歴情報に基づいて、ユーザのTPOが「平日、仕事で横浜に出張。徒歩での移動が普段と比べて多く大変疲れている。運動量、発話量も多く、活発な1日であった」と推定される。そこでこの場合には、「今日のニュース、天気、TV番組などの話題」、「行った場所(横浜)に関する話題」、「今日はたくさん歩いてお疲れ様、という労いの話題」などのシナリオ(シナリオ選択候補)が選択される。即ち図20では、ユーザの行動履歴情報、或いはユーザの状態履歴情報などに基づきシナリオ(シナリオデータ)が選択される。
【0204】
具体的には図21に示すように、選択されたシナリオに基づいて、ロボット1、2の間で「今日はたくさん歩いてお疲れ様!!」、「めずらしくたくさん歩いたね」、「今日は横浜に行ってきたんだ〜」、「横浜って雰囲気がいいよね」、「赤レンガ倉庫のあたりなんか素敵だよね」、「うんうん、中華街とかも行きたいな〜」などの会話が行われる。従ってユーザは、これらのロボット1、2間の会話を傍らで聞くことにより、自身の今日一日の行動履歴、状況履歴について間接的に知ることができる。これにより、自身の行動履歴等についてユーザに気付きを与えることができ、インスパイヤ型ユビキタスサービスを実現できる。
【0205】
なお図21において「赤レンガ倉庫のあたりなんか素敵だよね」というロボット1の発話に対してユーザがロボット1を撫でると、赤レンガ倉庫に興味があると推定し、赤レンガ倉庫情報シナリオに分岐する。同様に、「うんうん、中華街とかも行きたいな〜」というロボット2の発話に対してユーザがロボット2を撫でると、中華街情報シナリオに分岐する。
【0206】
図22はユーザ特性情報のデータベースによるシナリオ選択の例である。
【0207】
図22では、ユーザ特性情報として、「生年月日 職業:会社員 休日:土日」、「よく行く場所:自宅、新宿、渋谷・・・」、「平均歩数:7688歩」、「平均運動量:680kcal」、「発話量:67min」、「関心度:天気75%、スポーツ60%、旅行45%、TV番組30%、音楽20%、株価15%、PC10%」などが取得される。ここで、関心度は、例えばユーザがロボットを撫でて詳細シナリオに進んだ割合などを利用して取得する。
【0208】
そして図22のユーザ特性情報からは、「生年月日、年齢、仕事、家族に関する話題(例:サラリーマンは大変だね〜)」、「生活習慣に関する話題(例:最近運動が足りないみたいだね)」、「行動エリアに関する話題(例:新宿に新しい店ができたんだって)」、「関心度の高いジャンルに関する話題(例:19:00から旅行番組があるよ)」などのシナリオが選択されることになる。このようにすることで、ユーザの特性(感性)にマッチしたシナリオの選択が可能になる。
【0209】
8.ユーザ履歴情報に基づく提示情報の決定処理
【0210】
次にユーザ履歴情報に基づく提示情報の決定処理の詳細について説明する。具体的にはユーザが外出により一定期間ロボット(ロボット1、2)と接触しなかった後に、帰宅してロボットと接触した場合におけるロボットの行動について説明する。
【0211】
例えば、ユーザが帰宅したり、ロボットと接触すると、ロボット(ホームサブシステム)の利用可能イベントが発生する。具体的には、ウェアラブルセンサのGPSや、家のドアなどに付けられたセンサや、クレードルへの携帯型電子機器の接続などによりユーザの帰宅が検出されたり、無線通信における無線強度やロボットの接触センサなどによりユーザとロボットの接近が検出されると、図11のイベント判定部11が、ロボットの利用可能イベントが発生したと判定する。即ちロボットの利用が可能な状態になったことを示す利用可能イベントが発生したと判定する。
【0212】
そして図23では、この利用可能イベント発生前の例えば外出期間(ロボットの利用不可期間、ロボットとユーザの非接近期間)を第1の期間T1とし、利用可能イベント発生後の例えば在宅期間(ロボットの利用可能期間、ロボットとユーザの接近期間)を第2の期間T2としている。そしてこの第1の期間T1において取得(更新)されるユーザ履歴情報が第1のユーザ履歴情報となり、第2の期間T2において取得(更新)されるユーザ履歴情報が第2のユーザ履歴情報となる。
【0213】
ここで、第1のユーザ履歴情報は、第1の期間T1において、図11のウァアラブルセンサ150の行動センサ、状態センサ、環境センサを用いてユーザの行動(歩行、発話、食事等)、状態(疲労、緊張、空腹、精神状態、肉体状態等)、又は環境(場所、明るさ、気温等)を計測することで、取得できる。具体的には携帯型電子機器100のユーザ情報更新部が、これらのセンサからのセンサ情報に基づいて、携帯型電子機器100のユーザ情報記憶部のユーザ履歴情報を更新することで、第1の期間T1での第1のユーザ履歴情報が取得される。
【0214】
そして、ロボット1、2の利用可能イベントが発生すると、第1の期間T1において更新された第1のユーザ履歴情報が、携帯型電子機器100のユーザ情報記憶部からロボット1(ロボット2)のユーザ情報記憶部22(ユーザ履歴情報記憶部23)に転送される。これにより提示情報決定部14は、転送された第1のユーザ履歴情報に基づいて、ロボット1、2がユーザに対して提示する提示情報の決定処理(シナリオの選択処理)を行うことが可能になる。
【0215】
一方、第2のユーザ履歴情報は、第2の期間T2において、ロボット搭載センサ34や他のセンサ(例えばウェアラブルセンサや、ホームに埋め込まれたホームセンサ等)を用いて、ユーザの行動、状態又は環境を計測することで、取得できる。具体的には、ユーザ情報更新部19が、これらのセンサからのセンサ情報に基づいて、ユーザ情報記憶部22のユーザ履歴情報を更新することで、第2の期間T2での第2のユーザ履歴情報が取得される。
【0216】
そして提示情報決定部14は、図23に示すように、例えば第1の期間T1において取得された第1のユーザ履歴情報と、第2の期間T2において取得された第2のユーザ履歴情報とに基づいて、ロボット1、2がユーザに対して提示する提示情報の決定処理を行う。具体的には、第1、第2のユーザ履歴情報に基づいて、ロボット1、2が会話するシナリオの決定処理を行う。このようにすれば、例えば外出期間でのユーザの行動等と在宅期間でのユーザの行動等の両方を加味した提示情報をユーザに提供でき、外出先や自宅での自身の行動等に関する気付きを、ユーザに与えることができる。
【0217】
更に具体的には提示情報決定部14は、提示情報の決定処理の際における第1のユーザ履歴情報の重み付け(重み付け係数)と第2のユーザ履歴情報の重み付けとを、第2の期間T2において変化させている。
【0218】
例えば図24では、ロボット1、2の利用可能イベントの発生時には(ユーザの帰宅時、帰宅時から所与の期間が経過するまでは)、決定処理における第1のユーザ履歴情報の重み付けの方が第2のユーザ履歴情報の重み付けに比べて大きくなっており、例えば、第1のユーザ履歴情報が1.0になり、第2のユーザ履歴情報の重み付けが0になっている。
【0219】
そして重み付け変更期間TAにおいて、第1のユーザ履歴情報の重み付けは小さくなる一方で、第2のユーザ履歴情報の重み付けは大きくなり、重み付けの大きさが逆転する。そして、変更期間TAの後は、第2のユーザ履歴情報の重み付けの方が第1のユーザ履歴情報の重み付けに比べて大きくなっており、例えば第1のユーザ履歴情報の重み付けが0になり、第2のユーザ履歴情報の重み付けが1.0になっている。
【0220】
このように図24では、利用可能イベント発生時には、決定処理における第1のユーザ履歴情報の重み付けを大きくし、第2のユーザ履歴情報の重み付けを小さくし、その後、第1のユーザ履歴情報の重み付けを小さくし、第2のユーザ履歴情報の重み付けを大きくしている。具体的には、第2の期間T2では、提示情報の決定処理の際における第1のユーザ履歴情報の重み付けを時間経過に伴い小さくし、第2のユーザ履歴情報の重み付けを時間経過に伴い大きくしている。
【0221】
このようにすれば、第2の期間T1の前半期間では、ロボット1、2は、例えば外出期間である第1の期間T1でのユーザの行動等に関連する話題を提供する。そして、その後、時間が経過すると、今度は自宅でのユーザの行動等に関連する話題を提供する。これにより、ユーザの行動、状況等に応じたタイムリーな話題を提供できるようになる。
【0222】
なお重み付けの変化のさせ方は図24の手法に限定されない。例えば図24とは逆に、前半期間では第2のユーザ履歴情報の重み付けの方を大きくし、その後、第1のユーザ履歴情報の重み付けの方を大きくする変形実施も可能である。或いは第1の期間T1よりも前のユーザ履歴情報も考慮して、提示情報の決定処理を行ってもよい。また、重み付けの変化のさせ方は、ロボット1、2等に予めプログラミングしておく構成にしてもよいし、ユーザが好みに応じて自由に切り替えられる構成にしてもよい。
【0223】
図25にユーザ履歴情報の重み付け手法の具体例を示す。決定処理の際のユーザ履歴情報の重み付けの一例としては、ユーザ履歴情報で選択されるシナリオの選択確率がある。具体的には、第1のユーザ履歴情報の重み付けを大きくする場合には、第2のユーザ履歴情報よりも第1のユーザ履歴情報の方のシナリオが選択されるようにする。具体的には、第1のユーザ履歴情報のシナリオの選択確率を大きくする。一方、第2のユーザ履歴情報の重み付けを大きくする場合には、第1のユーザ履歴情報よりも第2のユーザ履歴情報の方のシナリオが選択されるようにする。具体的には、第2のユーザ履歴情報のシナリオの選択確率を大きくする。
【0224】
例えば図25に示すように、第1のユーザ履歴情報で選択されるシナリオとしては、行った場所に関する話題や、外出先の行動等に関する話題(今日はたくさん歩いてお疲れ様など)や、仕事に関する話題などがある(図20参照)。また第2のユーザ履歴情報で選択されるシナリオとしては、自宅での生活環境(運動不足など)に関する話題や、近所のイベント情報に関する話題や、家族に関する話題や、ユーザの関心度が高いジャンルに関する話題などがある(図18参照)。
【0225】
そして図24において、第2の期間T2の前半では、第1のユーザ履歴情報の重み付けの方が大きいため、第1のユーザ履歴情報用のシナリオの選択確率が高くなる。これにより、前半期間では、ロボット1、2は、例えばユーザが行った場所に関する会話等を行うようになる。一方、第2の期間T2の後半では、第2のユーザ履歴情報の重み付けの方が大きいため、第2のユーザ履歴情報用のシナリオの選択確率が高くなる。これにより、後半期間では、ロボット1、2は、例えばユーザの自宅での生活環境(「最近、運動不足だよね」)に関する会話等を行うようになる。このようにすれば、ユーザの環境の変化(外出から在宅への変化)に対応するように、提供するシナリオの話題を変更することが可能になり、より自然なロボット1、2の会話を実現できる。
【0226】
9.接触状態判定
【0227】
次に、ロボットを叩く、撫でる等の動作の具体的な判定手法の一例について説明する。
【0228】
図26(A)はぬいぐるみ型のロボット500の例である。ロボット500の表面は、センシング面501として機能する。センシング面501よりも内側には、マイク502-1、502-2、502-3が設けられている。また、各マイク502-1、502-2、502-3からの出力信号を演算処理し、出力データを出力する信号処理部503が設けられている。
【0229】
図26(B)の機能ブロック図に示すように、マイク502-1、502-2、502-3からの出力信号は信号処理部503に入力される。信号処理部503は、ノイズ除去や信号増幅等を行って、アナログの出力信号を加工・変換する。そして信号強度等を計算して、デジタルの出力データとして出力する。接触状態判定部16は、例えばしきい値の比較処理、接触状態の分類等の処理を行う。
【0230】
例えば図27(A)、図27(B)、図27(C)は、センシング面501を叩いた時、センシング面501を撫でた時、マイクに向かって話かけた時の3パターンの音声波形例である。グラフの横軸は時間であり、縦軸は信号強度である。
【0231】
信号強度に着目すると、図27(A)の叩いた時と、図27(B)の撫でた時では信号強度が大きいことがわかる。また、叩いた時はその状態が一時的なものになるが、撫でた時はその状態が継続していることがわかる。また図27(C)に示すように例えば「あー」とかなり強めに発話した時の波形は、図27(A)の叩いた時、図27(B)の撫でた時に比べて信号強度が小さいことがわかる。
【0232】
これらの差異を利用したしきい値を設けることで、「叩き状態」、「撫で状態」、「いずれでもない状態」を検出することが可能となる。また複数のマイク502-1、502-2、502-3を用いることにより、一番強い信号が発生した場所を「叩かれた部位、撫でられた部位」として検出できるようになる。
【0233】
より具体的には、ロボット500の内部に埋め込まれたマイク502-1、502-2、502-3は、ロボット500のセンシング面501にユーザの手などが接触した場合に、ロボット500の内部を伝搬してくる音を検出して電気信号に変換する。
【0234】
信号処理部503は、マイク502-1、502-2、502-3からの出力信号(音声信号)のノイズ除去、信号増幅、A/D変換を行い、出力データを出力する。この出力データを絶対値に変換して一定時間蓄積することなどにより、信号強度を算出できる。そして算出された信号強度を、しきい値THと比較する。そしてしきい値THを超えていれば、「接触」が検出されたものと判定して、接触状態検出回数としてカウントする。そしてこの接触状態検出処理を所定時間、繰り返す。
【0235】
所定時間が経過した時点で、接触状態判定部16は、事前に設定しておいた条件と、前述の接触状態検出回数を比較して、例えば下述のような条件により、撫でられた状態、叩かれた状態を検出する。ここでは、撫でた場合には接触状態が継続するため接触状態検出回数も多くなるが、叩いた場合には接触状態検出回数は少なくなるという現象を利用して、撫でられた状態なのか、叩かれた状態なのかを検出する。
【0236】
検出状態 (検出回数/最大検出回数)×100(%)
撫で状態 25%以上
叩き状態 10%以上、25%未満
未検出状態 10%未満
【0237】
このようにすることで、少なくとも1つのマイクを用いて「撫で状態」、「叩き状態」、「いずれでもない状態(未検出状態)」を判定できる。また複数のマイクを分散して埋め込み、各マイクの接触状態検出回数を比較することで、接触が発生した部位についても判定することが可能になる。
【0238】
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またロボット制御システムやロボットの構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。
【図面の簡単な説明】
【0239】
【図1】ユーザ情報の取得手法の説明図
【図2】本実施形態のシステム構成例。
【図3】図3(A)〜図3(C)は本実施形態の手法の説明図。
【図4】本実施形態の動作を説明するためのフローチャート。
【図5】本実施形態の第2のシステム構成例。
【図6】本実施形態の第3のシステム構成例。
【図7】本実施形態の第4のシステム構成例。
【図8】ユーザ履歴情報の更新処理のフローチャート。
【図9】ユーザ履歴情報の説明図。
【図10】図10(A)、図10(B)はユーザ履歴情報の説明図。
【図11】本実施形態の詳細なシステム構成例。
【図12】図12(A)、図12(B)は発話権の制御手法の説明図。
【図13】図13(A)、図13(B)は発話権の制御手法の説明図。
【図14】本実施形態の詳細な動作を説明するためのフローチャート。
【図15】シナリオデータの説明図。
【図16】ユーザの反応に基づくシナリオ分岐手法の説明図。
【図17】ユーザの反応に基づくシナリオ選択手法の説明図。
【図18】リアルタイムなユーザ情報に基づくシナリオ選択手法の説明図。
【図19】リアルタイムなユーザ情報に基づくシナリオ選択手法の説明図。
【図20】ユーザ履歴情報に基づくシナリオ選択手法の説明図。
【図21】ユーザ履歴情報に基づくシナリオ選択手法の説明図。
【図22】ユーザ特性情報に基づくシナリオ選択手法の説明図。
【図23】ユーザ履歴情報に基づく提示情報の決定手法の説明図。
【図24】ユーザ履歴情報に基づく提示情報の決定処理の説明図。
【図25】第1、第2のユーザ履歴情報で選択されるシナリオの例。
【図26】図26(A)、図26(B)は接触判定手法の説明図。
【図27】図27(A)、図27(B)、図27(C)は、叩いた時、撫でた時、マイクに向かって話かけた時の音声波形例。
【符号の説明】
【0240】
1 第1のロボット、2 第2のロボット、
10 処理部、11 イベント判定部、12 ユーザ情報取得部、13 演算部、
14 提示情報決定部、15 ユーザ特性情報更新部、16 接触状態判定部、
17 発話権制御部、18 シナリオデータ取得部、20 記憶部、
22 ユーザ情報記憶部、23 ユーザ履歴情報記憶部、24 ユーザ特性情報記憶部、
26 提示情報記憶部、27 シナリオデータ記憶部、30 ロボット制御部、
32 ロボット動作機構、34 ロボット搭載センサ、40 通信部、
60 処理部、62 ユーザ情報取得部、63 演算部、64 提示情報決定部、
65 ユーザ特性情報更新部、70 記憶部、72 ユーザ情報記憶部、
73 ユーザ履歴情報記憶部、74 ユーザ特性情報記憶部、76 提示情報記憶部、
80 ロボット制御部、82 ロボット動作機構、84 ロボット搭載センサ、
90 通信部、100 携帯型電子機器、110 処理部、112 演算部、
114 ユーザ情報更新部、120 記憶部、122 ユーザ情報記憶部、
130 制御部、138 通信部、140 ウェアラブルディスプレイ、
150 ウェアラブルセンサ、200 ホームサーバ(ローカルサーバ)、
210 処理部、212 ユーザ情報取得部、213 演算部、
214 提示情報決定部、215 ユーザ特性情報更新部、220 記憶部、
222 ユーザ情報記憶部、223 ユーザ履歴情報記憶部、
224 ユーザ特性情報記憶部、226 提示情報記憶部、300 外部サーバ

【特許請求の範囲】
【請求項1】
ロボットを制御するためのロボット制御システムであって、
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得するユーザ情報取得部と、
取得された前記ユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行う提示情報決定部と、
前記提示情報をユーザに対してロボットに提示させるための制御を行うロボット制御部とを含み、
前記提示情報決定部は、
取得された同じ前記ユーザ情報に対して第1、第2のロボットが異なる提示情報を提示するように、ユーザに対して提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
【請求項2】
請求項1において、
前記第1のロボットはマスタ側に設定され、前記第2のロボットはスレーブ側に設定され、
マスタ側の前記第1のロボットに設けられた前記提示情報決定部が、スレーブ側の前記第2のロボットに対して、ユーザへの提示情報の提示を指示することを特徴とするロボット制御システム。
【請求項3】
請求項2において、
提示情報の提示を指示する指示情報を、マスタ側の前記第1のロボットからスレーブ側の前記第2のロボットに対して通信する通信部を含むことを特徴とするロボット制御システム。
【請求項4】
請求項1乃至3のいずれかにおいて、
前記ユーザ情報取得部は、
前記ユーザ情報として、ユーザの行動履歴、ユーザの状態履歴及びユーザの環境履歴の少なくとも1つであるユーザ履歴情報を取得し、
前記提示情報決定部は、
取得された前記ユーザ履歴情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
【請求項5】
請求項4において、
ロボットの利用が可能な状態になったことを示す利用可能イベントの発生を判定するイベント判定部を含み、
前記提示情報決定部は、
前記利用可能イベント発生前の第1の期間において取得された第1のユーザ履歴情報と、前記利用可能イベント発生後の第2の期間において取得された第2のユーザ履歴情報とに基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
【請求項6】
請求項5において、
前記提示情報決定部は、
提示情報の前記決定処理における前記第1のユーザ履歴情報の重み付けと前記第2のユーザ履歴情報の重み付けとを、前記第2の期間において変化させることを特徴とするロボット制御システム。
【請求項7】
請求項6において、
前記提示情報決定部は、
前記利用可能イベント発生時には、前記決定処理における前記第1のユーザ履歴情報の重み付けを大きくし、前記第2のユーザ履歴情報の重み付けを小さくし、その後、前記第1のユーザ履歴情報の重み付けを小さくし、前記第2のユーザ履歴情報の重み付けを大きくすることを特徴とするロボット制御システム。
【請求項8】
請求項4乃至7のいずれかにおいて、
前記ユーザ履歴情報は、ユーザのウェアラブルセンサからのセンサ情報により更新することで得られる情報であることを特徴とするロボット制御システム。
【請求項9】
請求項1乃至8のいずれかにおいて、
前記提示情報決定部は、
ロボットによる提示情報の提示に対するユーザの反応に基づいて、ロボットがユーザに対して次に提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
【請求項10】
請求項9において、
ユーザ特性情報を記憶するユーザ特性情報記憶部と、
ロボットによる提示情報の提示に対するユーザの反応に基づいて、前記ユーザ特性情報を更新するユーザ特性情報更新部を含むことを特徴とするロボット制御システム。
【請求項11】
請求項9又は10において、
ロボットのセンシング面における接触状態を判定する接触状態判定部を含み、
前記提示情報決定部は、
ロボットによる提示情報の提示に対するユーザの反応として、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを、前記接触状態判定部での判定結果に基づき判断して、ユーザに対して次に提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
【請求項12】
請求項11において、
前記接触状態判定部は、
前記センシング面よりも内側に設けられたマイクからの出力信号に対して演算処理を行うことで得られた出力データに基づいて、前記センシング面における接触状態を判定することを特徴とするロボット制御システム。
【請求項13】
請求項12において、
前記出力データは、信号強度であり、
前記接触状態判定部は、
前記信号強度と、所定のしきい値との比較処理を行うことで、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定することを特徴とするロボット制御システム。
【請求項14】
請求項1乃至13のいずれかにおいて、
複数の会話フレーズにより構成されるシナリオデータを、前記提示情報として記憶するシナリオデータ記憶部を含み、
前記提示情報決定部は、
前記シナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定し、
前記ロボット制御部は、
決定された会話フレーズをロボットに発話させるための制御を行うことを特徴とするロボット制御システム。
【請求項15】
請求項14において、
前記シナリオデータ記憶部は、
複数の会話フレーズが分岐構造でリンクされたシナリオデータを記憶し、
前記提示情報決定部は、
ロボットが発話した会話フレーズに対するユーザの反応に基づいて、次にロボットに発話させる会話フレーズを決定することを特徴とするロボット制御システム。
【請求項16】
請求項15において、
前記提示情報決定部は、
第1のシナリオデータに基づきロボットが発話した会話フレーズに対するユーザの反応が所与の反応であった場合には、前記第1のシナリオデータとは異なる第2のシナリオデータを選択し、次にロボットに発話させる会話フレーズを前記第2のシナリオデータに基づき決定することを特徴とするロボット制御システム。
【請求項17】
請求項14乃至16のいずれかにおいて、
ロボットが発話した会話フレーズに対するユーザの反応に基づいて、前記第1、第2のロボットのいずれに対して次の会話フレーズの発話権を付与するかを制御する発話権制御部を含むことを特徴とするロボット制御システム。
【請求項18】
請求項17において、
前記発話権制御部は、
前記第1、第2のロボットのいずれか一方のロボットが発話した会話フレーズに対してユーザが肯定的な反応をしたか否定的な反応をしたかに応じて、次の会話フレーズの発話権を付与するロボットを決定することを特徴とするロボット制御システム。
【請求項19】
請求項14乃至18のいずれかにおいて、
複数のシナリオデータの中から前記ユーザ情報に基づき選択されたシナリオデータを取得するシナリオデータ取得部を含むことを特徴とするロボット制御システム。
【請求項20】
請求項19において、
前記シナリオデータ取得部は、
前記ユーザ情報に基づき選択されたシナリオデータをネットワークを介してダウンロードし、
前記提示情報決定部は、
ネットワークを介してダウンロードされたシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定することを特徴とするロボット制御システム。
【請求項21】
請求項19又は20において、
前記シナリオデータ取得部は、
現在の日時情報、ユーザの現在の場所情報、ユーザの現在の行動情報及びユーザの現在の状況情報の少なくとも1つに基づき選択されたシナリオデータを取得し、
前記提示情報決定部は、
現在の日時情報、ユーザの現在の場所情報、ユーザの現在の行動情報及びユーザの現在の状況情報の少なくとも1つに基づき選択されたシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定することを特徴とするロボット制御システム。
【請求項22】
請求項19乃至21のいずれかにおいて、
前記シナリオデータ取得部は、
ユーザの行動履歴情報及びユーザの状態履歴情報の少なくとも1つに基づき選択されたシナリオデータを取得し、
前記提示情報決定部は、
ユーザの行動履歴情報及びユーザの状態履歴情報の少なくとも1つに基づき選択されたシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定することを特徴とするロボット制御システム。
【請求項23】
請求項19乃至22のいずれかにおいて、
ユーザ特性情報を記憶するユーザ特性情報記憶部と、
ロボットが発話した会話フレーズに対するユーザの反応に基づいて、前記ユーザ特性情報を更新するユーザ特性情報更新部を含み、
前記シナリオデータ取得部は、
前記ユーザ特性情報に基づき選択されたシナリオデータを取得することを特徴とするロボット制御システム。
【請求項24】
請求項1乃至23のいずれかに記載のロボット制御システムと、
前記ロボット制御システムの制御対象であるロボット動作機構とを含むことを特徴とするロボット。
【請求項25】
ロボット制御のためのプログラムであって、
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得するユーザ情報取得部と、
取得された前記ユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行う提示情報決定部と、
前記提示情報をユーザに対してロボットに提示させるための制御を行うロボット制御部として、
コンピュータを機能させ、
前記提示情報決定部は、
取得された同じ前記ユーザ情報に対して第1、第2のロボットが異なる提示情報を提示するように、ユーザに対して提示する提示情報の決定処理を行うことを特徴とするプログラム。
【請求項26】
コンピュータ読み取り可能な情報記憶媒体であって、請求項25に記載のプログラムを記憶したことを特徴とする情報記憶媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate


【公開番号】特開2009−61547(P2009−61547A)
【公開日】平成21年3月26日(2009.3.26)
【国際特許分類】
【出願番号】特願2007−231482(P2007−231482)
【出願日】平成19年9月6日(2007.9.6)
【出願人】(000000376)オリンパス株式会社 (11,466)
【出願人】(000001960)シチズンホールディングス株式会社 (1,939)
【Fターム(参考)】