ロボットシステム、コミュニケーション活性化方法及びプログラム
【課題】引込現象の発現確率を高め、コミュニケーションをさらに活性化させる。
【解決手段】コミュニケーション場認識部1は、ユーザのバーバル情報及びノンバーバル情報に基づいて、ユーザのコミュニケーションリズムを認識する。コミュニケーション同調度合算出部2は、コミュニケーションリズムに基づいてコミュニケーション同調度合を算出する。SIRDB4は、コミュニケーションリズム及びコミュニケーション同調度合に応じて出力部5がユーザに対して行うべきインタラクション動作に関するルールを記憶する。インタラクション制御部3は、SIRDB4を参照し、そのルールに従ってコミュニケーションリズムとコミュニケーション同調度合を用いてユーザに対して行うべきロボットアクションコマンドを探索し、探索されたロボットアクションコマンドに基づいて出力部5を制御する。
【解決手段】コミュニケーション場認識部1は、ユーザのバーバル情報及びノンバーバル情報に基づいて、ユーザのコミュニケーションリズムを認識する。コミュニケーション同調度合算出部2は、コミュニケーションリズムに基づいてコミュニケーション同調度合を算出する。SIRDB4は、コミュニケーションリズム及びコミュニケーション同調度合に応じて出力部5がユーザに対して行うべきインタラクション動作に関するルールを記憶する。インタラクション制御部3は、SIRDB4を参照し、そのルールに従ってコミュニケーションリズムとコミュニケーション同調度合を用いてユーザに対して行うべきロボットアクションコマンドを探索し、探索されたロボットアクションコマンドに基づいて出力部5を制御する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人間とコミュニケーションを図るロボットシステム、そのロボットシステムを用いたコミュニケーション活性化方法、及びそのロボットシステムを制御するコンピュータに実行させるプログラムに関する。
【背景技術】
【0002】
一般に、会話によるコミュニケーションを自然なものとするためには、音声情報(バーバル情報)に加え、相手の視線、ジェスチャ、頷き動作をはじめとする音声以外の情報(ノンバーバル情報)が必要となる。発話に関するリズム、タイミング、配分、強弱などのバーバル情報と、相手の視線、呼吸、心拍、ジェスチャ、動作、頷き、相槌、瞬きなどのノンバーバル情報とを、両者が五感で感じとり、それに反応して自らの動作のリズム、タイミング、配分、強弱を調整することにより、お互いの身体リズム(コミュニケーションリズム)を共有してはじめて、コミュニケーションを自然なものとすることができる。
【0003】
このような相手のバーバル情報及びノンバーバル情報を五感で感じとり、それらの反応に応答する行動をとることをインタラクション行動という。このインタラクション行動により、コミュニケーションリズムを共有することを、コミュニケーション同調という。また、コミュニケーション同調により会話に引き込まれていく現象を、引込現象という。
【0004】
近年、人間との間で、会話などのコミュニケーションを図ることができるロボットシステムが登場している。人間とロボットシステムとの間のコミュニケーションにおいても、この引込現象を発現させることが、そのコミュニケーションを活性化させるための重要なポイントとなる。このような背景から、ロボットとユーザとのコミュニケーションや、ロボットを介在させたユーザ間のコミュニケーションにおいて、引込現象の発現につながる種々の技術が、開示されている(例えば、特許文献1〜6参照)。
【0005】
特許文献1に記載の身体性メディア通信システムは、時間的または空間的に隔てられた通信相手との親密なコミュニケーションを実現するために、それぞれの通信端末の画面上に両者の疑似人格ロボットを表示させる。疑似人格ロボットは、両者の音声情報や特定動作情報に基づいて動作する。これにより、空間を共有する感覚を両者に与えることができるようになる。
【0006】
特許文献2に記載の身体的引き込み方法及びシステムは、話し手と聞き手の間において、話し手または聞き手に視線の切り替えを要求することなく、それぞれの触覚を介してノンバーバル情報を同時に与える。これにより、お互いのコミュニケーションリズムを共有することができるようになる。また、特許文献3では、上記特許文献2に開示された身体的引き込み方法及びシステムを、プレゼンテーションなどの聞き手が不特定多数である場合に適用したものが開示されている。
【0007】
特許文献4に記載の自動応答玩具は、ユーザの音声の大きさや、ユーザの顔の動きの大きさ、ユーザの頷きのタイミング等の外部からの刺激に基づいて玩具の感情を決定する。例えば、この玩具は、ユーザの頷きのタイミングが検出された回数が多ければ、話が弾んでいると解釈し、そのときの感情を「幸福」とする。この玩具は、決定された感情に応じた応答動作(インタラクション行動)を行う。
【0008】
特許文献5に記載の意思伝達装置は、音声送受信部と、共用ロボットと、聞き手制御部及び話し手制御部とから構成されている。音声送受信部は、会話等の音声信号を送受信し、共用ロボットは、この音声信号に応答して頭の頷き動作、口の開閉動作、目の瞬き動作、又は身体の身振り動作の挙動をする。聞き手制御部は、送信部を通じて送信される音声信号から聞き手としての共用ロボットの挙動を決定してこの共用ロボットを作動させる。そして、話し手制御部は、受信部で受信した音声信号から話し手としての共用ロボットの挙動を決定してこの共用ロボットを作動させる。
【0009】
特許文献6に記載のリズム制御対話装置は、データ入力手段からの音声信号・身振りの時刻情報を含む複数の入力データを認識する複数チャネルの認識手段と、時刻情報を出力する時刻付与手段と、認識手段から出力される認識結果を処理してユーザの対話のリズムを検出するリズム検出手段と、リズムの覆歴を格納する覆歴格納手段と、リズム検出手段により認識されたリズムに基づいて対話を進める対話管理手段と、出力データを出力する出力手段から構成されている。応答内容は、出力手段によりユーザに伝えられる。
【0010】
【特許文献1】特開2003−108502号公報
【特許文献2】特開2005−251133号公報
【特許文献3】特開2005−250421号公報
【特許文献4】特開2002−239256号公報
【特許文献5】特開2000−349920号公報
【特許文献6】特開平10−111786号公報
【発明の開示】
【発明が解決しようとする課題】
【0011】
上記6つの技術はいずれも、コミュニケーションをする相手のバーバル情報及びノンバーバル情報を検出し(例えば、ユーザもロボットも音声を発しない無音区間などを検出し)、検出された情報に基づいてロボットにインタラクション行動(インタラクション動作)を行わせることにより、ユーザとロボットとの間でコミュニケーションリズムを共有させて、引込現象を発現させることを期待するものである。
【0012】
コミュニケーションの取り方は、個人個人によって様々であるが、どのような人でも、相手との同調度合に応じてコミュニケーションの取り方を微妙に変えていくのが一般的である。したがって、引込現象の発現確率を高めるには、コミュニケーションの発展段階に応じて、インタラクション動作を変更する動的な誘発戦略が必要となる。しかしながら、上記6つの技術では、そのような動的な誘発戦略の下でコミュニケーションを行うのは困難である。
【0013】
本発明は、上記事情に鑑みてなされたもので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができるロボットシステム、コミュニケーション活性化方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0014】
上記目的を達成するために、本発明の第1の観点に係るロボットシステムは、
複数人のユーザに対するインタラクション動作を行う出力部と、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する認識部と、
前記コミュニケーションリズムに基づいて、前記ユーザ間の同調度合を算出する同調度合算出部と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースと、
前記ルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御するインタラクション制御部と、を備える。
【0015】
本発明の第2の観点に係るコミュニケーション活性化方法は、
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを用いたコミュニケーション活性化方法であって、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の工程と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の工程と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の工程と、を含む。
【0016】
本発明の第3の観点に係るプログラムは、
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを制御するコンピュータに、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の手順と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の手順と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の手順と、を実行させる。
【発明の効果】
【0017】
本発明によれば、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【発明を実施するための最良の形態】
【0018】
本発明を実施するための最良の形態について図面を参照して詳細に説明する。以下に示す本発明の各実施形態に係るロボットシステムは、複数人のユーザのコミュニケーションリズムを認識し、複数人のユーザに対するインタラクション動作を行うことにより、ロボットとユーザとのコミュニケーション同調を実現し、引込現象を誘発させるものである。
【0019】
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1には、本実施形態に係るロボットシステム100の概略的な構成が示されている。図1に示されるように、ロボットシステム100は、コミュニケーション場認識部1と、コミュニケーション同調度合算出部2と、インタラクション制御部3と、ソーシャルインタラクションルールデータベース(以下、「SIRDB」と略述する)4と、出力部5と、を備えている。
【0020】
コミュニケーション場認識部1は、不図示のマイク、カメラ、生体センサなどの各種センサを有している。マイクは、ロボットシステム100のコミュニケーション相手となるユーザの音声を入力する。カメラは、そのユーザを撮像する。生体センサは、そのユーザの脈拍などの生体情報を検出する。
【0021】
コミュニケーション場認識部1は、これらのセンサから得られた音声情報、画像情報、生体情報、すなわちバーバル情報及びノンバーバル情報に基づいて、ユーザの発話パワーやその周期などの発話データ、ユーザのジェスチャ・動作・頷き・相槌といった身体動作データや、ユーザの視線・呼吸・心拍・瞬きといった生体センシングデータなどを認識する。これら発話データ、身体動作データ、生体センシングデータなどを、コミュニケーションリズム(モーダル情報)という。認識されたコミュニケーションリズムは、コミュニケーション同調度合算出部2に出力される。
【0022】
コミュニケーション同調度合算出部2は、コミュニケーション場認識部1から出力されたコミュニケーションリズム(複数のモーダル情報)に基づいて、コミュニケーション同調度合を算出する。コミュニケーション同調度合は、ユーザとのコミュニケーションリズムの共有状態の高さを示す指標値であり、この値が大きければ大きいほど、ユーザに引込現象が発現しやすくなる。コミュニケーション同調度合は、例えば、ユーザの発話パワーの平均値と、ユーザの視線のやりとりの回数、頷き回数等の線形加重和、すなわち各種コミュニケーションリズムの線形加重和とすることができる。算出されたコミュニケーション同調度合は、インタラクション制御部3に出力される。
【0023】
インタラクション制御部3には、コミュニケーション同調度合算出部2から算出されたコミュニケーションリズムの他に、コミュニケーション場認識部1から出力されたコミュニケーションリズムも入力されている。インタラクション制御部3は、入力されたコミュニケーションリズムとコミュニケーション同調度合とに基づいて、SIRDB4を参照する。
【0024】
SIRDB4には、コミュニケーションリズムとコミュニケーション同調度合とに応じて、後述する出力部5がユーザに対して行うべきインタラクション行動に関するルール(インタラクションルール)が蓄積されている。インタラクションルールは、通常、人間同士のコミュニケーションにおいて、人間が感じ取るバーバル情報及びノンバーバル情報に対して人間がとる行動と同じ行動を、可能な限りとるように構築されている。より具体的には、このインタラクションルールは、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下に構築されている。このインタラクションルールによれば、コミュニケーション同調度合が低い状態と高い状態とでは、コミュニケーションリズムが同じであっても、インタラクション動作が異なるようになる。
【0025】
インタラクション制御部3は、このインタラクションルールにしたがって、入力されたコミュニケーションリズムとコミュニケーション同調度合とに基づいて、ユーザに対して行うべき動作に対応する動作指令であるロボットアクションコマンドを決定する。決定されたロボットアクションコマンドは、出力部5に出力される。
【0026】
出力部5は、ディスプレイ又は人型のロボット本体である。ディスプレイである場合には、その画像にCG(コンピュータグラフィックス)により作成された人物像(エージェント)が表示されたものを採用することができる。エージェント又は人型のロボットは、実際の人間を模して、顔、手、胴体などを有しており、それらを動かせるようになっている。また、その顔では、目、鼻、口などを動かせるようになっている。出力部5は、顔、手、胴体、さらには、目、鼻、口などを動かすことにより、ロボットアクション(インタラクション動作)を実現する。このようなインタラクション動作には、例えば、視線の変更・呼吸・心拍・瞬き・ジェスチャ・動作・頷き・相槌がある。
【0027】
また、出力部5は、ロボットの音声を出力するためのスピーカ(不図示)も有しており、表示された口を動かしつつ、スピーカから音声を出力することにより、発話が可能となっている。このように、出力部5は、人間の動作に近い各種動作を行うことができるようになっているのが望ましい。
【0028】
出力部5は、インタラクション制御部3の制御の下、入力されたロボットアクションコマンドに従ってインタラクション動作を実際に行う。
【0029】
ロボットシステム100は、図2のコミュニケーション処理に示されるように、コミュニケーション場認識部1によるコミュニケーションリズムの認識処理(ステップS10)→コミュニケーション同調度合算出部2によるコミュニケーション同調度合の算出(ステップS12)→インタラクション制御部3によるロボットアクションコマンドの決定(ステップS14)→出力部5によるインタラクション動作(ステップS16)を、この順に行う。
【0030】
ユーザは、このロボットアクションを見ながら、さらに、ロボットシステム100に対して発話やジェスチャなどのコミュニケーションを継続する。これに対し、ロボットシステム100は、コミュニケーション場認識部1におけるコミュニケーションリズムの認識(ステップS10)、コミュニケーション同調度合算出部2におけるコミュニケーション同調度合の算出(ステップS12)、インタラクション制御部3におけるロボットアクションコマンドの決定(ステップS14)、出力部5におけるインタラクション動作(ステップS16)を繰り返す。ユーザは、このインタラクション動作を見ながら、さらに、ロボットシステム100に対して発話やジェスチャなどのコミュニケーションを継続する。
【0031】
ユーザと、ロボットシステム100とは、このような動作を繰り返しつつ、会話などのコミュニケーションを継続する。
【0032】
コミュニケーションの継続の結果、ユーザとロボットシステム100との間で、コミュニケーションリズムが共有されるようになり、コミュニケーション同調度合が高まる。この結果、ユーザに引込現象が誘発される。
【0033】
このように、本実施形態に係るロボットシステム100は、バーバル情報及びノンバーバル情報(複数のモーダル情報)に基づいて、コミュニケーションリズムを認識し、そのコミュニケーションリズムに基づいてコミュニケーション同調度合を直接的に求めている。また、このロボットシステム100では、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略に基づいて構築されたインタラクションルールに従って、コミュニケーション同調度合に基づいてインタラクション動作を行う。このように、ロボットシステム100は、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下でユーザとコミュニケーションを図ることができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0034】
(第2の実施形態)
本発明の第2の実施形態について説明する。図3には、本実施形態に係るロボットシステム101の概略的な構成が示されている。図3に示されるように、本実施形態に係るロボットシステム101は、コミュニケーションモード決定部6をさらに備えている点と、SIRDB4の代わりに、複数のSIRDB41、42、43、…を備えている点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。そこで、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0035】
コミュニケーションモード決定部6は、コミュニケーション同調度合に基づいて、コミュニケーションモードを決定する。コミュニケーションモードとは、コミュニケーション場の状態を示すものである。コミュニケーションモードは、例えば、初対面状態、話題提供状態、話題盛り上げ状態など、コミュニケーション同調度合が異なる種々のモードを設定することができる。このようなコミュニケーションモードを設定することによって、ロボットシステム101は、コミュニケーション同調度合を効率よく高め、引込現象を誘発しやすくするために、インタラクションルールをコミュニケーションモードに応じて変更し、コミュニケーションモードに応じて出力部5の制御状態を計画的に変更するタスクを構築することができる。これにより、引込現象に対する動的な誘発戦略を立てやすくなる。
【0036】
SIRDB41、42、43…は、コミュニケーションモードの数だけ用意されており、それぞれが、いずれかのコミュニケーションモードに対応している。
【0037】
コミュニケーションモード決定部6は、コミュニケーション同調度合算出部2から出力されたコミュニケーション同調度合に基づいて、現在のコミュニケーションモードを決定し、インタラクション制御部3に出力する。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、決定されたコミュニケーションモードに対応するSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照して、そのSIRDBに記憶されたインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときのコミュニケーションモードに応じたインタラクション動作を行う。
【0038】
このように、本実施形態によれば、コミュニケーション場の状態に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0039】
(第3の実施形態)
本発明の第3の実施形態について説明する。図4には、本実施形態に係るロボットシステム102の概略的な構成が示されている。ロボットシステム102は、ユーザ内部状態推定部7をさらに備える点と、SIRDB4の代わりに複数のSIRDB41、42、43…を備えている点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0040】
図4に示されるように、ユーザ内部状態推定部7は、コミュニケーション場認識部1から出力されたコミュニケーションリズムを入力する。ユーザ内部状態推定部7は、コミュニケーションリズムに基づいて、ユーザの内部状態を推定する。ユーザ内部状態とは、ユーザの緊張状態や快状態といった、ユーザの精神状態のことである。ユーザの内部状態は、例えば、(緊張、快)、(緊張、不快)、(リラックス、快)、(リラックス、不快)などの状態に分けることができる。
【0041】
SIRDB41、42、43…は、ユーザの内部状態の数だけ用意されており、それぞれが、いずれかのユーザの内部状態に対応している。例えば、(緊張、快)、(緊張、不快)、(リラックス、快)などのそれぞれの状態についてSIBDBを1つずつ用意することができる。
【0042】
ユーザ内部状態推定部7は、ユーザ内部状態の推定結果をインタラクション制御部3へ出力する。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザの内部状態に応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときのユーザの内部状態に応じたインタラクション動作を行う。
【0043】
このように、本実施形態によれば、ユーザの内部状態に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0044】
(第4の実施形態)
本発明の第4の実施形態について説明する。図5には、本実施形態に係るロボットシステム103の概略的な構成が示されている。ロボットシステム103は、発話マインド推定部8をさらに備える点と、インタラクション制御部3の動作とが、上記第3の実施形態に係るロボットシステム102と異なっており、その他の点は同じである。したがって、本実施形態では、上記第3の実施形態と重複する構成要素については、図4と同一の符号を付し、詳細な説明を省略する。
【0045】
図5に示されるように、発話マインド推定部8は、ユーザ内部状態推定部7から出力されるユーザの内部状態を入力する。発話マインド推定部8は、このユーザの内部状態に基づいて、ユーザが発話しようとする意思があるかないかを示す指標値(以下、「発話マインド」と呼ぶ)を、推定する。
【0046】
SIRDB41、42、43…は、発話マインドが示す値の数だけ用意されており、それぞれが、いずれかの発話マインドの値に対応している。
【0047】
発話マインド推定部8は、ユーザ内部状態推定部7から出力されたユーザの内部状態に基づいて、発話マインドを推定する。発話マインドは、一般的に、ユーザがロボットシステム103(出力部5)に視線を向けて集中しているときや、緊張状態が高いときに、その値が高くなるように設定されている。例えば、発話しようとしていないとみられるときにはその値を0とし、発話しようとしているとみられるときには、その値を1とすることができる。
【0048】
発話マインドの推定結果は、インタラクション制御部3に出力される。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザの発話マインドに応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときの発話マインドに応じたインタラクション動作を行う。
【0049】
このように、本実施形態によれば、ユーザの発話マインドに応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0050】
(第5の実施形態)
本発明の第5の実施形態について説明する。このシステムは、複数のユーザを対象とし、ユーザ間のコミュニケーションの仲立ちをするために特に用いられる。図6には、本実施形態に係るロボットシステム104の概略的な構成が示されている。ロボットシステム104は、ユーザ間情報推定部9をさらに備える点と、インタラクション制御部3の動作とが、上記第3の実施形態に係るロボットシステム102と異なっており、その他の点は同じである。したがって、本実施形態では、上記第3の実施形態と重複する構成要素については、図3と同一の符号を付し、詳細な説明を省略する。
【0051】
図6に示されるように、ユーザ間情報推定部9は、ユーザ内部状態推定部7から出力されるユーザの内部状態を入力する。ユーザ間情報推定部9は、ユーザの内部状態に基づいて、ユーザ間の社会的関係性を示すユーザ間情報を推定する。このようなユーザ間情報としては、例えば、ユーザ同士が親しい間柄であるか否かを示す指標値がある。例えば、ユーザが非常にリラックスしている場合には、相手が親しい間柄であると判断することができる。
【0052】
SIRDB41、42、43…は、ユーザ間情報に応じた数だけ用意されており、それぞれが、いずれかのユーザ間情報の状態に対応している。
【0053】
ユーザ間情報の推定結果は、インタラクション制御部3に出力される。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザ間情報に応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、インタラクション動作を決定する。出力部5は、そのロボットアクションコマンドに従って、そのときの発話マインドに応じたインタラクション動作を行う。
【0054】
このように、本実施形態によれば、ユーザ同士の関係に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0055】
(第6の実施形態)
本発明の第6の実施形態について説明する。図7には、本実施形態に係るロボットシステム105の概略的な構成が示されている。ロボットシステム105は、エピソード蓄積部10と、エピソード記憶データベース(以下、「ESDB」と略述する)11と、エピソード学習部12と、をさらに備える点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0056】
図7に示されるように、エピソード蓄積部10は、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合と、インタラクション制御部3から出力されるロボットアクションコマンドとを入力する。エピソード蓄積部10は、コミュニケーションリズムと、コミュニケーション同調度合と、ロボットアクションコマンドとを、ESDB11に蓄積する。
【0057】
ESDB11は、コミュニケーションリズム及びコミュニケーション同調度合と、ロボットアクションコマンドとの関係を記憶するデータベースである。より具体的には、ESDB11は、コミュニケーションリズム及びコミュニケーション同調度合と、それらに基づいて探索されたロボットアクションコマンドと、を関連付けて記憶する。さらに、ESDB11は、その動作命令に基づくインタラクション制御部3の下で行われた出力部5のインタラクション動作に対するユーザの反応としてのコミュニケーションリズム及びコミュニケーション同調度合と、を関連付けて記憶する。
【0058】
例えば、ある時刻t(tは、任意の正の実数)におけるインタラクション動作について考える。前提として、ロボットシステム105では、時刻tにおけるインタラクション動作は、時刻t−b(bは、正の実数)におけるコミュニケーションリズム及びコミュニケーション同調度合に基づいて決定されたロボットアクションコマンドによるものであるとする。また、時刻tにおけるインタラクション動作に対するユーザの反応は、時刻t+a(aは、正の実数)におけるコミュニケーション場にて認識されるものであるとする。この場合、ESDB11には、時刻tにおけるロボットアクションコマンドと、時刻t+aにおけるコミュニケーションリズム及びコミュニケーション同調度合と、時刻t−bにおけるコミュニケーションリズム及びコミュニケーション同調度合とが、関連づけて記憶される。
【0059】
エピソード学習部12は、ESDB11を参照し、SIRDB4に記憶されたインタラクションルールを調整する。例えば、エピソード学習部12は、時刻tのロボットアクションコマンドに関連づけられた時刻t−bにおけるコミュニケーション同調度合に対して、時刻t+aにおけるコミュニケーション同調度合が低下している場合には、他のインタラクション動作が決定されるように、SIRDB4のインタラクションルールを変更する。
【0060】
エピソード学習部12は、このように、SIRDB4のインタラクションルールを繰り返し変更する。この繰り返しの結果、コミュニケーションリズム及びコミュニケーション同調度合と、インタラクション動作との関係が学習され、コミュニケーション同調度合が効率良く高くなるように、SIRDB4におけるインタラクションルールが最適化される。
【0061】
なお、ユーザの緊張状態が推定可能であれば、エピソード学習部12による学習が、ユーザの緊張状態が低下しているか否かを基準として行われるようにしてもよい。
【0062】
このように、本実施形態によれば、実際のコミュニケーションの実績に基づいてインタラクションルールが最適化され、最適化されたインタラクションルールの下でコミュニケーションが行われる。これにより、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0063】
(第7の実施形態)
本発明の第7の実施形態について説明する。図8には、本実施形態に係るロボットシステム106の概略的な構成が示されている。ロボットシステム106は、ユーザパーソナリティ情報データベース(以下、「UPIDB」と略述する)13をさらに備える点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0064】
UPIDB13には、ユーザの個人情報が蓄えられている。このような情報には、ユーザ個人の氏名、出身地、職歴、趣味といった個人情報や、ユーザの社会的スキルや心理分析結果といったユーザの能力や性格に関する情報などが含まれる。UPIDB13に蓄えられた情報は、インタラクション制御部3によって参照され、インタラクション制御部3がインタラクション動作を決定するために用いられる。
【0065】
SIRDB4におけるインタラクションルールは、ユーザの個人情報に応じてインタラクション動作が異なるようなルールとなっており、コミュニケーションリズム及びコミュニケーション同調度合が同じであっても、ユーザが異なっていれば、その結果行われるインタラクション動作は異なったものとなる可能性がある。
【0066】
このように、本実施形態によれば、ユーザの個人情報に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0067】
次に、本発明のさらなる詳細な実施例について図面を参照して説明する。
(第1の実施例)
まず、本発明の第1の実施例について説明する。本実施例は、上記第2の実施形態に係るロボットシステム101(図3参照)に対応するものである。
【0068】
前提として、本実施例に係るロボットシステム101が適用されるコミュニケーション場について説明する。図9(A)に示されるように、このコミュニケーション場では、2人のユーザH1、H2が、テーブル30を挟んで向かい合っており、会話できる状態となっている。本実施例に係るロボットシステム101は、このユーザH1、H2のコミュニケーションを円滑に進めるための支援を行う。
【0069】
このユーザH1、H2は初対面である。したがって、本実施例で、ロボットシステム101により実行されるのは、初対面紹介タスクともいうべきものである。
【0070】
ロボットシステム101の出力部5は、ディスプレイである。この出力部5の画面上には、図9(B)に示されるような、人物像であるエージェントRが表示されている。このエージェントRは、CG(コンピュータグラフィックス)によって、様々なインタラクション動作を行うことができるようになっている。ユーザH1、H2は、出力部5の画面上に表示されたエージェントRのインタラクション動作を見ることができる。
【0071】
図9(A)に示されるように、ユーザH1、H2の胸元には、それぞれマイク31が付けられ、その頭頂部には、加速度センサ32が取り付けられている。また、テーブル上には、ユーザH1、H2を撮像するためのカメラ33、34がそれぞれ2台ずつ設置されている。マイク31、加速度センサ32、カメラ33、34によって、コミュニケーション場認識部1の一部が構成されている。
【0072】
本実施例では、コミュニケーション場認識部1は、マイク31の出力に基づいて、ユーザH1、H2の音声データを検出し、加速度センサ32の出力に基づいて、ユーザH1、H2の頷きを検出し、カメラ33、34の出力画像に基づいて、ユーザH1、H2の顔や視線の向きなど、ユーザH1、H2の身体動作を検出する。コミュニケーション場認識部1は、これらのセンシング結果に基づいて、コミュニケーションリズムを認識する。
【0073】
なお、本実施例では、2人のユーザH1、H2の頷き、視線、顔の向き、指示といった基本動作及び発話動作を、以下の関数に基づいて定義する。これらの関数の値は、その関数の右側に記載された動作(上記センシング結果より検出された動作)が行われれば1となり、動作が行われなければ0となる。本実施例では、これらの関数に基づいてコミュニケーションリズムが認識される。
【0074】
・Nod(H1,t):H1が時刻tに頷く。
・Utterance(H1,t):H1が時刻tに発話する。
・Utterance(H1→H2,t):H1がH2に対して時刻tに発話する。
・TerminateUtterance(H1, t):H1が時刻tに発話を終了する。
・Gaze(H1→H2,t):H1がH2に時刻tに視線を向けている。
・Face(H1→H2,t):H1がH2に時刻tに顔を向けている。
・Gaze(H1⇔H2,t):H1とH2が時刻tに同時に視線を向けている(視線一致状態)。
・Face(H1⇔H2,t):H1とH2が時刻tに同時に顔を向けている(対面状態)。
・TurnGaze(R,H1→H2,t):RがH1をH2の方に時刻tに視線を向かせる。
・TurnUtterance(R,H1→H2,t):RがH1をH2の方に時刻tに発話させる。
・Direct(H1→H2,t):H1がH2の方向を時刻tに指示する。
・SilentTime(H1,t):H1の時刻tにおける無音区間
・UtterancePower(H1,t):H1の時刻tにおける発生音の音量。
【0075】
上記各関数の引数は、その動作の主体とその動作が行われた時刻を示す。なお、エージェントRのインタラクション動作についてもこの関数で表現することができる。
【0076】
コミュニケーション場認識部1は、センシング結果に基づいて、上記各関数の値を求め、これらの関数に基づいて、コミュニケーションリズムを認識する。認識されたコミュニケーションリズムは、コミュニケーション同調度合算出部2及びインタラクション制御部3に出力される。
【0077】
コミュニケーション同調度合算出部2は、これらコミュニケーションリズムに基づいて、時刻tにおけるコミュニケーション同調度合としての評価関数Eval(t)を、算出する。コミュニケーション同調度合Eval(t)は、ユーザH1、H2の発話パワーの平均値、視線のやりとりの回数、頷き回数など、コミュニケーションリズムの線形加重和により表されるが、本実施例では、後述する4つのコミュニケーションモードに対応する4つの評価関数Eval(t)[1]〜Eval(t)[4]を算出する。
【0078】
【数1】
ここで、γ、δは、正規化パラメータであり、式(1)と式(3)とで、γ、δの値は異なる。上記式(1)は、エージェントRとユーザH1との間、エージェントRとユーザH2との間で、それぞれの引込現象が発現されたか否かを評価するための評価関数である。上記式(2)は、ユーザH1、H2が向き合って対話を始めたか否かを評価するための評価関数である。上記式(3)、式(4)は、エージェントRと2人のユーザH1、H2のスムーズな会話が確立されたか否かを評価するための評価関数である。
【0079】
なお、後述するように、コミュニケーションモードが話題提供状態(話題を提供する会話の初期段階)となっているときには、ユーザH1、H2のお互いの反応を、詳細にチェックする必要があるため、コミュニケーション同調度合算出部2は、コミュニケーション同調度合Eval(t)[2]のほか、次式で示されるエージェントRがユーザH2の話題情報をユーザH1に知らせたときの反応度React(H2→H1,t)と、ユーザH1の話題情報をユーザH2に知らせたときのユーザH2の反応度React(H1→H2,t)とを、同じくコミュニケーション同調度合として算出する。
【0080】
【数2】
ここで、α、βは、正規化パラメータである。
React(H2→H1,t)、React(H1→H2,t)は、エージェントRによる話題提供が、ユーザH1、H2のコミュニケーションのきっかけとして成り得たか否かを評価するための評価関数である。
【0081】
算出されたコミュニケーション同調度合Eval(t)は、コミュニケーションモード決定部6に出力される。
【0082】
本実施例では、5つのコミュニケーションモードが用意されている。図10には、5つのコミュニケーションモードの遷移図が示されている。この遷移図によって初対面紹介タスクが表現される。図10に示されるように、本実施例では、初期状態に加え、挨拶/初対面状態、話題提供状態、話題掘り下げ状態、話題盛り上げ状態の4つのコミュニケーションモードが用意されている。
【0083】
初期状態は、エージェントRと、初対面である2人のユーザH1、H2が、同じコミュニケーション場に集まる前のコミュニケーションモードである。
【0084】
挨拶/初対面状態は、初対面である2人のユーザH1、H2が互いに挨拶をかわし、会話を開始する際のコミュニケーションモードである。この状態では、コミュニケーション同調度合は低く、ほぼ0に近い状態である。
【0085】
話題提供状態は、2人のユーザH1、H2が向き合って対話させることを目的として話題を提供し、会話の端緒を作り出すときの状態である。この状態では、挨拶/初対面状態よりも、コミュニケーション同調度合が少し高まっている。
【0086】
話題掘り下げ状態は、エージェントRと2人のユーザH1、H2のスムーズな会話の発生を目指すために、提供された話題を掘り下げていくときの状態である。この状態では、話題提供状態よりも、コミュニケーション同調度合が高まっている。
【0087】
話題盛り上げ状態は、掘り下げられた話題を掘り下げていった結果、コミュニケーション同調度合が極めて高くなり、コミュニケーションリズムが共有化された状態である。
【0088】
図10に示されるように、コミュニケーションモードは、コミュニケーション同調度合が高まるにつれて、初期状態から挨拶/初対面状態に遷移し、さらに話題提供状態へと遷移する。その後、コミュニケーションモードは、コミュニケーション同調度合に応じて、話題提供状態と、話題掘り下げ状態と、話題盛り上げ状態との間を、遷移する。
【0089】
初対面紹介タスクにおいて、最も望ましい流れは、コミュニケーションモードが、挨拶/初対面状態→話題提供状態→話題掘り下げ状態→話題盛り上げ状態と遷移する流れである。話題盛り上げ状態となり、その状態でタスク終了条件が満たされると、ロボットシステム101は、その役割が完了したものとして、初対面紹介タスクを終了させる。
【0090】
コミュニケーションモード決定部6の動作について説明する。2人のユーザH1、H2が集まり、カメラ33、34により、両者の存在が検出されると、コミュニケーションモード決定部6は、コミュニケーションモードを、挨拶/初対面状態へと遷移させる。
【0091】
その後、コミュニケーションモード決定部6は、コミュニケーション同調度合Eval(t)[1]〜Eval(t)[4]を、所定の閾値Th_Eval[1]、Th_Eval[2]、Th_Eval[3]、Th_Eval[4]と比較して、その比較結果に基づいて、コミュニケーションモードを決定する。これにより、コミュニケーションモードが図10に示されるように遷移する。なお、それぞれの閾値の関係は、Th_Eval[4]>Th_Eval[3]>Th_Eval[2]>Th_Eval[1]となっている。
【0092】
挨拶/初対面状態から、話題提供状態への遷移条件は、以下の式で示される。
Eval(t)[1]=1(=Th_Eval[1]) …(7)
この遷移条件が満たされたということは、上記式(1)に示されるように、エージェントRとユーザH1との間、エージェントRとユーザH2との間で、それぞれの引込現象が発現したことを示している。
【0093】
コミュニケーションモード決定部6は、React(H2→H1)及びReact(H1→H2)を、一定閾値Th_Reactと比較する。話題提供状態から話題掘り下げ状態への遷移条件は、以下の式のようになる。
React(H2→H1)∧React(H1→H2)≧Th_ReactかつEval(t)[2]≧Th_Eval[2] …(8)
【0094】
この遷移条件が満たされたということは、上記式(2)、式(5)、式(6)に示されるように、エージェントRによる話題提供が成功し、2人のユーザH1、H2が向き合って対話を始めたことを示している。
【0095】
話題掘り下げ状態から話題盛り上げ状態への遷移条件は、以下の式のようになる。
Eval(t)[3]≧Th_Eval[3] …(9)
【0096】
この遷移条件が満たされたということは、上記式(3)に示されるように、エージェントRと2人のユーザH1、H2のスムーズな会話が確立されたことを示している。
【0097】
初対面紹介タスク終了条件は、以下の式のようになる。
Eval(t)[4]≧Th_Eval[4] …(10)
コミュニケーションモード決定部6は、このように、遷移条件が満たされたか否かを判定することにより、コミュニケーションモードを遷移させる。
【0098】
続いて、インタラクション制御部3の動作について説明する。インタラクション制御部3は、決定されたコミュニケーションモードに対応するSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBのインタラクションルールに従って、出力部5のインタラクション動作を制御する。
【0099】
挨拶/初対面状態に対応するSIRDBでは、エージェントRとユーザH1、エージェントRとユーザH2のスムーズな会話の発生を目指してエージェントRが各種インタラクション動作を行うようなインタラクションルールが定められている。より具体的には、このインタラクションルールは、エージェントRが、自発的にユーザH1、H2に話しかけるなどの発話誘導などを行い、会話リズムを生成させるように定められている。エージェントRがこのような行動をとることより、エージェントRとユーザH1、エージェントRとユーザH2における1対1の引込現象が発現しやすくなり、コミュニケーションモードを話題提供状態に遷移させやすくなる。
【0100】
話題提供状態に対応するSIRDBでは、エージェントRが、ユーザH1の情報をユーザH2に与えるとともに、ユーザH2の情報をユーザH1に伝えるように、インタラクションルールが定められている。さらに、このSIRDBでは、同じ話題について両者に意見を述べさせたり、エージェントRに視線誘導を行わせたりして、向かい合って対話させるように誘導するようなインタラクションルールが定められている。この誘導により、初対面のユーザ間で起こる「会話のきっかけが無くコミュニケーションが滞る問題」を解決することができるようになり、コミュニケーションモードを話題掘り下げ状態に遷移させやすくなる。
【0101】
話題掘り下げ状態に対応するSIRDBでは、エージェントRが質問を投げかけてユーザH1、H2が対話している話題内容に参入するようなインタラクションルールが定められている。エージェントRがこのような行動をとることより、コミュニケーションモードを、話題盛り上げ状態に遷移させやすくなる。
【0102】
話題盛り上げ状態では、エージェントRが、適当に頷いたり、相槌を打ったりするように、聞き役としてその場に同調するようなインタラクションルールが定められている。これにより、すでに話題が盛り上がっている状態の両者に対し、エージェントRが過度に干渉しないような配慮がなされている。
【0103】
図11には、インタラクションルールの基本例が示されている。図11に示されるインタラクションルールは、以下の3つのルールで構成されている。
・[Rule1]頷き同調ルール:相手が頷けば即応的に頷く。
・[Rule2]発話タイミングルール:無音区間が一定時間(0.45秒)以上続き、最後の音声データが、文末として判断されるならば発話する。
・[Rule3]相手の発話に応じた頷き・発話タイミングルール:
「無音区間が一定時間(0.45秒)以上続き,文末ではない場合に20%の確率で頷く」または「無音区間が一定時間(0.45秒)以上続き,文末ではない場合でも80%の確率で発話する」。
ここで、文末であるか否かの判断は、最後の音声データに対して形態素解析を実行し、助詞、終助詞など、文末によく現れる品詞であるか否かを検出することより行うことが可能である。
【0104】
出力部5のエージェントRは、ロボットアクションコマンドが入力されなかった場合には、図12(A)に示されるニュートラルポジションとなっている。インタラクション制御部3からロボットアクションコマンドが出力されると、エージェントRは、図12(B)〜図12(D)に示されるような発話、頷き、ジェスチャのいずれかのインタラクション動作を行う。
【0105】
図13(A)〜図13(E)には、頷きの有無と、発話量と、視線一致度と、コミュニケーション同調度合と、コミュニケーションモードの時間変化の様子が示されている。図13(E)の(1)〜(4)は、それぞれ、挨拶/初対面状態、話題提供状態、話題掘り下げ状態、話題盛り上げ状態を示している。図13(A)〜図13(E)に総合的に示されるように、時間が経過するにつれて、頷きの回数が増えていき、発話パワーが大きくなり、視線が一致する頻度が増えている。また、それらが増加するにつれてコミュニケーション同調度合が次第に大きくなっている。これにより、コミュニケーションモードが、挨拶/初対面状態→話題提供状態→話題掘り下げ状態→話題盛り上げ状態と遷移している。
【0106】
以上述べたように、本実施例に係るロボットシステム101では、コミュニケーションリズムに基づいてコミュニケーション同調度合が算出され、コミュニケーション同調度合に応じてコミュニケーションモードを遷移させるので、初対面である2人のユーザH1、H2のコミュニケーションをより活性化することができる。
【0107】
(第2の実施例)
次に、本発明の第2の実施例について説明する。本実施例は、上記第3の実施形態に係るロボットシステム102に対応するものである。
【0108】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0109】
上記第3の実施形態で説明したように、ロボットシステム102を構成するユーザ内部状態推定部7は、コミュニケーションリズムに基づいて、ユーザH1、H2の内部状態を推定する。本実施例では、ユーザ内部状態推定部7は、ユーザH1、H2の内部状態として、すなわち緊張状態(緊張しているか、リラックスしているかの状態)や快状態(快であるか不快であるかの状態)を推定する。コミュニケーションリズム、すなわちユーザH1、H2の視線、瞬き、表情に関するセンシングデータには、センシングエラーが確率的に含まれるのが一般的である。このことから、ユーザH1、H2の内部状態の推定には、図14(A)に示されるようなダイナミックベイジアンネットワークによるユーザの内面状態の確率的状態遷移モデルが用いられる。
【0110】
まず、緊張状態の推定方法について説明する。一般的に、視線一致の頻度が少なく、かつ、瞬きの頻度が増えれば、ユーザH1、H2の緊張状態は、時間の経過とともに上昇していくものと推定される。そこで、本実施例では、ユーザ内部状態推定部7は、視線一致が検出される検出確率p1(視線一致ありの検出確率p1、視線一致なしの検出確率1−p1)と、瞬きの回数がある閾値以上であるか否かの検出確率p2(瞬きありの検出確率p2、瞬きなしの検出確率1−p2)とに基づいて、ユーザの緊張状態(緊張度q1、リラックス度q2)の時間変化を、所定の時間間隔(…、t−1、t、…)で算出する。
【0111】
次に、快状態の推定方法について説明する。ユーザ内部状態推定部7は、快状態を、瞬きの回数がある閾値以上であるか否かの検出確率p2(瞬きありの検出確率p2、瞬きなしの検出確率1−p2)と、表情変化を示す特徴量とに基づいて推定する。ここで、表情変化を示す特徴量としては、図14(B)に示されるようなFACS(顔表情符号化システム)モデルに基づく眉、目、口の位置関係から算出される特徴量F1〜F6が用いられる。本実施例では、カメラ33、34の撮像結果から距離F1〜F6が得られている。例えば、人間が笑う場合には、目・口間の距離F1が短くなると考えられる。ここでは、例えば、この目・口間の距離F1が閾値Th以下である検出確率p3と、距離F1が閾値Thより大きくなる検出確率1−p3とが求められるものとする。
【0112】
ユーザ内部状態推定部7は、瞬きありであるとする検出確率(p2、1−p2)と、表情の特徴量の検出確率(p3、1−p3)との結合確率に基づいて、情動認識の学習を行い、快状態(快状態度q3、不快状態度q4)の時間変化を、所定の時間間隔(…、t−1、t、…)で算出する。
【0113】
なお、視線一致の検出確率p1は、次の第4の実施例における発話マインドの推定において、ユーザの内部状態を示す指標として用いられる。
【0114】
また、本実施例では、インタラクション制御部3によって参照されるルールとして、図11に示されるようなインタラクションルールに加え、エージェントRが2人のユーザH1、H2のいずれかに発話する際に、ユーザ内部状態推定部7から出力される快度合の低いユーザに対して発話するというルールが加えられる。なお、このルールでは、ユーザH1、H2の快度合が同値であった場合は、インタラクション制御部3は、エージェントRが緊張度合の低いユーザに対して発話するように、出力部5を制御する。ユーザH1、H2の快度合が同値であり、かつ、ユーザH1、H2の緊張度合も同値であれば、エージェントRがどちらのユーザに発話するかは、ランダムに決定されるようにすればよい。
【0115】
このように、本実施例では、緊張状態および快状態といったユーザH1、H2の内面状態を考慮してインタラクション動作が行われるので、その動作は、ユーザH1、H2の内部状態に応じて動的に調整されるようになる。初対面であるユーザH1、H2のコミュニケーションをより活性化させることができる。
【0116】
(第3の実施例)
次に、本発明の第3の実施例について説明する。本実施例は、上記第4の実施形態に係るロボットシステム103に対応するものである。
【0117】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0118】
発話マインド推定部8は、ユーザ内部状態推定部7によって推定されたユーザH1、H2の緊張状態及び快状態(図14(A)に示されるモデルで推定された内部状態)に基づいて、発話マインドを推定する。
【0119】
例えば、ユーザH1、H2がエージェントRに対して視線を向けている場合には、p1の確率で発話マインドありとする。また、ユーザの緊張度合がある閾値以上の場合には、q1の確率で発話マインドありとする。さらに、ユーザの快度合がある閾値以上の場合に、はq3の確率で発話マインドありとする。最終的な発話マインドは、これらの確率の結合確率となる。発話マインド推定部8は、インタラクション制御部3に推定された発話マインドを出力する。
【0120】
また、本実施例では、インタラクション制御部3によって参照されるルールとして、図11に示されるようなインタラクションルールに加え、エージェントRが2人のユーザH1、H2のどちらかに発話する際、発話マインド推定部8から出力される発話マインドのあるユーザに対して発話するというルールが加えられる。なお、このルールでは、ユーザH1、H2とも発話マインドがあるか、両者とも発話マインドがない場合であれば、エージェントRがどちらのユーザH1、H2に発話するかはランダムに決定するようにすればよい。
【0121】
このように、本実施例では、ユーザが発話しようとする意思を考慮してエージェントRがユーザH1、H2に発話を行う。このため、ユーザH1、H2の感じる負荷をより少なくし、初対面であるユーザH1、H2のコミュニケーションをより活性化させることができる。
【0122】
(第4の実施例)
次に、本発明の第4の実施例について説明する。本実施例に係るロボットシステムは、上記第5の実施形態に係るロボットシステム104に対応するものである。
【0123】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0124】
ユーザ間情報推定部9は、推定されたユーザH1、H2の緊張度合および快度合に基づいてユーザ間情報を推定する。本実施例では、ユーザH1、H2の緊張度合がともにある閾値以下であり、かつ、ユーザH1、H2の快度合がともにある閾値以上である場合、ユーザの関係は親和的関係であるとし、この場合以外では非親和的関係であるとする。ユーザ間情報推定部9は、このユーザ間情報を、インタラクション制御部3に出力する。この他、ユーザ間情報推定部9は、複数のユーザ間の総コミュニケーション時間などを用いて、ユーザ間情報を定義するようにしてもよい。
【0125】
インタラクション制御部3は、このユーザ情報を考慮して、出力部5を制御する。例えば、本実施例に係るロボットシステムが、上記第2の実施形態に係るロボットシステム101と同様に、コミュニケーションモードを有している場合において、コミュニケーションモードが話題提供状態から話題掘り下げ状態に遷移する際に、ユーザ間情報推定部9から出力されたユーザ間情報が親和的関係であれば、コミュニケーションモード決定部6に、話題掘り下げ状態ではなく話題盛り上げ状態へある一定の確率で遷移させ、話題盛り上げ状態に遷移した場合には、話題盛り上げ状態に対応するインタラクションルールに従って、出力部5を制御するようにしてもよい。
【0126】
このように、本実施例では、ユーザ間の関係が”親和的”であれば、エージェントRがユーザH1、H2のコミュニケーションに水を差すような介入をするのを避けることができるため、より効率的にコミュニケーションを活性化させることができる。
【0127】
(第5の実施例)
次に、本発明の第5の実施例について説明する。本実施例は、上記第6の実施形態に係るロボットシステム105を基本とし、それらの構成に加え、上記第5の実施形態に係るロボットシステム104の構成要素であるユーザ内部状態推定部7とユーザ間情報推定部9とをさらに備えている。すなわち、本実施例のロボットシステムは、ロボットシステム104、105を組み合わせた構成となっている。
【0128】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0129】
ESDB11には、エピソード蓄積部10により、例えば、図15に示されるような情報が時系列(0、1、2、…)で蓄えられている。「ユーザ状態」は、時刻t−bにおけるユーザ内部状態(緊張度合(高、中、低))を示している。「ユーザ間情報」は、時刻t−bにおけるユーザ間の関係性(非親和的関係、親和的関係)を示している。「Rのアクション」は、時刻tにおけるエージェントRのアクションの種別(H1に視線を向ける、H1に氏名を質問する、H1、H2に相槌を打つ、etc)である。「評価」は、時刻t−bのユーザH1、H2の緊張度合に対する、時刻t+aにおけるユーザH1、H2の緊張度合の減少値(緊張度合減少値)のユーザH1、H2の合計値である。
【0130】
エピソード学習部12は、ESDB11を参照して、SIRDB4に記憶されたインタラクションルール、すなわち、コミュニケーションリズム及びコミュニケーション同調度合と、それらに基づく制御の下で出力部5によって行われたインタラクション動作との関係を、ユーザH1、H2の緊張度合が減少するように繰り返し変更する。このようにして、エピソード学習部12は、コミュニケーションリズム及びコミュニケーション同調度合と、インタラクション動作との最適な関係を学習する。これにより、ESDB11に記憶されたインタラクションルールが、コミュニケーション同調度合を効率良く高める方向に調整される。
【0131】
なお、この学習の際、エピソード学習部12は、コミュニケーション同調度合算出部2から出力されたコミュニケーション同調度合に基づいて学習ルールを変更するようにしてもよい。例えば、コミュニケーション同調度合が一定期間以上ある閾値よりも低ければ、最適化の収束の高速化(学習の高速化)を目指し、学習の際に用いられるユーザの緊張度合およびユーザ間情報といったパラメータを一定個数減らすようにすることができる。
【0132】
(第6の実施例)
次に、本発明の第6の実施例について説明する。本実施例は、上記第7の実施形態に係るロボットシステム106に対応するものである。
【0133】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0134】
UPIDB13には、ユーザの氏名、出身地、職歴、趣味といった個人情報およびユーザの社会的スキルや心理分析結果といったユーザの能力や性格に関する情報が予め蓄えられている。UPIDB13に蓄えられた情報は、インタラクション制御部3によって参照され、インタラクション制御部3がインタラクション動作を決定するために利用される。
【0135】
例えば、ユーザH1、H2の趣味に関してエージェントRが質問するといった場合に、ユーザH1、H2のユーザパーソナリティ情報に彼らの趣味の情報が含まれていれば、それらの内容が、発話に反映される。
【0136】
また、ユーザの個人情報は、エージェントRのユーザH1、H2への言葉遣いを決定する際にも参酌される。言葉遣いの社会的スキルの評価指標の1つにJICSがある。例えばJICSの中で、関係調整(上下関係管理)に関するユーザの社会的スキルを用いることでロボットの言葉遣いを調整することができる。
【0137】
例えば、アンケート調査などの結果により、コミュニケーションに参加するユーザの関係調整の度合が既知であるものとし、その度合が、予め、UPIDB13へ蓄えられているものとする。関係調整の度合がある閾値よりも高いユーザは、人間の上下関係に関して意識していると推定することができる。このため、このようなユーザに対しては、インタラクション制御部3は、エージェントRに、発話する場合に敬語を使用させる。一方、関係調整の度合がある閾値よりも低いユーザは、人間の上下関係に関してあまり意識していないと推定することができるため、このようなユーザに対しては、インタラクション制御部3は、エージェントRに、発話する場合に敬語を使用しないようにさせる。
【0138】
このようにすれば、エージェントRとユーザH1、H2との親和性をより高めることができる。
【0139】
また、このような社会的スキルの評価指標の他にも、交流分析における人格に関する理論などを用いて推定されたユーザの性格に関する情報をUPIDB13に格納して、エージェントRのユーザH1、H2に対する発話内容の調整に用いることができる。
【0140】
このような理論では、例えば、人間の性格(人格)が、批判的な親心と、養育的親心と、合理的な大人の心と、無邪気な子供の心と、順応した子供の心との5つに大別されている。この理論では、人格に関するアンケート調査を行えば、5つの人格の中で、どれがその人の中で優位であるかというような傾向を解析することができ、この解析結果に基づいて、その人の人格をある程度推定することができる。
【0141】
例えば、あるユーザに対するアンケート調査の結果、批判的な親心と、順応した子供の心が、他の3つの心の構造に比べ優位であれば、そのユーザの性格は、理屈好きなタイプであると推定される。この場合、このタイプに属するユーザに対する発話内容は、理屈を重視すべきであると考えられる。したがって、このタイプに属するユーザに対しては、エージェントRは、理由をつけてユーザに動作を促すような対話戦略をとるようにする。このようにすれば会話がスムーズに進むようになる。
【0142】
なお、上記第5の実施例にもあるように、ロボットシステムとして、上記各実施形態に係るロボットシステムを組み合わせたものを採用することができる。例えば、コミュニケーションモード、ユーザの内部状態、発話マインド、ユーザ間情報のうちの少なくとも一部の組み合わせについてSIRDBを用意し、その組み合わせ毎にインタラクションルールを用意するようにしてもよい。また、それらの組み合わせに応じてSIRDBを複数備えるシステムにおいて、エピソード学習を行うようにしてもよいし、ユーザの個人情報に基づいて、インタラクション動作を変更するようにしてもよい。
【0143】
また、上記各実施例では、CGモデルのエージェントRにインタラクション動作を行わせたが、出力部5として、各種アクチュエータを備え、ロボットの表情、腕、手、足、体を動かすことができる人型のロボットを用いるようにしてもよい。この場合でも、出力部5では、ロボットの表情を変化させたり、腕、手、足、体が動かしたりして、ロボットの喜怒哀楽といった感情や注意対象をユーザに対して効果的に伝達することができる。
【0144】
この場合、出力部5は、目が点滅する、瞬きする、腕を振る、首を振る、ボディを伸縮する、ボディを振動する、鼓動音を出すといったインタラクション動作を行うようにしてもよい。また、出力部5は、涙を流す、ユーザの足元に擦り寄る、ユーザに近づく、ジャンプするといったインタラクション動作を実行するようにしてもよい。さらに、注意対象の伝達方法として、出力部5は、注意対象を注視する、注意対象を指差しする、注意対象に近づくといったインタラクション動作を行うようにしてもよい。
【0145】
このように、ロボットシステムは、物理的に実体を持っていても良いし、上記各実施例のように、プロジェクタの投影画面やディスプレイに表示される、実体を持たないエージェント型であってもよいし、画面に文字を表示したり、音声を発したりするだけのものであってもよい。要は、ロボットシステムは、発話、身体動作、文字表示の少なくとも一つを含む動作を行えるものであればよい。
【0146】
また、コミュニケーション場認識部1、コミュニケーション同調度合2、インタラクション制御部3など、各ロボットシステムの構成要素を、ハードウエアのみ実現するようにしてもよいが、これらは、ソフトウエアプログラムとハードウエアとの協調動作で実現されるのが一般的である。ソフトウエアプログラムとハードウエアとの協調動作の場合には、ロボットシステム内に設けられたCPUが、同システム内のROM等の記憶装置に格納されたソフトウエアプログラムを実行することにより、各部の機能を実現する。
【0147】
この場合、ロボットシステムとしては、汎用のコンピュータを用いることが可能である。この場合、コンピュータの記憶装置に格納されるソフトウエアプログラムは、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical disc)、フレキシブルディスクなどのコンピュータ読み取り可能な記録媒体に格納して配布され、ロボットシステムにインストールされるようになっていてもよい。また、インターネット等の通信ネットワーク上のサーバ装置に格納された当該プログラムを、当該コンピュータにダウンロードして、ロボットシステムにインストールされるようになっていてもよい。
【図面の簡単な説明】
【0148】
【図1】本発明の第1の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図2】図1のロボットシステムの動作を示すフローチャートである。
【図3】本発明の第2の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図4】本発明の第3の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図5】本発明の第4の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図6】本発明の第5の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図7】本発明の第6の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図8】本発明の第7の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図9】図9(A)は、コミュニケーション場の一例を示す図であり、図9(B)は、エージェントの一例を示す図である。
【図10】コミュニケーションモードの遷移図である。
【図11】インタラクションルールの一例を示す図である。
【図12】図12(A)は、エージェントのニュートラルポジションを示す図であり、図12(B)は、発話動作を示す図であり、図12(C)は、頷き動作を示す図であり、図12(D)は、ジェスチャ動作を示す図である。
【図13】図13(A)は、頷きの有無の時間変化を示すグラフであり、図13(B)は、発話量の時間変化を示すグラフであり、図13(C)は、視線の一致の時間変化を示すグラフであり、図13(D)は、コミュニケーション同調度合の時間変化を示すグラフであり、図13(E)は、コミュニケーションモードの時間変化を示す図である。
【図14】図14(A)は、ユーザの内面状態を示す確率的状態遷移モデルの一例を示す図であり、図14(B)は、FACSモデルに基づく眉、目、口の位置関係から算出される特徴量を説明するための図である。
【図15】エピソード記憶データベースに記憶される情報の一例を示す図である。
【符号の説明】
【0149】
1 コミュニケーション場認識部
2 コミュニケーション同調度合算出部
3 インタラクション制御部
4、41、42、43 ソーシャルインタラクションルールデータベース(SIRDB)
5 出力部
6 コミュニケーションモード決定部
7 ユーザ内部状態推定部
8 発話マインド推定部
9 ユーザ間情報推定部
10 エピソード蓄積部
11 エピソード記憶データベース(ESDB)
12 エピソード学習部
13 ユーザパーソナリティ情報データベース(UPIDB)
30 テーブル
31 マイク
32 加速度センサ
33、34 カメラ
100、101、102、103、104、105、106 ロボットシステム
H1、H2 ユーザ
R エージェント
【技術分野】
【0001】
本発明は、人間とコミュニケーションを図るロボットシステム、そのロボットシステムを用いたコミュニケーション活性化方法、及びそのロボットシステムを制御するコンピュータに実行させるプログラムに関する。
【背景技術】
【0002】
一般に、会話によるコミュニケーションを自然なものとするためには、音声情報(バーバル情報)に加え、相手の視線、ジェスチャ、頷き動作をはじめとする音声以外の情報(ノンバーバル情報)が必要となる。発話に関するリズム、タイミング、配分、強弱などのバーバル情報と、相手の視線、呼吸、心拍、ジェスチャ、動作、頷き、相槌、瞬きなどのノンバーバル情報とを、両者が五感で感じとり、それに反応して自らの動作のリズム、タイミング、配分、強弱を調整することにより、お互いの身体リズム(コミュニケーションリズム)を共有してはじめて、コミュニケーションを自然なものとすることができる。
【0003】
このような相手のバーバル情報及びノンバーバル情報を五感で感じとり、それらの反応に応答する行動をとることをインタラクション行動という。このインタラクション行動により、コミュニケーションリズムを共有することを、コミュニケーション同調という。また、コミュニケーション同調により会話に引き込まれていく現象を、引込現象という。
【0004】
近年、人間との間で、会話などのコミュニケーションを図ることができるロボットシステムが登場している。人間とロボットシステムとの間のコミュニケーションにおいても、この引込現象を発現させることが、そのコミュニケーションを活性化させるための重要なポイントとなる。このような背景から、ロボットとユーザとのコミュニケーションや、ロボットを介在させたユーザ間のコミュニケーションにおいて、引込現象の発現につながる種々の技術が、開示されている(例えば、特許文献1〜6参照)。
【0005】
特許文献1に記載の身体性メディア通信システムは、時間的または空間的に隔てられた通信相手との親密なコミュニケーションを実現するために、それぞれの通信端末の画面上に両者の疑似人格ロボットを表示させる。疑似人格ロボットは、両者の音声情報や特定動作情報に基づいて動作する。これにより、空間を共有する感覚を両者に与えることができるようになる。
【0006】
特許文献2に記載の身体的引き込み方法及びシステムは、話し手と聞き手の間において、話し手または聞き手に視線の切り替えを要求することなく、それぞれの触覚を介してノンバーバル情報を同時に与える。これにより、お互いのコミュニケーションリズムを共有することができるようになる。また、特許文献3では、上記特許文献2に開示された身体的引き込み方法及びシステムを、プレゼンテーションなどの聞き手が不特定多数である場合に適用したものが開示されている。
【0007】
特許文献4に記載の自動応答玩具は、ユーザの音声の大きさや、ユーザの顔の動きの大きさ、ユーザの頷きのタイミング等の外部からの刺激に基づいて玩具の感情を決定する。例えば、この玩具は、ユーザの頷きのタイミングが検出された回数が多ければ、話が弾んでいると解釈し、そのときの感情を「幸福」とする。この玩具は、決定された感情に応じた応答動作(インタラクション行動)を行う。
【0008】
特許文献5に記載の意思伝達装置は、音声送受信部と、共用ロボットと、聞き手制御部及び話し手制御部とから構成されている。音声送受信部は、会話等の音声信号を送受信し、共用ロボットは、この音声信号に応答して頭の頷き動作、口の開閉動作、目の瞬き動作、又は身体の身振り動作の挙動をする。聞き手制御部は、送信部を通じて送信される音声信号から聞き手としての共用ロボットの挙動を決定してこの共用ロボットを作動させる。そして、話し手制御部は、受信部で受信した音声信号から話し手としての共用ロボットの挙動を決定してこの共用ロボットを作動させる。
【0009】
特許文献6に記載のリズム制御対話装置は、データ入力手段からの音声信号・身振りの時刻情報を含む複数の入力データを認識する複数チャネルの認識手段と、時刻情報を出力する時刻付与手段と、認識手段から出力される認識結果を処理してユーザの対話のリズムを検出するリズム検出手段と、リズムの覆歴を格納する覆歴格納手段と、リズム検出手段により認識されたリズムに基づいて対話を進める対話管理手段と、出力データを出力する出力手段から構成されている。応答内容は、出力手段によりユーザに伝えられる。
【0010】
【特許文献1】特開2003−108502号公報
【特許文献2】特開2005−251133号公報
【特許文献3】特開2005−250421号公報
【特許文献4】特開2002−239256号公報
【特許文献5】特開2000−349920号公報
【特許文献6】特開平10−111786号公報
【発明の開示】
【発明が解決しようとする課題】
【0011】
上記6つの技術はいずれも、コミュニケーションをする相手のバーバル情報及びノンバーバル情報を検出し(例えば、ユーザもロボットも音声を発しない無音区間などを検出し)、検出された情報に基づいてロボットにインタラクション行動(インタラクション動作)を行わせることにより、ユーザとロボットとの間でコミュニケーションリズムを共有させて、引込現象を発現させることを期待するものである。
【0012】
コミュニケーションの取り方は、個人個人によって様々であるが、どのような人でも、相手との同調度合に応じてコミュニケーションの取り方を微妙に変えていくのが一般的である。したがって、引込現象の発現確率を高めるには、コミュニケーションの発展段階に応じて、インタラクション動作を変更する動的な誘発戦略が必要となる。しかしながら、上記6つの技術では、そのような動的な誘発戦略の下でコミュニケーションを行うのは困難である。
【0013】
本発明は、上記事情に鑑みてなされたもので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができるロボットシステム、コミュニケーション活性化方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0014】
上記目的を達成するために、本発明の第1の観点に係るロボットシステムは、
複数人のユーザに対するインタラクション動作を行う出力部と、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する認識部と、
前記コミュニケーションリズムに基づいて、前記ユーザ間の同調度合を算出する同調度合算出部と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースと、
前記ルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御するインタラクション制御部と、を備える。
【0015】
本発明の第2の観点に係るコミュニケーション活性化方法は、
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを用いたコミュニケーション活性化方法であって、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の工程と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の工程と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の工程と、を含む。
【0016】
本発明の第3の観点に係るプログラムは、
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを制御するコンピュータに、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の手順と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の手順と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の手順と、を実行させる。
【発明の効果】
【0017】
本発明によれば、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【発明を実施するための最良の形態】
【0018】
本発明を実施するための最良の形態について図面を参照して詳細に説明する。以下に示す本発明の各実施形態に係るロボットシステムは、複数人のユーザのコミュニケーションリズムを認識し、複数人のユーザに対するインタラクション動作を行うことにより、ロボットとユーザとのコミュニケーション同調を実現し、引込現象を誘発させるものである。
【0019】
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1には、本実施形態に係るロボットシステム100の概略的な構成が示されている。図1に示されるように、ロボットシステム100は、コミュニケーション場認識部1と、コミュニケーション同調度合算出部2と、インタラクション制御部3と、ソーシャルインタラクションルールデータベース(以下、「SIRDB」と略述する)4と、出力部5と、を備えている。
【0020】
コミュニケーション場認識部1は、不図示のマイク、カメラ、生体センサなどの各種センサを有している。マイクは、ロボットシステム100のコミュニケーション相手となるユーザの音声を入力する。カメラは、そのユーザを撮像する。生体センサは、そのユーザの脈拍などの生体情報を検出する。
【0021】
コミュニケーション場認識部1は、これらのセンサから得られた音声情報、画像情報、生体情報、すなわちバーバル情報及びノンバーバル情報に基づいて、ユーザの発話パワーやその周期などの発話データ、ユーザのジェスチャ・動作・頷き・相槌といった身体動作データや、ユーザの視線・呼吸・心拍・瞬きといった生体センシングデータなどを認識する。これら発話データ、身体動作データ、生体センシングデータなどを、コミュニケーションリズム(モーダル情報)という。認識されたコミュニケーションリズムは、コミュニケーション同調度合算出部2に出力される。
【0022】
コミュニケーション同調度合算出部2は、コミュニケーション場認識部1から出力されたコミュニケーションリズム(複数のモーダル情報)に基づいて、コミュニケーション同調度合を算出する。コミュニケーション同調度合は、ユーザとのコミュニケーションリズムの共有状態の高さを示す指標値であり、この値が大きければ大きいほど、ユーザに引込現象が発現しやすくなる。コミュニケーション同調度合は、例えば、ユーザの発話パワーの平均値と、ユーザの視線のやりとりの回数、頷き回数等の線形加重和、すなわち各種コミュニケーションリズムの線形加重和とすることができる。算出されたコミュニケーション同調度合は、インタラクション制御部3に出力される。
【0023】
インタラクション制御部3には、コミュニケーション同調度合算出部2から算出されたコミュニケーションリズムの他に、コミュニケーション場認識部1から出力されたコミュニケーションリズムも入力されている。インタラクション制御部3は、入力されたコミュニケーションリズムとコミュニケーション同調度合とに基づいて、SIRDB4を参照する。
【0024】
SIRDB4には、コミュニケーションリズムとコミュニケーション同調度合とに応じて、後述する出力部5がユーザに対して行うべきインタラクション行動に関するルール(インタラクションルール)が蓄積されている。インタラクションルールは、通常、人間同士のコミュニケーションにおいて、人間が感じ取るバーバル情報及びノンバーバル情報に対して人間がとる行動と同じ行動を、可能な限りとるように構築されている。より具体的には、このインタラクションルールは、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下に構築されている。このインタラクションルールによれば、コミュニケーション同調度合が低い状態と高い状態とでは、コミュニケーションリズムが同じであっても、インタラクション動作が異なるようになる。
【0025】
インタラクション制御部3は、このインタラクションルールにしたがって、入力されたコミュニケーションリズムとコミュニケーション同調度合とに基づいて、ユーザに対して行うべき動作に対応する動作指令であるロボットアクションコマンドを決定する。決定されたロボットアクションコマンドは、出力部5に出力される。
【0026】
出力部5は、ディスプレイ又は人型のロボット本体である。ディスプレイである場合には、その画像にCG(コンピュータグラフィックス)により作成された人物像(エージェント)が表示されたものを採用することができる。エージェント又は人型のロボットは、実際の人間を模して、顔、手、胴体などを有しており、それらを動かせるようになっている。また、その顔では、目、鼻、口などを動かせるようになっている。出力部5は、顔、手、胴体、さらには、目、鼻、口などを動かすことにより、ロボットアクション(インタラクション動作)を実現する。このようなインタラクション動作には、例えば、視線の変更・呼吸・心拍・瞬き・ジェスチャ・動作・頷き・相槌がある。
【0027】
また、出力部5は、ロボットの音声を出力するためのスピーカ(不図示)も有しており、表示された口を動かしつつ、スピーカから音声を出力することにより、発話が可能となっている。このように、出力部5は、人間の動作に近い各種動作を行うことができるようになっているのが望ましい。
【0028】
出力部5は、インタラクション制御部3の制御の下、入力されたロボットアクションコマンドに従ってインタラクション動作を実際に行う。
【0029】
ロボットシステム100は、図2のコミュニケーション処理に示されるように、コミュニケーション場認識部1によるコミュニケーションリズムの認識処理(ステップS10)→コミュニケーション同調度合算出部2によるコミュニケーション同調度合の算出(ステップS12)→インタラクション制御部3によるロボットアクションコマンドの決定(ステップS14)→出力部5によるインタラクション動作(ステップS16)を、この順に行う。
【0030】
ユーザは、このロボットアクションを見ながら、さらに、ロボットシステム100に対して発話やジェスチャなどのコミュニケーションを継続する。これに対し、ロボットシステム100は、コミュニケーション場認識部1におけるコミュニケーションリズムの認識(ステップS10)、コミュニケーション同調度合算出部2におけるコミュニケーション同調度合の算出(ステップS12)、インタラクション制御部3におけるロボットアクションコマンドの決定(ステップS14)、出力部5におけるインタラクション動作(ステップS16)を繰り返す。ユーザは、このインタラクション動作を見ながら、さらに、ロボットシステム100に対して発話やジェスチャなどのコミュニケーションを継続する。
【0031】
ユーザと、ロボットシステム100とは、このような動作を繰り返しつつ、会話などのコミュニケーションを継続する。
【0032】
コミュニケーションの継続の結果、ユーザとロボットシステム100との間で、コミュニケーションリズムが共有されるようになり、コミュニケーション同調度合が高まる。この結果、ユーザに引込現象が誘発される。
【0033】
このように、本実施形態に係るロボットシステム100は、バーバル情報及びノンバーバル情報(複数のモーダル情報)に基づいて、コミュニケーションリズムを認識し、そのコミュニケーションリズムに基づいてコミュニケーション同調度合を直接的に求めている。また、このロボットシステム100では、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略に基づいて構築されたインタラクションルールに従って、コミュニケーション同調度合に基づいてインタラクション動作を行う。このように、ロボットシステム100は、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下でユーザとコミュニケーションを図ることができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0034】
(第2の実施形態)
本発明の第2の実施形態について説明する。図3には、本実施形態に係るロボットシステム101の概略的な構成が示されている。図3に示されるように、本実施形態に係るロボットシステム101は、コミュニケーションモード決定部6をさらに備えている点と、SIRDB4の代わりに、複数のSIRDB41、42、43、…を備えている点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。そこで、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0035】
コミュニケーションモード決定部6は、コミュニケーション同調度合に基づいて、コミュニケーションモードを決定する。コミュニケーションモードとは、コミュニケーション場の状態を示すものである。コミュニケーションモードは、例えば、初対面状態、話題提供状態、話題盛り上げ状態など、コミュニケーション同調度合が異なる種々のモードを設定することができる。このようなコミュニケーションモードを設定することによって、ロボットシステム101は、コミュニケーション同調度合を効率よく高め、引込現象を誘発しやすくするために、インタラクションルールをコミュニケーションモードに応じて変更し、コミュニケーションモードに応じて出力部5の制御状態を計画的に変更するタスクを構築することができる。これにより、引込現象に対する動的な誘発戦略を立てやすくなる。
【0036】
SIRDB41、42、43…は、コミュニケーションモードの数だけ用意されており、それぞれが、いずれかのコミュニケーションモードに対応している。
【0037】
コミュニケーションモード決定部6は、コミュニケーション同調度合算出部2から出力されたコミュニケーション同調度合に基づいて、現在のコミュニケーションモードを決定し、インタラクション制御部3に出力する。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、決定されたコミュニケーションモードに対応するSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照して、そのSIRDBに記憶されたインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときのコミュニケーションモードに応じたインタラクション動作を行う。
【0038】
このように、本実施形態によれば、コミュニケーション場の状態に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0039】
(第3の実施形態)
本発明の第3の実施形態について説明する。図4には、本実施形態に係るロボットシステム102の概略的な構成が示されている。ロボットシステム102は、ユーザ内部状態推定部7をさらに備える点と、SIRDB4の代わりに複数のSIRDB41、42、43…を備えている点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0040】
図4に示されるように、ユーザ内部状態推定部7は、コミュニケーション場認識部1から出力されたコミュニケーションリズムを入力する。ユーザ内部状態推定部7は、コミュニケーションリズムに基づいて、ユーザの内部状態を推定する。ユーザ内部状態とは、ユーザの緊張状態や快状態といった、ユーザの精神状態のことである。ユーザの内部状態は、例えば、(緊張、快)、(緊張、不快)、(リラックス、快)、(リラックス、不快)などの状態に分けることができる。
【0041】
SIRDB41、42、43…は、ユーザの内部状態の数だけ用意されており、それぞれが、いずれかのユーザの内部状態に対応している。例えば、(緊張、快)、(緊張、不快)、(リラックス、快)などのそれぞれの状態についてSIBDBを1つずつ用意することができる。
【0042】
ユーザ内部状態推定部7は、ユーザ内部状態の推定結果をインタラクション制御部3へ出力する。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザの内部状態に応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときのユーザの内部状態に応じたインタラクション動作を行う。
【0043】
このように、本実施形態によれば、ユーザの内部状態に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0044】
(第4の実施形態)
本発明の第4の実施形態について説明する。図5には、本実施形態に係るロボットシステム103の概略的な構成が示されている。ロボットシステム103は、発話マインド推定部8をさらに備える点と、インタラクション制御部3の動作とが、上記第3の実施形態に係るロボットシステム102と異なっており、その他の点は同じである。したがって、本実施形態では、上記第3の実施形態と重複する構成要素については、図4と同一の符号を付し、詳細な説明を省略する。
【0045】
図5に示されるように、発話マインド推定部8は、ユーザ内部状態推定部7から出力されるユーザの内部状態を入力する。発話マインド推定部8は、このユーザの内部状態に基づいて、ユーザが発話しようとする意思があるかないかを示す指標値(以下、「発話マインド」と呼ぶ)を、推定する。
【0046】
SIRDB41、42、43…は、発話マインドが示す値の数だけ用意されており、それぞれが、いずれかの発話マインドの値に対応している。
【0047】
発話マインド推定部8は、ユーザ内部状態推定部7から出力されたユーザの内部状態に基づいて、発話マインドを推定する。発話マインドは、一般的に、ユーザがロボットシステム103(出力部5)に視線を向けて集中しているときや、緊張状態が高いときに、その値が高くなるように設定されている。例えば、発話しようとしていないとみられるときにはその値を0とし、発話しようとしているとみられるときには、その値を1とすることができる。
【0048】
発話マインドの推定結果は、インタラクション制御部3に出力される。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザの発話マインドに応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、ロボットアクションコマンドを決定する。出力部5は、そのロボットアクションコマンドに従って、そのときの発話マインドに応じたインタラクション動作を行う。
【0049】
このように、本実施形態によれば、ユーザの発話マインドに応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0050】
(第5の実施形態)
本発明の第5の実施形態について説明する。このシステムは、複数のユーザを対象とし、ユーザ間のコミュニケーションの仲立ちをするために特に用いられる。図6には、本実施形態に係るロボットシステム104の概略的な構成が示されている。ロボットシステム104は、ユーザ間情報推定部9をさらに備える点と、インタラクション制御部3の動作とが、上記第3の実施形態に係るロボットシステム102と異なっており、その他の点は同じである。したがって、本実施形態では、上記第3の実施形態と重複する構成要素については、図3と同一の符号を付し、詳細な説明を省略する。
【0051】
図6に示されるように、ユーザ間情報推定部9は、ユーザ内部状態推定部7から出力されるユーザの内部状態を入力する。ユーザ間情報推定部9は、ユーザの内部状態に基づいて、ユーザ間の社会的関係性を示すユーザ間情報を推定する。このようなユーザ間情報としては、例えば、ユーザ同士が親しい間柄であるか否かを示す指標値がある。例えば、ユーザが非常にリラックスしている場合には、相手が親しい間柄であると判断することができる。
【0052】
SIRDB41、42、43…は、ユーザ間情報に応じた数だけ用意されており、それぞれが、いずれかのユーザ間情報の状態に対応している。
【0053】
ユーザ間情報の推定結果は、インタラクション制御部3に出力される。インタラクション制御部3は、複数のSIRDB41、42、43…の中から、ユーザ間情報に応じたSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBを参照し、そのインタラクションルールに従って、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合とに基づいて、インタラクション動作を決定する。出力部5は、そのロボットアクションコマンドに従って、そのときの発話マインドに応じたインタラクション動作を行う。
【0054】
このように、本実施形態によれば、ユーザ同士の関係に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0055】
(第6の実施形態)
本発明の第6の実施形態について説明する。図7には、本実施形態に係るロボットシステム105の概略的な構成が示されている。ロボットシステム105は、エピソード蓄積部10と、エピソード記憶データベース(以下、「ESDB」と略述する)11と、エピソード学習部12と、をさらに備える点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0056】
図7に示されるように、エピソード蓄積部10は、コミュニケーション場認識部1から出力されるコミュニケーションリズムと、コミュニケーション同調度合算出部2から出力されるコミュニケーション同調度合と、インタラクション制御部3から出力されるロボットアクションコマンドとを入力する。エピソード蓄積部10は、コミュニケーションリズムと、コミュニケーション同調度合と、ロボットアクションコマンドとを、ESDB11に蓄積する。
【0057】
ESDB11は、コミュニケーションリズム及びコミュニケーション同調度合と、ロボットアクションコマンドとの関係を記憶するデータベースである。より具体的には、ESDB11は、コミュニケーションリズム及びコミュニケーション同調度合と、それらに基づいて探索されたロボットアクションコマンドと、を関連付けて記憶する。さらに、ESDB11は、その動作命令に基づくインタラクション制御部3の下で行われた出力部5のインタラクション動作に対するユーザの反応としてのコミュニケーションリズム及びコミュニケーション同調度合と、を関連付けて記憶する。
【0058】
例えば、ある時刻t(tは、任意の正の実数)におけるインタラクション動作について考える。前提として、ロボットシステム105では、時刻tにおけるインタラクション動作は、時刻t−b(bは、正の実数)におけるコミュニケーションリズム及びコミュニケーション同調度合に基づいて決定されたロボットアクションコマンドによるものであるとする。また、時刻tにおけるインタラクション動作に対するユーザの反応は、時刻t+a(aは、正の実数)におけるコミュニケーション場にて認識されるものであるとする。この場合、ESDB11には、時刻tにおけるロボットアクションコマンドと、時刻t+aにおけるコミュニケーションリズム及びコミュニケーション同調度合と、時刻t−bにおけるコミュニケーションリズム及びコミュニケーション同調度合とが、関連づけて記憶される。
【0059】
エピソード学習部12は、ESDB11を参照し、SIRDB4に記憶されたインタラクションルールを調整する。例えば、エピソード学習部12は、時刻tのロボットアクションコマンドに関連づけられた時刻t−bにおけるコミュニケーション同調度合に対して、時刻t+aにおけるコミュニケーション同調度合が低下している場合には、他のインタラクション動作が決定されるように、SIRDB4のインタラクションルールを変更する。
【0060】
エピソード学習部12は、このように、SIRDB4のインタラクションルールを繰り返し変更する。この繰り返しの結果、コミュニケーションリズム及びコミュニケーション同調度合と、インタラクション動作との関係が学習され、コミュニケーション同調度合が効率良く高くなるように、SIRDB4におけるインタラクションルールが最適化される。
【0061】
なお、ユーザの緊張状態が推定可能であれば、エピソード学習部12による学習が、ユーザの緊張状態が低下しているか否かを基準として行われるようにしてもよい。
【0062】
このように、本実施形態によれば、実際のコミュニケーションの実績に基づいてインタラクションルールが最適化され、最適化されたインタラクションルールの下でコミュニケーションが行われる。これにより、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0063】
(第7の実施形態)
本発明の第7の実施形態について説明する。図8には、本実施形態に係るロボットシステム106の概略的な構成が示されている。ロボットシステム106は、ユーザパーソナリティ情報データベース(以下、「UPIDB」と略述する)13をさらに備える点と、インタラクション制御部3の動作とが、上記第1の実施形態に係るロボットシステム100と異なっており、その他の点は同じである。したがって、本実施形態では、上記第1の実施形態と重複する構成要素については、図1と同一の符号を付し、詳細な説明を省略する。
【0064】
UPIDB13には、ユーザの個人情報が蓄えられている。このような情報には、ユーザ個人の氏名、出身地、職歴、趣味といった個人情報や、ユーザの社会的スキルや心理分析結果といったユーザの能力や性格に関する情報などが含まれる。UPIDB13に蓄えられた情報は、インタラクション制御部3によって参照され、インタラクション制御部3がインタラクション動作を決定するために用いられる。
【0065】
SIRDB4におけるインタラクションルールは、ユーザの個人情報に応じてインタラクション動作が異なるようなルールとなっており、コミュニケーションリズム及びコミュニケーション同調度合が同じであっても、ユーザが異なっていれば、その結果行われるインタラクション動作は異なったものとなる可能性がある。
【0066】
このように、本実施形態によれば、ユーザの個人情報に応じて引込現象の誘発戦略を動的に変更することができるので、引込現象の発現確率を高め、コミュニケーションをさらに活性化させることができる。
【0067】
次に、本発明のさらなる詳細な実施例について図面を参照して説明する。
(第1の実施例)
まず、本発明の第1の実施例について説明する。本実施例は、上記第2の実施形態に係るロボットシステム101(図3参照)に対応するものである。
【0068】
前提として、本実施例に係るロボットシステム101が適用されるコミュニケーション場について説明する。図9(A)に示されるように、このコミュニケーション場では、2人のユーザH1、H2が、テーブル30を挟んで向かい合っており、会話できる状態となっている。本実施例に係るロボットシステム101は、このユーザH1、H2のコミュニケーションを円滑に進めるための支援を行う。
【0069】
このユーザH1、H2は初対面である。したがって、本実施例で、ロボットシステム101により実行されるのは、初対面紹介タスクともいうべきものである。
【0070】
ロボットシステム101の出力部5は、ディスプレイである。この出力部5の画面上には、図9(B)に示されるような、人物像であるエージェントRが表示されている。このエージェントRは、CG(コンピュータグラフィックス)によって、様々なインタラクション動作を行うことができるようになっている。ユーザH1、H2は、出力部5の画面上に表示されたエージェントRのインタラクション動作を見ることができる。
【0071】
図9(A)に示されるように、ユーザH1、H2の胸元には、それぞれマイク31が付けられ、その頭頂部には、加速度センサ32が取り付けられている。また、テーブル上には、ユーザH1、H2を撮像するためのカメラ33、34がそれぞれ2台ずつ設置されている。マイク31、加速度センサ32、カメラ33、34によって、コミュニケーション場認識部1の一部が構成されている。
【0072】
本実施例では、コミュニケーション場認識部1は、マイク31の出力に基づいて、ユーザH1、H2の音声データを検出し、加速度センサ32の出力に基づいて、ユーザH1、H2の頷きを検出し、カメラ33、34の出力画像に基づいて、ユーザH1、H2の顔や視線の向きなど、ユーザH1、H2の身体動作を検出する。コミュニケーション場認識部1は、これらのセンシング結果に基づいて、コミュニケーションリズムを認識する。
【0073】
なお、本実施例では、2人のユーザH1、H2の頷き、視線、顔の向き、指示といった基本動作及び発話動作を、以下の関数に基づいて定義する。これらの関数の値は、その関数の右側に記載された動作(上記センシング結果より検出された動作)が行われれば1となり、動作が行われなければ0となる。本実施例では、これらの関数に基づいてコミュニケーションリズムが認識される。
【0074】
・Nod(H1,t):H1が時刻tに頷く。
・Utterance(H1,t):H1が時刻tに発話する。
・Utterance(H1→H2,t):H1がH2に対して時刻tに発話する。
・TerminateUtterance(H1, t):H1が時刻tに発話を終了する。
・Gaze(H1→H2,t):H1がH2に時刻tに視線を向けている。
・Face(H1→H2,t):H1がH2に時刻tに顔を向けている。
・Gaze(H1⇔H2,t):H1とH2が時刻tに同時に視線を向けている(視線一致状態)。
・Face(H1⇔H2,t):H1とH2が時刻tに同時に顔を向けている(対面状態)。
・TurnGaze(R,H1→H2,t):RがH1をH2の方に時刻tに視線を向かせる。
・TurnUtterance(R,H1→H2,t):RがH1をH2の方に時刻tに発話させる。
・Direct(H1→H2,t):H1がH2の方向を時刻tに指示する。
・SilentTime(H1,t):H1の時刻tにおける無音区間
・UtterancePower(H1,t):H1の時刻tにおける発生音の音量。
【0075】
上記各関数の引数は、その動作の主体とその動作が行われた時刻を示す。なお、エージェントRのインタラクション動作についてもこの関数で表現することができる。
【0076】
コミュニケーション場認識部1は、センシング結果に基づいて、上記各関数の値を求め、これらの関数に基づいて、コミュニケーションリズムを認識する。認識されたコミュニケーションリズムは、コミュニケーション同調度合算出部2及びインタラクション制御部3に出力される。
【0077】
コミュニケーション同調度合算出部2は、これらコミュニケーションリズムに基づいて、時刻tにおけるコミュニケーション同調度合としての評価関数Eval(t)を、算出する。コミュニケーション同調度合Eval(t)は、ユーザH1、H2の発話パワーの平均値、視線のやりとりの回数、頷き回数など、コミュニケーションリズムの線形加重和により表されるが、本実施例では、後述する4つのコミュニケーションモードに対応する4つの評価関数Eval(t)[1]〜Eval(t)[4]を算出する。
【0078】
【数1】
ここで、γ、δは、正規化パラメータであり、式(1)と式(3)とで、γ、δの値は異なる。上記式(1)は、エージェントRとユーザH1との間、エージェントRとユーザH2との間で、それぞれの引込現象が発現されたか否かを評価するための評価関数である。上記式(2)は、ユーザH1、H2が向き合って対話を始めたか否かを評価するための評価関数である。上記式(3)、式(4)は、エージェントRと2人のユーザH1、H2のスムーズな会話が確立されたか否かを評価するための評価関数である。
【0079】
なお、後述するように、コミュニケーションモードが話題提供状態(話題を提供する会話の初期段階)となっているときには、ユーザH1、H2のお互いの反応を、詳細にチェックする必要があるため、コミュニケーション同調度合算出部2は、コミュニケーション同調度合Eval(t)[2]のほか、次式で示されるエージェントRがユーザH2の話題情報をユーザH1に知らせたときの反応度React(H2→H1,t)と、ユーザH1の話題情報をユーザH2に知らせたときのユーザH2の反応度React(H1→H2,t)とを、同じくコミュニケーション同調度合として算出する。
【0080】
【数2】
ここで、α、βは、正規化パラメータである。
React(H2→H1,t)、React(H1→H2,t)は、エージェントRによる話題提供が、ユーザH1、H2のコミュニケーションのきっかけとして成り得たか否かを評価するための評価関数である。
【0081】
算出されたコミュニケーション同調度合Eval(t)は、コミュニケーションモード決定部6に出力される。
【0082】
本実施例では、5つのコミュニケーションモードが用意されている。図10には、5つのコミュニケーションモードの遷移図が示されている。この遷移図によって初対面紹介タスクが表現される。図10に示されるように、本実施例では、初期状態に加え、挨拶/初対面状態、話題提供状態、話題掘り下げ状態、話題盛り上げ状態の4つのコミュニケーションモードが用意されている。
【0083】
初期状態は、エージェントRと、初対面である2人のユーザH1、H2が、同じコミュニケーション場に集まる前のコミュニケーションモードである。
【0084】
挨拶/初対面状態は、初対面である2人のユーザH1、H2が互いに挨拶をかわし、会話を開始する際のコミュニケーションモードである。この状態では、コミュニケーション同調度合は低く、ほぼ0に近い状態である。
【0085】
話題提供状態は、2人のユーザH1、H2が向き合って対話させることを目的として話題を提供し、会話の端緒を作り出すときの状態である。この状態では、挨拶/初対面状態よりも、コミュニケーション同調度合が少し高まっている。
【0086】
話題掘り下げ状態は、エージェントRと2人のユーザH1、H2のスムーズな会話の発生を目指すために、提供された話題を掘り下げていくときの状態である。この状態では、話題提供状態よりも、コミュニケーション同調度合が高まっている。
【0087】
話題盛り上げ状態は、掘り下げられた話題を掘り下げていった結果、コミュニケーション同調度合が極めて高くなり、コミュニケーションリズムが共有化された状態である。
【0088】
図10に示されるように、コミュニケーションモードは、コミュニケーション同調度合が高まるにつれて、初期状態から挨拶/初対面状態に遷移し、さらに話題提供状態へと遷移する。その後、コミュニケーションモードは、コミュニケーション同調度合に応じて、話題提供状態と、話題掘り下げ状態と、話題盛り上げ状態との間を、遷移する。
【0089】
初対面紹介タスクにおいて、最も望ましい流れは、コミュニケーションモードが、挨拶/初対面状態→話題提供状態→話題掘り下げ状態→話題盛り上げ状態と遷移する流れである。話題盛り上げ状態となり、その状態でタスク終了条件が満たされると、ロボットシステム101は、その役割が完了したものとして、初対面紹介タスクを終了させる。
【0090】
コミュニケーションモード決定部6の動作について説明する。2人のユーザH1、H2が集まり、カメラ33、34により、両者の存在が検出されると、コミュニケーションモード決定部6は、コミュニケーションモードを、挨拶/初対面状態へと遷移させる。
【0091】
その後、コミュニケーションモード決定部6は、コミュニケーション同調度合Eval(t)[1]〜Eval(t)[4]を、所定の閾値Th_Eval[1]、Th_Eval[2]、Th_Eval[3]、Th_Eval[4]と比較して、その比較結果に基づいて、コミュニケーションモードを決定する。これにより、コミュニケーションモードが図10に示されるように遷移する。なお、それぞれの閾値の関係は、Th_Eval[4]>Th_Eval[3]>Th_Eval[2]>Th_Eval[1]となっている。
【0092】
挨拶/初対面状態から、話題提供状態への遷移条件は、以下の式で示される。
Eval(t)[1]=1(=Th_Eval[1]) …(7)
この遷移条件が満たされたということは、上記式(1)に示されるように、エージェントRとユーザH1との間、エージェントRとユーザH2との間で、それぞれの引込現象が発現したことを示している。
【0093】
コミュニケーションモード決定部6は、React(H2→H1)及びReact(H1→H2)を、一定閾値Th_Reactと比較する。話題提供状態から話題掘り下げ状態への遷移条件は、以下の式のようになる。
React(H2→H1)∧React(H1→H2)≧Th_ReactかつEval(t)[2]≧Th_Eval[2] …(8)
【0094】
この遷移条件が満たされたということは、上記式(2)、式(5)、式(6)に示されるように、エージェントRによる話題提供が成功し、2人のユーザH1、H2が向き合って対話を始めたことを示している。
【0095】
話題掘り下げ状態から話題盛り上げ状態への遷移条件は、以下の式のようになる。
Eval(t)[3]≧Th_Eval[3] …(9)
【0096】
この遷移条件が満たされたということは、上記式(3)に示されるように、エージェントRと2人のユーザH1、H2のスムーズな会話が確立されたことを示している。
【0097】
初対面紹介タスク終了条件は、以下の式のようになる。
Eval(t)[4]≧Th_Eval[4] …(10)
コミュニケーションモード決定部6は、このように、遷移条件が満たされたか否かを判定することにより、コミュニケーションモードを遷移させる。
【0098】
続いて、インタラクション制御部3の動作について説明する。インタラクション制御部3は、決定されたコミュニケーションモードに対応するSIRDBを選択する。そして、インタラクション制御部3は、選択されたSIRDBのインタラクションルールに従って、出力部5のインタラクション動作を制御する。
【0099】
挨拶/初対面状態に対応するSIRDBでは、エージェントRとユーザH1、エージェントRとユーザH2のスムーズな会話の発生を目指してエージェントRが各種インタラクション動作を行うようなインタラクションルールが定められている。より具体的には、このインタラクションルールは、エージェントRが、自発的にユーザH1、H2に話しかけるなどの発話誘導などを行い、会話リズムを生成させるように定められている。エージェントRがこのような行動をとることより、エージェントRとユーザH1、エージェントRとユーザH2における1対1の引込現象が発現しやすくなり、コミュニケーションモードを話題提供状態に遷移させやすくなる。
【0100】
話題提供状態に対応するSIRDBでは、エージェントRが、ユーザH1の情報をユーザH2に与えるとともに、ユーザH2の情報をユーザH1に伝えるように、インタラクションルールが定められている。さらに、このSIRDBでは、同じ話題について両者に意見を述べさせたり、エージェントRに視線誘導を行わせたりして、向かい合って対話させるように誘導するようなインタラクションルールが定められている。この誘導により、初対面のユーザ間で起こる「会話のきっかけが無くコミュニケーションが滞る問題」を解決することができるようになり、コミュニケーションモードを話題掘り下げ状態に遷移させやすくなる。
【0101】
話題掘り下げ状態に対応するSIRDBでは、エージェントRが質問を投げかけてユーザH1、H2が対話している話題内容に参入するようなインタラクションルールが定められている。エージェントRがこのような行動をとることより、コミュニケーションモードを、話題盛り上げ状態に遷移させやすくなる。
【0102】
話題盛り上げ状態では、エージェントRが、適当に頷いたり、相槌を打ったりするように、聞き役としてその場に同調するようなインタラクションルールが定められている。これにより、すでに話題が盛り上がっている状態の両者に対し、エージェントRが過度に干渉しないような配慮がなされている。
【0103】
図11には、インタラクションルールの基本例が示されている。図11に示されるインタラクションルールは、以下の3つのルールで構成されている。
・[Rule1]頷き同調ルール:相手が頷けば即応的に頷く。
・[Rule2]発話タイミングルール:無音区間が一定時間(0.45秒)以上続き、最後の音声データが、文末として判断されるならば発話する。
・[Rule3]相手の発話に応じた頷き・発話タイミングルール:
「無音区間が一定時間(0.45秒)以上続き,文末ではない場合に20%の確率で頷く」または「無音区間が一定時間(0.45秒)以上続き,文末ではない場合でも80%の確率で発話する」。
ここで、文末であるか否かの判断は、最後の音声データに対して形態素解析を実行し、助詞、終助詞など、文末によく現れる品詞であるか否かを検出することより行うことが可能である。
【0104】
出力部5のエージェントRは、ロボットアクションコマンドが入力されなかった場合には、図12(A)に示されるニュートラルポジションとなっている。インタラクション制御部3からロボットアクションコマンドが出力されると、エージェントRは、図12(B)〜図12(D)に示されるような発話、頷き、ジェスチャのいずれかのインタラクション動作を行う。
【0105】
図13(A)〜図13(E)には、頷きの有無と、発話量と、視線一致度と、コミュニケーション同調度合と、コミュニケーションモードの時間変化の様子が示されている。図13(E)の(1)〜(4)は、それぞれ、挨拶/初対面状態、話題提供状態、話題掘り下げ状態、話題盛り上げ状態を示している。図13(A)〜図13(E)に総合的に示されるように、時間が経過するにつれて、頷きの回数が増えていき、発話パワーが大きくなり、視線が一致する頻度が増えている。また、それらが増加するにつれてコミュニケーション同調度合が次第に大きくなっている。これにより、コミュニケーションモードが、挨拶/初対面状態→話題提供状態→話題掘り下げ状態→話題盛り上げ状態と遷移している。
【0106】
以上述べたように、本実施例に係るロボットシステム101では、コミュニケーションリズムに基づいてコミュニケーション同調度合が算出され、コミュニケーション同調度合に応じてコミュニケーションモードを遷移させるので、初対面である2人のユーザH1、H2のコミュニケーションをより活性化することができる。
【0107】
(第2の実施例)
次に、本発明の第2の実施例について説明する。本実施例は、上記第3の実施形態に係るロボットシステム102に対応するものである。
【0108】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0109】
上記第3の実施形態で説明したように、ロボットシステム102を構成するユーザ内部状態推定部7は、コミュニケーションリズムに基づいて、ユーザH1、H2の内部状態を推定する。本実施例では、ユーザ内部状態推定部7は、ユーザH1、H2の内部状態として、すなわち緊張状態(緊張しているか、リラックスしているかの状態)や快状態(快であるか不快であるかの状態)を推定する。コミュニケーションリズム、すなわちユーザH1、H2の視線、瞬き、表情に関するセンシングデータには、センシングエラーが確率的に含まれるのが一般的である。このことから、ユーザH1、H2の内部状態の推定には、図14(A)に示されるようなダイナミックベイジアンネットワークによるユーザの内面状態の確率的状態遷移モデルが用いられる。
【0110】
まず、緊張状態の推定方法について説明する。一般的に、視線一致の頻度が少なく、かつ、瞬きの頻度が増えれば、ユーザH1、H2の緊張状態は、時間の経過とともに上昇していくものと推定される。そこで、本実施例では、ユーザ内部状態推定部7は、視線一致が検出される検出確率p1(視線一致ありの検出確率p1、視線一致なしの検出確率1−p1)と、瞬きの回数がある閾値以上であるか否かの検出確率p2(瞬きありの検出確率p2、瞬きなしの検出確率1−p2)とに基づいて、ユーザの緊張状態(緊張度q1、リラックス度q2)の時間変化を、所定の時間間隔(…、t−1、t、…)で算出する。
【0111】
次に、快状態の推定方法について説明する。ユーザ内部状態推定部7は、快状態を、瞬きの回数がある閾値以上であるか否かの検出確率p2(瞬きありの検出確率p2、瞬きなしの検出確率1−p2)と、表情変化を示す特徴量とに基づいて推定する。ここで、表情変化を示す特徴量としては、図14(B)に示されるようなFACS(顔表情符号化システム)モデルに基づく眉、目、口の位置関係から算出される特徴量F1〜F6が用いられる。本実施例では、カメラ33、34の撮像結果から距離F1〜F6が得られている。例えば、人間が笑う場合には、目・口間の距離F1が短くなると考えられる。ここでは、例えば、この目・口間の距離F1が閾値Th以下である検出確率p3と、距離F1が閾値Thより大きくなる検出確率1−p3とが求められるものとする。
【0112】
ユーザ内部状態推定部7は、瞬きありであるとする検出確率(p2、1−p2)と、表情の特徴量の検出確率(p3、1−p3)との結合確率に基づいて、情動認識の学習を行い、快状態(快状態度q3、不快状態度q4)の時間変化を、所定の時間間隔(…、t−1、t、…)で算出する。
【0113】
なお、視線一致の検出確率p1は、次の第4の実施例における発話マインドの推定において、ユーザの内部状態を示す指標として用いられる。
【0114】
また、本実施例では、インタラクション制御部3によって参照されるルールとして、図11に示されるようなインタラクションルールに加え、エージェントRが2人のユーザH1、H2のいずれかに発話する際に、ユーザ内部状態推定部7から出力される快度合の低いユーザに対して発話するというルールが加えられる。なお、このルールでは、ユーザH1、H2の快度合が同値であった場合は、インタラクション制御部3は、エージェントRが緊張度合の低いユーザに対して発話するように、出力部5を制御する。ユーザH1、H2の快度合が同値であり、かつ、ユーザH1、H2の緊張度合も同値であれば、エージェントRがどちらのユーザに発話するかは、ランダムに決定されるようにすればよい。
【0115】
このように、本実施例では、緊張状態および快状態といったユーザH1、H2の内面状態を考慮してインタラクション動作が行われるので、その動作は、ユーザH1、H2の内部状態に応じて動的に調整されるようになる。初対面であるユーザH1、H2のコミュニケーションをより活性化させることができる。
【0116】
(第3の実施例)
次に、本発明の第3の実施例について説明する。本実施例は、上記第4の実施形態に係るロボットシステム103に対応するものである。
【0117】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0118】
発話マインド推定部8は、ユーザ内部状態推定部7によって推定されたユーザH1、H2の緊張状態及び快状態(図14(A)に示されるモデルで推定された内部状態)に基づいて、発話マインドを推定する。
【0119】
例えば、ユーザH1、H2がエージェントRに対して視線を向けている場合には、p1の確率で発話マインドありとする。また、ユーザの緊張度合がある閾値以上の場合には、q1の確率で発話マインドありとする。さらに、ユーザの快度合がある閾値以上の場合に、はq3の確率で発話マインドありとする。最終的な発話マインドは、これらの確率の結合確率となる。発話マインド推定部8は、インタラクション制御部3に推定された発話マインドを出力する。
【0120】
また、本実施例では、インタラクション制御部3によって参照されるルールとして、図11に示されるようなインタラクションルールに加え、エージェントRが2人のユーザH1、H2のどちらかに発話する際、発話マインド推定部8から出力される発話マインドのあるユーザに対して発話するというルールが加えられる。なお、このルールでは、ユーザH1、H2とも発話マインドがあるか、両者とも発話マインドがない場合であれば、エージェントRがどちらのユーザH1、H2に発話するかはランダムに決定するようにすればよい。
【0121】
このように、本実施例では、ユーザが発話しようとする意思を考慮してエージェントRがユーザH1、H2に発話を行う。このため、ユーザH1、H2の感じる負荷をより少なくし、初対面であるユーザH1、H2のコミュニケーションをより活性化させることができる。
【0122】
(第4の実施例)
次に、本発明の第4の実施例について説明する。本実施例に係るロボットシステムは、上記第5の実施形態に係るロボットシステム104に対応するものである。
【0123】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0124】
ユーザ間情報推定部9は、推定されたユーザH1、H2の緊張度合および快度合に基づいてユーザ間情報を推定する。本実施例では、ユーザH1、H2の緊張度合がともにある閾値以下であり、かつ、ユーザH1、H2の快度合がともにある閾値以上である場合、ユーザの関係は親和的関係であるとし、この場合以外では非親和的関係であるとする。ユーザ間情報推定部9は、このユーザ間情報を、インタラクション制御部3に出力する。この他、ユーザ間情報推定部9は、複数のユーザ間の総コミュニケーション時間などを用いて、ユーザ間情報を定義するようにしてもよい。
【0125】
インタラクション制御部3は、このユーザ情報を考慮して、出力部5を制御する。例えば、本実施例に係るロボットシステムが、上記第2の実施形態に係るロボットシステム101と同様に、コミュニケーションモードを有している場合において、コミュニケーションモードが話題提供状態から話題掘り下げ状態に遷移する際に、ユーザ間情報推定部9から出力されたユーザ間情報が親和的関係であれば、コミュニケーションモード決定部6に、話題掘り下げ状態ではなく話題盛り上げ状態へある一定の確率で遷移させ、話題盛り上げ状態に遷移した場合には、話題盛り上げ状態に対応するインタラクションルールに従って、出力部5を制御するようにしてもよい。
【0126】
このように、本実施例では、ユーザ間の関係が”親和的”であれば、エージェントRがユーザH1、H2のコミュニケーションに水を差すような介入をするのを避けることができるため、より効率的にコミュニケーションを活性化させることができる。
【0127】
(第5の実施例)
次に、本発明の第5の実施例について説明する。本実施例は、上記第6の実施形態に係るロボットシステム105を基本とし、それらの構成に加え、上記第5の実施形態に係るロボットシステム104の構成要素であるユーザ内部状態推定部7とユーザ間情報推定部9とをさらに備えている。すなわち、本実施例のロボットシステムは、ロボットシステム104、105を組み合わせた構成となっている。
【0128】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0129】
ESDB11には、エピソード蓄積部10により、例えば、図15に示されるような情報が時系列(0、1、2、…)で蓄えられている。「ユーザ状態」は、時刻t−bにおけるユーザ内部状態(緊張度合(高、中、低))を示している。「ユーザ間情報」は、時刻t−bにおけるユーザ間の関係性(非親和的関係、親和的関係)を示している。「Rのアクション」は、時刻tにおけるエージェントRのアクションの種別(H1に視線を向ける、H1に氏名を質問する、H1、H2に相槌を打つ、etc)である。「評価」は、時刻t−bのユーザH1、H2の緊張度合に対する、時刻t+aにおけるユーザH1、H2の緊張度合の減少値(緊張度合減少値)のユーザH1、H2の合計値である。
【0130】
エピソード学習部12は、ESDB11を参照して、SIRDB4に記憶されたインタラクションルール、すなわち、コミュニケーションリズム及びコミュニケーション同調度合と、それらに基づく制御の下で出力部5によって行われたインタラクション動作との関係を、ユーザH1、H2の緊張度合が減少するように繰り返し変更する。このようにして、エピソード学習部12は、コミュニケーションリズム及びコミュニケーション同調度合と、インタラクション動作との最適な関係を学習する。これにより、ESDB11に記憶されたインタラクションルールが、コミュニケーション同調度合を効率良く高める方向に調整される。
【0131】
なお、この学習の際、エピソード学習部12は、コミュニケーション同調度合算出部2から出力されたコミュニケーション同調度合に基づいて学習ルールを変更するようにしてもよい。例えば、コミュニケーション同調度合が一定期間以上ある閾値よりも低ければ、最適化の収束の高速化(学習の高速化)を目指し、学習の際に用いられるユーザの緊張度合およびユーザ間情報といったパラメータを一定個数減らすようにすることができる。
【0132】
(第6の実施例)
次に、本発明の第6の実施例について説明する。本実施例は、上記第7の実施形態に係るロボットシステム106に対応するものである。
【0133】
本実施例でも、上記第1の実施例と同様に、図9(A)、図9(B)について示されるコミュニケーション場に適用される。
【0134】
UPIDB13には、ユーザの氏名、出身地、職歴、趣味といった個人情報およびユーザの社会的スキルや心理分析結果といったユーザの能力や性格に関する情報が予め蓄えられている。UPIDB13に蓄えられた情報は、インタラクション制御部3によって参照され、インタラクション制御部3がインタラクション動作を決定するために利用される。
【0135】
例えば、ユーザH1、H2の趣味に関してエージェントRが質問するといった場合に、ユーザH1、H2のユーザパーソナリティ情報に彼らの趣味の情報が含まれていれば、それらの内容が、発話に反映される。
【0136】
また、ユーザの個人情報は、エージェントRのユーザH1、H2への言葉遣いを決定する際にも参酌される。言葉遣いの社会的スキルの評価指標の1つにJICSがある。例えばJICSの中で、関係調整(上下関係管理)に関するユーザの社会的スキルを用いることでロボットの言葉遣いを調整することができる。
【0137】
例えば、アンケート調査などの結果により、コミュニケーションに参加するユーザの関係調整の度合が既知であるものとし、その度合が、予め、UPIDB13へ蓄えられているものとする。関係調整の度合がある閾値よりも高いユーザは、人間の上下関係に関して意識していると推定することができる。このため、このようなユーザに対しては、インタラクション制御部3は、エージェントRに、発話する場合に敬語を使用させる。一方、関係調整の度合がある閾値よりも低いユーザは、人間の上下関係に関してあまり意識していないと推定することができるため、このようなユーザに対しては、インタラクション制御部3は、エージェントRに、発話する場合に敬語を使用しないようにさせる。
【0138】
このようにすれば、エージェントRとユーザH1、H2との親和性をより高めることができる。
【0139】
また、このような社会的スキルの評価指標の他にも、交流分析における人格に関する理論などを用いて推定されたユーザの性格に関する情報をUPIDB13に格納して、エージェントRのユーザH1、H2に対する発話内容の調整に用いることができる。
【0140】
このような理論では、例えば、人間の性格(人格)が、批判的な親心と、養育的親心と、合理的な大人の心と、無邪気な子供の心と、順応した子供の心との5つに大別されている。この理論では、人格に関するアンケート調査を行えば、5つの人格の中で、どれがその人の中で優位であるかというような傾向を解析することができ、この解析結果に基づいて、その人の人格をある程度推定することができる。
【0141】
例えば、あるユーザに対するアンケート調査の結果、批判的な親心と、順応した子供の心が、他の3つの心の構造に比べ優位であれば、そのユーザの性格は、理屈好きなタイプであると推定される。この場合、このタイプに属するユーザに対する発話内容は、理屈を重視すべきであると考えられる。したがって、このタイプに属するユーザに対しては、エージェントRは、理由をつけてユーザに動作を促すような対話戦略をとるようにする。このようにすれば会話がスムーズに進むようになる。
【0142】
なお、上記第5の実施例にもあるように、ロボットシステムとして、上記各実施形態に係るロボットシステムを組み合わせたものを採用することができる。例えば、コミュニケーションモード、ユーザの内部状態、発話マインド、ユーザ間情報のうちの少なくとも一部の組み合わせについてSIRDBを用意し、その組み合わせ毎にインタラクションルールを用意するようにしてもよい。また、それらの組み合わせに応じてSIRDBを複数備えるシステムにおいて、エピソード学習を行うようにしてもよいし、ユーザの個人情報に基づいて、インタラクション動作を変更するようにしてもよい。
【0143】
また、上記各実施例では、CGモデルのエージェントRにインタラクション動作を行わせたが、出力部5として、各種アクチュエータを備え、ロボットの表情、腕、手、足、体を動かすことができる人型のロボットを用いるようにしてもよい。この場合でも、出力部5では、ロボットの表情を変化させたり、腕、手、足、体が動かしたりして、ロボットの喜怒哀楽といった感情や注意対象をユーザに対して効果的に伝達することができる。
【0144】
この場合、出力部5は、目が点滅する、瞬きする、腕を振る、首を振る、ボディを伸縮する、ボディを振動する、鼓動音を出すといったインタラクション動作を行うようにしてもよい。また、出力部5は、涙を流す、ユーザの足元に擦り寄る、ユーザに近づく、ジャンプするといったインタラクション動作を実行するようにしてもよい。さらに、注意対象の伝達方法として、出力部5は、注意対象を注視する、注意対象を指差しする、注意対象に近づくといったインタラクション動作を行うようにしてもよい。
【0145】
このように、ロボットシステムは、物理的に実体を持っていても良いし、上記各実施例のように、プロジェクタの投影画面やディスプレイに表示される、実体を持たないエージェント型であってもよいし、画面に文字を表示したり、音声を発したりするだけのものであってもよい。要は、ロボットシステムは、発話、身体動作、文字表示の少なくとも一つを含む動作を行えるものであればよい。
【0146】
また、コミュニケーション場認識部1、コミュニケーション同調度合2、インタラクション制御部3など、各ロボットシステムの構成要素を、ハードウエアのみ実現するようにしてもよいが、これらは、ソフトウエアプログラムとハードウエアとの協調動作で実現されるのが一般的である。ソフトウエアプログラムとハードウエアとの協調動作の場合には、ロボットシステム内に設けられたCPUが、同システム内のROM等の記憶装置に格納されたソフトウエアプログラムを実行することにより、各部の機能を実現する。
【0147】
この場合、ロボットシステムとしては、汎用のコンピュータを用いることが可能である。この場合、コンピュータの記憶装置に格納されるソフトウエアプログラムは、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical disc)、フレキシブルディスクなどのコンピュータ読み取り可能な記録媒体に格納して配布され、ロボットシステムにインストールされるようになっていてもよい。また、インターネット等の通信ネットワーク上のサーバ装置に格納された当該プログラムを、当該コンピュータにダウンロードして、ロボットシステムにインストールされるようになっていてもよい。
【図面の簡単な説明】
【0148】
【図1】本発明の第1の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図2】図1のロボットシステムの動作を示すフローチャートである。
【図3】本発明の第2の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図4】本発明の第3の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図5】本発明の第4の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図6】本発明の第5の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図7】本発明の第6の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図8】本発明の第7の実施形態に係るロボットシステムの基本的な構成を示すブロック図である。
【図9】図9(A)は、コミュニケーション場の一例を示す図であり、図9(B)は、エージェントの一例を示す図である。
【図10】コミュニケーションモードの遷移図である。
【図11】インタラクションルールの一例を示す図である。
【図12】図12(A)は、エージェントのニュートラルポジションを示す図であり、図12(B)は、発話動作を示す図であり、図12(C)は、頷き動作を示す図であり、図12(D)は、ジェスチャ動作を示す図である。
【図13】図13(A)は、頷きの有無の時間変化を示すグラフであり、図13(B)は、発話量の時間変化を示すグラフであり、図13(C)は、視線の一致の時間変化を示すグラフであり、図13(D)は、コミュニケーション同調度合の時間変化を示すグラフであり、図13(E)は、コミュニケーションモードの時間変化を示す図である。
【図14】図14(A)は、ユーザの内面状態を示す確率的状態遷移モデルの一例を示す図であり、図14(B)は、FACSモデルに基づく眉、目、口の位置関係から算出される特徴量を説明するための図である。
【図15】エピソード記憶データベースに記憶される情報の一例を示す図である。
【符号の説明】
【0149】
1 コミュニケーション場認識部
2 コミュニケーション同調度合算出部
3 インタラクション制御部
4、41、42、43 ソーシャルインタラクションルールデータベース(SIRDB)
5 出力部
6 コミュニケーションモード決定部
7 ユーザ内部状態推定部
8 発話マインド推定部
9 ユーザ間情報推定部
10 エピソード蓄積部
11 エピソード記憶データベース(ESDB)
12 エピソード学習部
13 ユーザパーソナリティ情報データベース(UPIDB)
30 テーブル
31 マイク
32 加速度センサ
33、34 カメラ
100、101、102、103、104、105、106 ロボットシステム
H1、H2 ユーザ
R エージェント
【特許請求の範囲】
【請求項1】
複数人のユーザに対するインタラクション動作を行う出力部と、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する認識部と、
前記コミュニケーションリズムに基づいて、前記ユーザ間の同調度合を算出する同調度合算出部と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースと、
前記ルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御するインタラクション制御部と、を備えるロボットシステム。
【請求項2】
前記同調度合に基づいて、コミュニケーション場の状態であるコミュニケーションモードを決定するモード決定部をさらに備え、
前記ルールデータベースを、前記コミュニケーションモードに応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記コミュニケーションモード決定部により決定されたコミュニケーションモードに対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合とを用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項1に記載のロボットシステム。
【請求項3】
前記複数人のユーザ各々のコミュニケーションリズムに基づいて、そのユーザの内部状態を推定するユーザ内部状態推定部をさらに備え、
前記ルールデータベースを、前記内部状態に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記ユーザ内部状態推定部により推定された内部状態に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項1又は2に記載のロボットシステム。
【請求項4】
前記複数人のユーザ各々の内部状態に基づいて、そのユーザが発話しようとする意思があるかないかを示す指標値を推定する発話マインド推定部をさらに備え、
前記ルールデータベースを、前記指標値に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記発話マインド推定部により推定された指標値に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項3に記載のロボットシステム。
【請求項5】
前記複数人のユーザ各々の内部状態に基づいて、前記ユーザ間の社会的関係性を示すユーザ間情報を推定するユーザ間情報推定部をさらに備え、
前記ルールデータベースを、前記ユーザ間情報に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記ユーザ間情報推定部により推定されたユーザ間情報に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項3に記載のロボットシステム。
【請求項6】
前記コミュニケーションリズム及び前記同調度合と、それらに基づいて探索された前記動作命令と、を関連付けて記憶するととともに、
前記動作命令と、その動作命令に基づく前記インタラクション制御部の下で行われた前記出力部のインタラクション動作に対する前記ユーザ各々の反応としての前記コミュニケーションリズム及び前記同調度合と、を関連付けて記憶するエピソード記憶データベースと、
前記コミュニケーションリズムと、前記同調度合と、前記動作命令とを、前記エピソード記憶データベースに蓄積するエピソード蓄積部と、
前記エピソード記憶データベースを参照して、前記コミュニケーションリズム及び前記同調度合と、前記インタラクション動作との最適な関係を学習することにより、前記ルールデータベースに記憶されたルールを調整するエピソード学習部と、をさらに備えることを特徴とする請求項1乃至5のいずれか一項に記載のロボットシステム。
【請求項7】
前記ユーザの個人情報が蓄えられたユーザパーソナリティ情報データベースをさらに備え、
前記インタラクション制御部は、
前記ユーザパーソナリティ情報データベースに蓄えられた情報に基づいて、前記出力部を制御することを特徴とする請求項1乃至6のいずれか一項に記載のロボットシステム。
【請求項8】
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを用いたコミュニケーション活性化方法であって、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の工程と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の工程と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の工程と、を含むコミュニケーション活性化方法。
【請求項9】
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを制御するコンピュータに、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の手順と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の手順と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の手順と、を実行させるプログラム。
【請求項1】
複数人のユーザに対するインタラクション動作を行う出力部と、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する認識部と、
前記コミュニケーションリズムに基づいて、前記ユーザ間の同調度合を算出する同調度合算出部と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースと、
前記ルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御するインタラクション制御部と、を備えるロボットシステム。
【請求項2】
前記同調度合に基づいて、コミュニケーション場の状態であるコミュニケーションモードを決定するモード決定部をさらに備え、
前記ルールデータベースを、前記コミュニケーションモードに応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記コミュニケーションモード決定部により決定されたコミュニケーションモードに対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合とを用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項1に記載のロボットシステム。
【請求項3】
前記複数人のユーザ各々のコミュニケーションリズムに基づいて、そのユーザの内部状態を推定するユーザ内部状態推定部をさらに備え、
前記ルールデータベースを、前記内部状態に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記ユーザ内部状態推定部により推定された内部状態に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項1又は2に記載のロボットシステム。
【請求項4】
前記複数人のユーザ各々の内部状態に基づいて、そのユーザが発話しようとする意思があるかないかを示す指標値を推定する発話マインド推定部をさらに備え、
前記ルールデータベースを、前記指標値に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記発話マインド推定部により推定された指標値に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項3に記載のロボットシステム。
【請求項5】
前記複数人のユーザ各々の内部状態に基づいて、前記ユーザ間の社会的関係性を示すユーザ間情報を推定するユーザ間情報推定部をさらに備え、
前記ルールデータベースを、前記ユーザ間情報に応じて複数備え、
前記インタラクション制御部は、
複数の前記ルールデータベースの中から、前記ユーザ間情報推定部により推定されたユーザ間情報に対応するルールデータベースを選択し、
選択されたルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御することを特徴とする請求項3に記載のロボットシステム。
【請求項6】
前記コミュニケーションリズム及び前記同調度合と、それらに基づいて探索された前記動作命令と、を関連付けて記憶するととともに、
前記動作命令と、その動作命令に基づく前記インタラクション制御部の下で行われた前記出力部のインタラクション動作に対する前記ユーザ各々の反応としての前記コミュニケーションリズム及び前記同調度合と、を関連付けて記憶するエピソード記憶データベースと、
前記コミュニケーションリズムと、前記同調度合と、前記動作命令とを、前記エピソード記憶データベースに蓄積するエピソード蓄積部と、
前記エピソード記憶データベースを参照して、前記コミュニケーションリズム及び前記同調度合と、前記インタラクション動作との最適な関係を学習することにより、前記ルールデータベースに記憶されたルールを調整するエピソード学習部と、をさらに備えることを特徴とする請求項1乃至5のいずれか一項に記載のロボットシステム。
【請求項7】
前記ユーザの個人情報が蓄えられたユーザパーソナリティ情報データベースをさらに備え、
前記インタラクション制御部は、
前記ユーザパーソナリティ情報データベースに蓄えられた情報に基づいて、前記出力部を制御することを特徴とする請求項1乃至6のいずれか一項に記載のロボットシステム。
【請求項8】
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを用いたコミュニケーション活性化方法であって、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の工程と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の工程と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の工程と、を含むコミュニケーション活性化方法。
【請求項9】
複数人のユーザに対するインタラクション動作を行う出力部を備えるロボットシステムを制御するコンピュータに、
前記複数人のユーザ各々のバーバル情報及びノンバーバル情報に基づいて、そのユーザのコミュニケーションリズムを認識する第1の手順と、
前記コミュニケーションリズムに基づいて前記ユーザ間の同調度合を算出する第2の手順と、
前記コミュニケーションリズム及び前記同調度合に応じて前記出力部が前記ユーザに対して行うべきインタラクション動作に関して、コミュニケーションの発展段階に応じた引込現象の動的な誘発戦略の下で構築されたルールを記憶するルールデータベースを参照して、そのルールに従って前記コミュニケーションリズムと前記同調度合を用いて前記ユーザに対して行うべき動作命令を探索し、探索された動作命令に基づいて前記出力部を制御する第3の手順と、を実行させるプログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【公開番号】特開2010−110864(P2010−110864A)
【公開日】平成22年5月20日(2010.5.20)
【国際特許分類】
【出願番号】特願2008−285993(P2008−285993)
【出願日】平成20年11月6日(2008.11.6)
【出願人】(000004237)日本電気株式会社 (19,353)
【出願人】(503420833)学校法人常翔学園 (62)
【Fターム(参考)】
【公開日】平成22年5月20日(2010.5.20)
【国際特許分類】
【出願日】平成20年11月6日(2008.11.6)
【出願人】(000004237)日本電気株式会社 (19,353)
【出願人】(503420833)学校法人常翔学園 (62)
【Fターム(参考)】
[ Back to top ]