説明

コミュニケーションエージェントの動作制御装置、コミュニケーションエージェントの動作制御方法、及びそのプログラム

【課題】エージェントが人に対し視線動作により情報を伝達する際に、対話時の周辺事情による視線動作への影響が考慮された自然な視線動作を実現する。
【解決手段】人と相手との対話時における、当該人の注視点の時系列集合である複数の視線動作軌道と、当該相手の所定の行動の変化とその行動の変化が生じたときの当該人の注視点の座標との組である複数の注視点情報と、を用い、人間行動認識部が、エージェントと対話しているユーザの行動を監視し、所定の行動の変化の検出時に当該行動の変化に対応する注視点情報に含まれる座標(仮想注視点)を軌道選択決定部に与え、軌道選択決定部は、1つの視線動作軌道を選択し、仮想注視点が与えられた時には行動の変化の検出時における当該視線動作軌道上の注視点を仮想注視点の方向に移動した軌道を新たな視線動作軌道とし、仮想注視点が与えられていない間は選択した視線動作軌道をそのまま用いる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人間の行動、仕草に反応して、自らの視線の方向を変える行動によりそれを観察している人間に対して働きかけを実行する、コミュニケーションエージェントの動作制御装置、コミュニケーションエージェントの動作制御方法、及びそのプログラムに関する。
【背景技術】
【0002】
ロボットは、人間に代わり単純な作業を効率的に行うための主体(エージェント)として、1980年代、製造業を中心とする工場に導入されてきた。その一方、近年、エンターテインメント、あるいは介護支援、清掃等の生活支援やQoL(Quality-of-Life)の向上を目的とする機能を有する多様なサービスロボットが、一般の日常生活において普及し始めている。このようなサービスロボットに関しては、人間の社会生活、あるいは個人生活の環境に接近するに伴い、ユーザとしての人間の個性やその時の状況に合わせた、きめ細かい動作を求められたり、その仕草が人間に近い、あるいは人間の仕草を想起させることで当該ユーザ、およびそれを周囲で見守る人間のロボットに対する親近感を醸成したりすることも必要な状況になりつつある。そのため、人間とロボットとが明示的あるいは非明示的な手段で相互にコミュニケーションする環境下における研究開発やサービスの方向性として、大まかに次の2つに分けられる。1つは、新たな手法、およびインタフェースによるコミュニケーションの可能性を追求する方向であり、もう1つは、日常において人間−人間で行われるコミュニケーションを観察、解析することで、ロボットが備えるべき機能を追及する方向である。本発明は、後者の方向に向けたものである。
【0003】
後者の方向に係る従来技術として、例えば、特許文献1の技術が挙げられる。特許文献1には、ディスプレイ上の擬人化エージェントが非言語的なコミュニケーション手段により人間に伝えるべき目的情報に従い、複数の注視点座標の中から1つを選択して、その時の人間、およびエージェントの状態に応じて注視点座標に補正を施して、補正後の注視点座標に基づき、画面上のキャラクタを動かして人間に働きかける、エージェントの制御方法、制御インタフェース、およびプログラムが記載されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2002−222437号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1の方法では、人と相手とが対話する中で収集した、目的情報である相手の行動の変化(例えば、発話、視線方向の変化、顔向きの変化、表情の変化など)に対する人の注視点の座標を記録し、その座標分布をその状況における視線動作の確率分布に置き換えて、その確率分布図でコミュニケーションエージェントの視線移動動作を予め規定しておく。このような、目的情報に応じた注視点座標分布図をシステム側で複数用意しておき、コミュニケーションエージェントが、その中から相対する人間から生じる目的情報に相応しい注視点動作を選択して実行することにより、相対する人間への非言語的な動作による働きかけを実現している。
【0006】
しかし、実際の対話環境においては、人が相手の行動の変化を検知する際、検知と同時又はその直前に周囲で生じた事情により、注視点動作が影響を受ける場合が多い。この場
合、特許文献1の方法のように単に相手の行動の変化の検知時の視線動作を確率分布として捉えるだけでは、そのような影響が加味された自然な視線動作をコミュニケーションエージェントに十分に反映できない。
【0007】
本発明は、コミュニケーションエージェントが人間に対して視線動作により情報を伝達する場合に、対話時の周辺事情により生じる人間の視線動作への影響が考慮された自然な視線動作をコミュニケーションエージェントに反映することが可能な、コミュニケーションエージェントの動作制御装置、コミュニケーションエージェントの動作制御方法、及びそのプログラムを提供することにある。
【課題を解決するための手段】
【0008】
本発明のコミュニケーションエージェントの動作制御装置は、軌道集合記憶部と注視点情報記憶部と人間行動認識部と軌道選択決定部と行動実行部とを備える。
【0009】
軌道集合記憶部は、人と相手との対話時に収集された、当該人の視線方向に延長した直線と仮想視野平面との交点である注視点の時系列集合である視線動作軌道が複数記憶される。
【0010】
注視点情報記憶部は、人と相手との対話時に収集された、当該相手の所定の行動の変化と、その行動の変化が生じたときの前記注視点の座標と、の組である注視点情報が、当該所定の行動の変化ごとに記憶される。
【0011】
人間行動認識部は、コミュニケーションエージェントと対話しているユーザの行動を監視し、前記所定の行動の変化を検出した場合に、検出した行動の変化に対応する前記注視点情報を注視点情報記憶部から検索し、得られた注視点情報に含まれる座標(以下、「仮想注視点」という。)と当該行動の変化が検出された時刻との組である仮想注視点データを軌道選択決定部に与える。
【0012】
軌道選択決定部は、軌道集合記憶部から、所定のルールにより1つの視線動作軌道を選択し、人間行動認識部で前記所定の行動の変化が検出されたときには、前記行動の変化が検出された時刻における当該視線動作軌道上の注視点を前記仮想注視点の方向に移動補正して、補正された軌道を新たな視線動作軌道として行動実行部に与え、前記所定の行動の変化が検出されていない間は、選択した視線動作軌道を補正することなく行動実行部に与える。
【0013】
行動実行部は、軌道選択決定部から与えられた視線動作軌道に基づいて、前記コミュニケーションエージェントの視線方向を制御する。
【発明の効果】
【0014】
本発明のコミュニケーションエージェントの動作制御装置、コミュニケーションエージェントの動作制御方法、及びそのプログラムによれば、コミュニケーションエージェントが人間に対して視線動作により情報を伝達する際に、目的情報の入力が無い間は、通常の対話時における人の視線動作から予め生成された視線動作軌道を参照して視線動作を制御し、目的情報の入力があった時は、視線動作軌道をその目的情報に応じて補正することにより、対話時の周辺事情により生じる人の視線動作への影響が考慮された自然な視線動作をコミュニケーションエージェントに反映することができる。
【図面の簡単な説明】
【0015】
【図1】コミュニケーションエージェントの動作制御装置100の構成例を示す図。
【図2】コミュニケーションエージェントの動作制御装置100の処理フロー例を示す図。
【図3】動作軌道収集部160の構成例を示す図。
【図4】動作軌道収集部160の処理フロー例を示す図。
【図5】視線動作軌道上の注視点の仮想注視点方向への移動補正のイメージを示す図。
【図6】検知された注視点の分布イメージを示す図。
【図7】検知された注視点の位置と注視継続時間の計測結果の分布イメージを示す図。
【図8】注視点情報収集部170の構成例を示す図。
【図9】注視点情報収集部170の処理フロー例を示す図。
【発明を実施するための形態】
【0016】
以下、本発明の実施形態について、詳細に説明する。
【実施例1】
【0017】
本発明のコミュニケーションエージェントの動作制御装置100の構成例を図1に、その構成例における処理フローを図2に示す。コミュニケーションエージェントの動作制御装置100は、軌道集合記憶部110、注視点情報記憶部120、人間行動認識部130、軌道選択決定部140、及び行動実行部150を備え、ユーザと対話するコンピュータで制御されるロボットやぬいぐるみ等のコミュニケーションエージェント10の視線動作を制御する。
【0018】
軌道集合記憶部110は、人と相手との対話時に収集された、当該人の視線方向に延長した直線と仮想視野平面(当該相手を含む所定の大きさの平面)との交点である注視点の時系列集合である視線動作軌道が複数記憶される。視線動作軌道は、予め収集しておいたものでもよいし、実施例2で説明する動作軌道収集部160により収集したものでもよい。
【0019】
注視点情報記憶部120は、人と相手との対話時に収集された、当該相手の所定の行動の変化(例えば、発話、視線方向の変化、顔向きの変化、表情の変化など)とその行動の変化が生じたときの当該人の注視点の座標(仮想視野平面上で正規化された直交座標系におけるX軸とY軸の座標値)との組である注視点情報が、当該所定の行動の変化ごとに記憶される。注視点情報は、予め収集しておいたものでもよいし、実施例3で説明する注視点情報収集部170により収集したものでもよい。
【0020】
人間行動認識部130は、コミュニケーションエージェント10と対話しているユーザの行動を監視し、所定の行動の変化を検出した場合に、検出した行動の変化に対応する注視点情報を注視点情報記憶部120から検索し、得られた注視点情報に含まれる座標(Xvi,Yvi)(以下、「仮想注視点」という。)と当該行動の変化が検出された時刻tiとの組である仮想注視点データ(ti,Xvi,Yvi)を軌道選択決定部140に与える(S1)。
【0021】
軌道選択決定部140は、軌道集合記憶部110から所定のルールにより1つの視線動作軌道を選択し、人間行動認識部130で所定の行動の変化が検出されたときには、検出時刻tiにおける、選択した視線動作軌道上の注視点(Xi,Yi)を仮想注視点(Xvi,Yvi)の方向に移動補正して、補正された軌道を新たな視線動作軌道として行動実行部150に与える。一方、所定の行動の変化が検出されていない間は、選択した視線動作軌道を補正することなく行動実行部150に与える(S2)。
【0022】
視線動作軌道の選択は、そのときのユーザの行動を考慮して予め定めたルール等により決定論的に選択してもよいし、非決定論的に任意に選択してもよい。
【0023】
行動実行部150は、軌道選択決定部140から与えられた視線動作軌道に基づいて、コミュニケーションエージェント10の視線方向を制御する(S3)。具体的には、当該視線動作軌道が示す検出時刻ti以降の視線移動に必要なコミュニケーションエージェント10の可動部分と必要な可動量の大きさと変化の方向を指示する命令を生成し、コミュニケーションエージェント10の可動部分に対応する1個以上の駆動部へ命令を送る(図1では駆動部が3個の場合(駆動部11〜13)を示す)。
【0024】
以上説明した本発明のコミュニケーションエージェントの動作制御装置によれば、コミュニケーションエージェントがユーザに対して視線動作により情報を伝達する際に、目的情報の入力が無い間は、通常の対話時における人の視線動作から予め生成された視線動作軌道を参照して視線動作を制御し、目的情報の入力があった時は、視線動作軌道をその目的情報に応じて補正することにより、対話時の周辺事情により生じる人の視線動作への影響が考慮された自然な視線動作をコミュニケーションエージェントに反映することができる。
【実施例2】
【0025】
本発明のコミュニケーションエージェントの動作制御装置100において、軌道集合記憶部110に記憶する視線動作軌道を収集する動作軌道収集部160を、更に設けてもよい。
【0026】
図3に動作軌道収集部160の構成例を、図4にその構成例における処理フローを示す。動作軌道収集部160は、視線検出手段161、視線データ記憶手段162、視線特徴抽出手段163、視線特徴記憶手段164、及び軌道生成手段165を備える。
【0027】
視線検出手段161は、人と相手(人間又はコミュニケーションエージェント)の対話時に、当該人の注視点の座標(Xi,Yi)を所定の時間間隔の計測時刻ti(i=1,2,・・・)ごとに検出する(S4−1)。当該相手はビデオ画面やプロジェクタスクリーン等の表示機器上に表示されていてもよいし、実空間上で当該人からある距離だけ離れた地点に相対していてもよい。
【0028】
視線データ記憶手段162は、視線検出手段161で検出された時系列の注視点データ(ti,Xi,Yi)を記憶する(S4−2)。
【0029】
視線特徴抽出手段163は、視線検出手段161で検出された現時刻の注視点の座標と視線データ記憶手段162に記憶された過去の注視点の座標とを用いて、現時刻の注視点の座標における速度と加速度を求め、現時刻の注視点の座標と速度と加速度とからなる視線特徴量を生成する(S4−3)。
【0030】
具体的には、例えば現時刻をt3としたとき、視線検出手段161で検出された現時刻t3における注視点データ(t3,X3,Y3)と、視線データ記憶手段162に記憶された現時刻t3の直前の2時刻t1、t2(t1<t2<t3)の注視点データ(t2,X2,Y2)及び(t1,X1,Y1)とから、時刻t3とt2、及びt2とt1における注視点の変化量、すなわち仮想視野平面50上のX軸方向とY軸方向の速度
ΔX3=X3−X2
ΔY3=Y3−Y2
ΔX2=X2−X1
ΔY2=Y2−Y1
及び加速度
Δ23=ΔX3−ΔX2
Δ23=ΔY3−ΔY2
を計算し、現時刻t3における視線特徴量(t3,X3,Y3,ΔX3,ΔY32323)を求める。なお、直前2時刻分の注視点データが、まだ視線データ記憶手段162に記憶されていない場合は、視線特徴量の算出処理は行わない。また、人の目の瞬きや顔の動き等の諸条件により、注視点データの値が取得できず、欠落した注視点データが存在する場合には、欠落した注視点データを補完するために、例えば、欠落が発生した時間の1つ前と2つ前の時間に計測された注視点データの平均値を採用する、あるいは線形予測から導かれる予測値を設定することにより、欠落した注視点データの補完を行うように構成してもよい。
【0031】
このようにして得られた視線特徴量を用いることで、軌道選択決定部140における、選択した視線動作軌道上の注視点(Xi,Yi)の仮想注視点(Xvi,Yvi)の方向への移動補正を、例えば次のように行うことができる(図5参照)。注視点(Xi,Yi)における速度(ΔXi,ΔYi)は、大きさ√(ΔXi2+ΔYi2)を持ち、当該視線動作軌道の接線方向を向くベクトルとして表現される。そして、仮想注視点(Xvi,Yvi)に対する補正量を、この速度ベクトルと当該注視点(Xi,Yi)から仮想注視点(Xvi,Yvi)に向かうベクトルとのベクトル内積と定義すれば、当該注視点(Xi,Yi)をベクトル内積値の大きさの分だけ仮想注視点(Xvi,Yvi)の方向への移動補正すればよい。
【0032】
視線特徴量記憶手段164は、視線特徴抽出手段163で検出された視線特徴量を時系列で記憶する(S4−4)。
【0033】
軌道生成手段165は、視線特徴記憶手段164に時系列で記憶された視線特徴量を用いて、視線動作軌道を複数生成し、軌道集合記憶部110に記憶させる(S4−5)。
【0034】
軌道生成手段165における、視線動作軌道の生成方法の例を図5を用いて説明する。図6(a)〜(h)は人と相手がビデオ画面を介して相対して会話している最中に、人が相手を含む画面上のどこを注視しているかを点で示した注視点の分布図である。図6(a)は計測された全注視点を示したものであり、図6(b)〜(h)は、図6(a)の全注視点を、任意の計測時間区間あるいは全計測時間に含まれる注視点の座標と、各注視点における速度成分及び加速度成分と、を合わせて統計手法により、ある特徴を持つ50個のグループに分類して、グループに含まれる注視点の出現頻度が上位7番目までのグループを示したものである。分類する統計手法としては、周知の技術(隠れマルコフ過程(Hidden Markov Model)など)を用いることができる。軌道生成手段165では、注視点の出現頻度が上位所定数のグループ(図6の例では上位7個のグループ)から、各々複数個の注視点を選択し、仮想視野平面50上に展開して、これらの注視点を組み合わせることにより複数の視線動作軌道を生成する。
【0035】
また、視線動作軌道の生成方法の別の例を図7を用いて説明する。図6は、視聴対象として、ビデオ画面上の中空の円60を表示させ、当該対象を見るよう指示を受けた人が注視した注視点の位置と注視の継続時間を計測して、その結果を表示した分布図である。図7(a)は円の中に記載された番号順にある注視点から他の注視点に移動している状態を、また、図7(b)は同一対象について、画面上で注視点が留まっている時間(注視時間、又は停留時間)の長さに応じて黒白の濃淡で示したものである。このような座標と時間に関する分布図をもとに、複数の注視点を選択して視線動作軌道を生成することも可能である。
【実施例3】
【0036】
本発明のコミュニケーションエージェントの動作制御装置100において、注視点情報記憶部120に記憶する注視点情報を収集する注視点情報収集部170を、更に設けてもよい。
【0037】
図8に注視点情報収集部170の構成例を、図9にその構成例における処理フローを示す。注視点情報収集部170は、行動検出手段171と視線検出手段172とを備える。
【0038】
行動検出手段171は、人と相手とが実空間上ある距離だけ離れて相対して対話する環境において、当該相手の行動を監視し、所定の行動の変化の発生及びその種別を検出する(S5−1)。検出する所定の行動としては、例えば(1)発話、(2)顔向き、(3)視線方向、(4)表情、のうち少なくとも1つ以上を使用することとする。(1)については、マイクロフォンと周知の音声認識技術により発話しているか否かを検出することができる。(2)〜(4)については、ビデオカメラで当該相手の様子を撮影し、周知の画像解析技術により撮影した画像から顔向きや視線や表情を認識することができる。
【0039】
視線検出手段172は、行動検出手段171で所定の行動の変化が検出されたときの当該人の注視点の座標を検出し、検出された所定の行動の変化とその行動の変化が生じたときの当該人の注視点の座標との組である注視点情報を、所定の行動の変化ごとに注視点情報記憶部120に記憶させる(S5−2)。
【0040】
以上説明した各実施例のコミュニケーションエージェントの制御装置及び制御方法における各処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本発明のコミュニケーションエージェントの制御装置の各機能は必要に応じ、併合・分割しても構わない。その他、本発明において表現されている技術的思想の範囲内で適宜変更が可能である。
【0041】
本発明のコミュニケーションエージェントの制御装置を構成する各部、各手段をコンピュータによって実現する場合、各部が担う機能の処理内容はプログラムによって記述される。そのプログラムは、例えば、ハードディスク装置に格納されており、実行時には、必要なプログラムやデータがRAM(Random Access Memory)に読み込まれて、そのプログラムがCPUにより実行されることにより、コンピュータ上で各処理内容が実現される。

【特許請求の範囲】
【請求項1】
人と相手との対話時に収集された、当該人の視線方向に延長した直線と仮想視野平面との交点である注視点の時系列集合である視線動作軌道が、複数記憶された軌道集合記憶部と、
人と相手との対話時に収集された、当該相手の所定の行動の変化と、その行動の変化が生じたときの前記注視点の座標と、の組である注視点情報が、当該所定の行動の変化ごとに記憶された注視点情報記憶部と、
コミュニケーションエージェントと対話しているユーザの行動を監視し、前記所定の行動の変化を検出した場合に、検出した行動の変化に対応する前記注視点情報を注視点情報記憶部から検索し、得られた注視点情報に含まれる座標(以下、「仮想注視点」という。)と当該行動の変化が検出された時刻との組である仮想注視点データを軌道選択決定部に与える人間行動認識部と、
軌道集合記憶部から所定のルールにより1つの視線動作軌道を選択し、人間行動認識部で前記所定の行動の変化が検出されたときには、前記行動の変化が検出された時刻における当該視線動作軌道上の注視点を前記仮想注視点の方向に移動補正して、補正された軌道を新たな視線動作軌道として行動実行部に与え、前記所定の行動の変化が検出されていない間は、選択した視線動作軌道を補正することなく行動実行部に与える軌道選択決定部と、
軌道選択決定部から与えられた視線動作軌道に基づいて、前記コミュニケーションエージェントの視線方向を制御する行動実行部と、
を備えるコミュニケーションエージェントの動作制御装置。
【請求項2】
請求項1に記載のコミュニケーションエージェントの動作制御装置において、
更に動作軌道収集部を備え、
前記動作軌道収集部は、
人と相手の対話時に、当該人の前記注視点の座標を所定の時間間隔ごとに検出する視線検出手段と、
視線検出手段で検出された前記注視点の座標を時系列で記憶する視線データ記憶手段と、
視線検出手段で検出された現時刻の注視点の座標と視線データ記憶手段に記憶された過去の注視点の座標とを用いて、現時刻の注視点の座標における速度と加速度を求め、現時刻の注視点の座標と速度と加速度とからなる視線特徴量を生成する視線特徴抽出手段と、
視線特徴抽出手段で検出された前記視線特徴量を時系列で記憶する視線特徴記憶手段と、
視線特徴記憶手段に時系列で記憶された前記視線特徴量を用いて、前記視線動作軌道を複数生成し、前記軌道集合記憶部に記憶させる軌道生成手段と、
を備える
ことを特徴とするコミュニケーションエージェントの動作制御装置。
【請求項3】
請求項1又は2に記載のコミュニケーションエージェントの動作制御装置において、
更に注視点情報収集部を備え、
前記注視点情報収集部は、
人と相手の対話時に、当該相手の行動を監視し、前記所定の行動の変化の発生及びその種別を検出する行動検出手段と、
行動検出手段で前記所定の行動の変化が検出されたときの前記人の前記注視点の座標を検出し得られた前記注視点情報を、前記所定の行動の変化ごとに前記注視点情報記憶部に記憶させる視線検出手段と、
を備える
ことを特徴とするコミュニケーションエージェントの動作制御装置。
【請求項4】
人と相手との対話時に収集された、当該人の視線方向に延長した直線と仮想視野平面との交点である注視点の時系列集合である視線動作軌道が、複数記憶された軌道集合記憶部と、
人と相手との対話時に収集された、当該相手の所定の行動の変化と、その行動の変化が生じたときの前記注視点の座標と、の組である注視点情報が、当該所定の行動の変化ごとに記憶された注視点情報記憶部と、
を用い、
コミュニケーションエージェントと対話しているユーザの行動を監視し、前記所定の行動の変化を検出した場合に、検出した行動の変化に対応する前記注視点情報を注視点情報記憶部から検索し、得られた注視点情報に含まれる座標(以下、「仮想注視点」という。)と当該行動の変化が検出された時刻との組である仮想注視点データを軌道選択決定ステップに与える人間行動認識ステップと、
軌道集合記憶部から所定のルールにより1つの視線動作軌道を選択し、人間行動認識ステップで前記所定の行動の変化が検出されたときには、前記行動の変化が検出された時刻における当該視線動作軌道上の注視点を前記仮想注視点の方向に移動補正して、補正された軌道を新たな視線動作軌道として出力し、前記所定の行動の変化が検出されていない間は、選択した視線動作軌道を補正することなく出力する軌道選択決定ステップと、
軌道選択決定ステップで得られた視線動作軌道に基づいて、前記コミュニケーションエージェントの視線方向を制御する行動実行ステップと、
を実行するコミュニケーションエージェントの動作制御方法。
【請求項5】
請求項4に記載のコミュニケーションエージェントの動作制御方法において、
更に動作軌道収集ステップを実行し、
前記動作軌道収集ステップは、
人と相手の対話時に、当該人の前記注視点の座標を所定の時間間隔ごとに検出する視線検出サブステップと、
視線検出サブステップで検出された前記注視点の座標を視線データ記憶手段に時系列で記憶する視線データ記憶サブステップと、
視線検出サブステップで検出された現時刻の注視点の座標と視線データ記憶手段に記憶された過去の注視点の座標とを用いて、現時刻の注視点の座標における速度と加速度を求め、現時刻の注視点の座標と速度と加速度とからなる視線特徴量を生成する視線特徴抽出サブステップと、
視線特徴抽出サブステップで検出された前記視線特徴量を視線特徴記憶手段に時系列で記憶する視線特徴記憶サブステップと、
視線特徴記憶手段に時系列で記憶された前記視線特徴量を用いて、前記視線動作軌道を複数生成し、前記軌道集合記憶部に記憶させる軌道生成サブステップと、
を実行する
ことを特徴とするコミュニケーションエージェントの動作制御方法。
【請求項6】
請求項4又は5に記載のコミュニケーションエージェントの動作制御方法において、
更に注視点情報収集ステップを実行し、
前記注視点情報収集ステップは、
人と相手の対話時に、当該相手の行動を監視し、前記所定の行動の変化の発生及びその種別を検出する行動検出サブステップと、
行動検出サブステップで前記所定の行動の変化が検出されたときの前記人の前記注視点の座標を検出し、得られた前記注視点情報を、前記所定の行動の変化ごとに前記注視点情報記憶部に記憶させる視線検出サブステップと、
を実行する
ことを特徴とするコミュニケーションエージェントの動作制御方法。
【請求項7】
請求項1乃至3のいずれかに記載のコミュニケーションエージェントの動作制御装置としてコンピュータを機能させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図8】
image rotate

【図9】
image rotate

【図7】
image rotate


【公開番号】特開2013−6232(P2013−6232A)
【公開日】平成25年1月10日(2013.1.10)
【国際特許分類】
【出願番号】特願2011−139777(P2011−139777)
【出願日】平成23年6月23日(2011.6.23)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】