説明

行動表現システム、および行動表現処理装置

【課題】 高齢者の生活パターンは高齢者の生活を見守る側にとって退屈なものであり、見守り作業は単調である。その結果、見守りには“慣れ”や“飽き”が生じ易い。本発明は、高齢者の行動を表出するロボットを見守る場合における、近親者の見守りへの“慣れ”や“飽き”といったマンネリ化を防止することを目的とする。
【解決手段】 高齢者の動作を検知する第1の動作検知手段401により得られた第1の検知結果に依存して、高齢者の行動を近親者宅のロボット200で表出させる一方、近親者の見守り動作を検知する第2の動作検知手段105、201により得られた第2の検知結果から近親者の関心度を推定し、その結果をフィードバックさせることでロボット200の行動表出に変化を与える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、観察者に対して被観察体の行動を表現する際に使用する行動表現システム、および行動表現処理装置に関するものであり、特に、間接的に被観察体を見守る場合などに用いて好適なものである。
【背景技術】
【0002】
高齢社会、少子化時代を迎え、独居高齢者のライフケアが大きな社会問題となってきている。昨今では、別居家族だけでなく、ボランティア等も含めた地域社会全体で独居高齢者のライフケアサポートが必要であると言われている。このような状況の中、ロボットを利用した高齢者の生活見守りシステムへの期待が大きくなってきている。
【0003】
一方、これまでの高齢者の見守りシステムとして、人の存在、動き、環境等に関する情報を検知してこれらを送信し、受信側でこれらの情報を具体的な表現として表すことで、例えば遠隔地に居る近親者等に緊急状態等を伝達する通信装置(特許文献1)や、居住者の生活状況を検知し、検知した結果をインターネット等の通信網を介して遠隔地に伝達し、これを元にバーチャルフラワーやロボット等を動作させることで、居住者の生活状況を遠隔地に居る近親者等に伝達するシステム(特許文献2)などが提案されている。
【特許文献1】特開2003−67874
【特許文献2】特開2004−96630
【発明の開示】
【発明が解決しようとする課題】
【0004】
然し乍ら、見守る側にとって、高齢者の生活状況を常時見守ることは退屈な作業であり、継続的に見守るには忍耐力が要求される場合も多い。また、高齢者の生活状況を反映して動作する先述のバーチャルフラワーやロボット等の動作を見守るという単調作業に対し“慣れ” や“飽き”が生じ、その結果独居高齢者の生活を見守るという本来の目的を損なう可能性もある。
【0005】
そこで、本発明は、見守る側における単調な作業に対する“慣れ”や“飽き”を軽減するような行動表現システム、および行動表現処理装置を提供することを課題とする。
【課題を解決するための手段】
【0006】
本発明の行動表現システムは、被観察体の動作を検知する第1の動作検知手段と、前記被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットと、前記観察者の動作を検知する第2の動作検知手段と、を備えると共に、前記行動表現ユニットを制御するための制御情報を、前記第1の動作検知手段により得られた第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から求めるための制御情報生成手段を有する、ことを特徴とする。
【0007】
本発明によると、第1の動作検知手段により検知された被観察体の動作に対応する動作を行動表現ユニットが行った際に、それを見た観察者のリアクションを第2の動作検知手段で検知し、前記行動表現ユニットを制御するための制御情報にフィードバックすることで、観察者が見守りという単調な作業に対して“慣れ”や“飽き”を感じることを軽減させることができる。
【0008】
なお、前記制御情報生成手段は、前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求めるものであってもよい。
【0009】
さらに、前記行動表現システムはより好ましくは、前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段と、前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段と、を備え、前記制御情報生成手段は、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。
【0010】
また、前記行動表現システムは、前記第1の検知結果を送信する送信手段と、前記送信手段により送信された前記第1の検知結果を受信する受信手段と、を有し、前記制御情報生成手段は、前記受信手段により受信した前記第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から前記制御情報を求めるものであってもよい。
【0011】
また、前記制御情報生成手段は、前記受信手段により受信した第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求める、ものであってもよい。
【0012】
また、前記行動表現システムは、前記第1の検知結果を送信する送信手段と、前記送信手段により送信された前記第1の検知結果を受信する受信手段と、を有し、前記動作推定手段は、前記受信手段により受信した前記第1の検知結果に基づき前記被観察体の動作を推定するものであってもよい。
【0013】
さらに、前記行動表現システムはより好ましくは、前記動作推定手段により推定された前記被観察体の動作に関する情報を送信する送信手段と、前記送信手段により送信された前記被観察体の動作に関する情報を受信する受信手段と、を有し、前記制御情報生成手段は、前記受信手段により受信した前記被観察体の動作に関する情報と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。
【0014】
以上のように、被観察体側から第1の検知結果を送信手段によって送信することで、遠隔地の被観察体の見守りが可能となる。
【0015】
なお、前記行動表現システムは、前記行動表現ユニットを制御する制御情報と、前記第2の動作検知手段により検知された前記観察者に関する第2の検知結果と、を関連付けて格納する格納手段を備え、前記制御情報生成手段は、前記第1の検知結果と、前記格納手段に格納された情報とから、前記原制御情報を求めるものであってもよい。
【0016】
なお、前記行動表現システムは、前記行動表現ユニットを制御する制御情報と、前記関心度推定手段により推定された関心度情報により制御された前記観察者の関心度と、を関連づけて格納する格納手段を備え、前記制御情報は、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、前記格納手段に格納された情報とから、前記制御情報を求めるものであってもよい。
【0017】
このように、行動表現ユニットを制御する制御情報、第2の動作検知手段により検知された第2の検知結果、関心度推定手段により推定された関心度情報により制御された前記観察者の関心度、などを格納する格納手段を備えることで、過去のデータなどを利用することができ、観察者の個性に応じたシステムのカスタマイズが可能となる。
【0018】
本発明の行動表現処理装置は、被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットを制御するための制御情報を、前記被観察体の動作を検知する第1の動作検知手段により得られた第1の検知結果と、前記観察者の動作を検知する第2の動作検知手段により得られた第2の検知結果と、から求めるための制御情報生成手段を有する、ことを特徴とする。
【0019】
なお、前記行動表現処理装置は、前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求めるものであってもよい。
【0020】
また、前記行動表現処理装置は、前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段と、前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段と、を備え、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。
【0021】
また、前記行動表現処理装置は、前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段を備え、前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段により推定された前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。
【0022】
また、前記行動表現処理装置は、前記第1の検知結果を送信する送信手段により送信された前記第1の検知結果を受信する受信手段を有し、前記受信手段により受信した前記第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から前記制御情報を求めるものであってもよい。
【0023】
また、前記行動表現処理装置は、前記受信手段により受信した第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求めるものであってもよい。
【0024】
また、前記行動表現処理装置は、前記第1の検知結果を送信する送信手段により送信された前記第1の検知結果を受信する受信手段を有し、前記動作推定手段は、前記受信手段により受信した前記第1の検知結果に基づき前記被観察体の動作を推定するものであってもよい。
【0025】
また、前記行動表現処理装置は、前記動作推定手段により推定された前記被観察体の動作に関する情報を送信する送信手段により送信された前記被観察体の動作に関する情報を受信する受信手段を有し、前記受信手段により受信した前記被観察体の動作に関する情報と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。
【0026】
また、前記行動表現処理装置は、前記行動表現ユニットを制御する制御情報と、前記第2の動作検知手段により検知された前記観察者に関する第2の検知結果と、を関連付けて格納する格納手段を備え、前記第1の検知結果と、前記格納手段に格納された情報とから、前記原制御情報を求めるものであってもよい。
【0027】
また、前記行動表現処理装置は、前記行動表現ユニットを制御する制御情報と、前記関心度推定手段により推定された関心度情報により制御された前記観察者の関心度と、を関連づけて格納する格納手段を備え、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、前記格納手段に格納された情報とから、前記制御情報を求めるものであってもよい。
【0028】
本発明の行動表現ユニットは、被観察体の動作を検知する第1の動作検知手段により得られた第1の検知結果と、観察者の動作を検知する第2の動作検知手段により得られた第2の検知結果と、から求められた制御情報の制御に従い、前記被観察体の動作に対応する動作を観察者に対して行う、ことを特徴とする。
【0029】
さらに、前記行動表現ユニットはより好ましくは、前記観察者の動作を検知する前記第2の動作検知手段を有するものであってもよい。
【0030】
行動表現ユニットに第2の動作検知手段を具備することで、観察者のより詳細な動作検知を行うことができる。
【0031】
本発明により、見守る側における単調な作業に対する“慣れ”や“飽き”を軽減するような行動表現システム、および行動表現処理装置を提供することができる。
【発明を実施するための最良の形態】
【0032】
以下、本発明の実施の形態につき図面を参照して説明する。
【0033】
図1は、本実施の形態に係る行動表現システム1の構成を示すブロック図である。本システムによれば、例えば、離れて住む高齢者の見守りを行う事が可能となる。
【0034】
同図を参照して、100は観察者(以下、近親者)側に設置される行動表現処理装置(以下、サーバ)、200は被観察体の動作に対応する動作を近親者に対して行うため近親者側に設置される行動表現ユニット(以下、ロボット)、300は電気通信回線(以下、インターネット)、400は被観察体(以下、高齢者)側に設置されるサブユニットである。
【0035】
サブユニット400において、401は本発明における第1の動作検知手段の一例である高齢者の動作検知のための動作検知用センサで、高齢者側の環境サイド、例えば高齢者宅の壁や天井、家電機器等に設置されている。402は動作検知用センサ401の検知結果をもとに高齢者の行動を推定する動作推定手段(以下、行動推定部)である。403は行動推定部402の推定結果をインターネット300を介して後で述べる受信部101へ送信する送信手段(以下、送信部)である。
【0036】
ロボット200において、201はロボットに設置された近親者の動作検知のためのロボット側搭載センサであり、本発明における第2の動作検知手段の一例である。
【0037】
サーバ100において、101はインターネット300を介して送信部403から送信されたデータを受信する受信手段(以下、受信部)である。102は受信部101で受信された高齢者の行動の推定結果と後述の関心度推定部106における近親者の関心度の推定結果に従って次段で使用する行動表現データを決定する行動表現決定部、103は行動表現データに従い具体的に高齢者の行動に対応する行動をロボット200に行わせるための制御情報(以下、行動表現指令信号)を発する行動表現コントローラである。上記行動表現決定部102と行動表現コントローラ103は本発明における制御情報生成手段の一例である。
【0038】
104はロボット200と行動表現指令信号やロボット側搭載センサ201の検知結果などを授受する通信部、105は本発明における第2の動作検知手段の別の例である近親者の動作検知のための動作検知用センサであり、近親者側の環境サイド、例えば近親者宅の壁や天井、家電機器等に設置されている。
【0039】
106は動作検知用センサ105、および/またはロボット側搭載センサ201の検知結果をもとに近親者の動作から近親者のロボット200への関心の程度を推定する関心度推定部、107は行動表現決定部102や関心度推定部106の推定結果などを格納する推定結果格納部(以下、関心度DB[データベース])である。なお、行動表現決定部102で関心度DB107のデータを参酌して行動表現データを決定する事も可能である。
【0040】
動作検知用センサ105やロボット側搭載センサ201、動作検知用センサ401は、例えば、画像センサ、音感センサ、圧力センサ、赤外線(焦電)センサ、距離センサ、加速度センサ等で構成される。また、動作検知用センサ105や動作検知用センサ401は、例えば、家電製品のスイッチや扉部などに装着されたセンサであってもよいし、図示しない近親者や高齢者に装着するウェアラブルなセンサであってもよい。
【0041】
図2は上述のロボット200の一例を説明するための模式的な外観図である。同図に示すロボット200は、総軸数6の稼動部の他、顔部分等のLED表示(目、頬など)、口部分のスピーカによる音声出力可能なロボットとなっているが、これに限らず、さらに軸数増加などによってより詳細な行動表現、感情表現が可能となっているヒューマノイド型ロボットであってもよい。また、被観察体が犬などの場合には、犬型ロボットでもよいし、ロボット以外にも高齢者の動作に応じて行動表現を行うことができるバーチャルフラワー等であってもよい。
【0042】
図1の構成により、本実施形態にかかる行動表現システム1では、ロボット200が行った行動表現を見た近親者の動作を動作検知用センサ105が検知し、その結果を基に近親者のロボット200に対する関心度を関心度推定部106で推定し、その推定結果を行動表現決定部102にフィードバックしている。つまり、サーバ100の出力であるロボット200の行動表現への近親者の関心度がサーバ100へフィードバックされ、ロボット200の動作に反映される構成となっている。この結果、ロボット200は近親者の注意を惹くことができ、近親者の“慣れ”や“飽き”を軽減させることが可能となる。
【0043】
次に、高齢者の見守りにおける一連の行動表現システム1における動作フローについて図3のフローチャートを用いて説明する。
【0044】
同図を参照して、同図の右側が高齢者のサブユニット400側の動作フローであり、同左側が近親者のサーバ100側の動作フローである。両フローは各々で別個独立に動作する。
【0045】
まず、右側の高齢者宅サブユニット400側の動作フローについて説明する。
【0046】
高齢者宅のサブユニット400の電源が投入されると、スタートからステップS101へ動作が遷移する。
【0047】
ステップS101では、動作検知用センサ401を用いた高齢者の動作検知(以下、センシング動作)が開始される。各センサにより検知されたセンシングデータは時系列的にサブユニット400中の図示しないメモリ等に格納される。
【0048】
ステップS102では、任意の時間分のセンシングデータがメモリから取得される。すなわち、行動というものは瞬時的な性格のものではなく、むしろ時間的な継続性を有しているため、次のステップで行動推定を行う際に有用な量のセンシングデータが読込まれる。なお、この時間はステップS104で推定結果を送信部403から受信バッファへ送信する時間周期に依存しても良い。
【0049】
ステップS103では、行動推定部402において上記センシングデータを用いて、高齢者の当該時間内における具体的な行動が推定される。この結果、例えば、睡眠、食事、掃除、テレビ鑑賞、歩行といった高齢者の行動がセンシング結果から推定される。
【0050】
ステップS104では、推定結果が送信部403から出力される。出力された推定結果は、受信部101を経て、サーバ100の受信バッファへ出力される。この送信動作は、例えば1分間隔で行われる。
【0051】
ステップS105では、サブユニット400に対し動作終了指示などがあった場合には終了処理を行い、一連のフローを終了する。それ以外はステップS102へ移動し、一連のフローを繰り返す。
【0052】
次に、左側の近親者宅サーバ100側の動作フローについて説明する。なお、サブユニット400の電源が投入されてから一定時間経過後にサーバ100の電源が投入され、サーバ100内の受信バッファにデータがある程度蓄積されている前提で説明を行う。
【0053】
近親者宅のサーバ100の電源が投入されると、左図のフローにおいてスタートからステップS201へ動作が遷移する。
【0054】
ステップS201では、動作検知用センサ105を用いた近親者のセンシング動作が開始される。各センサにより検知されたセンシングデータは時系列的にサーバ100中のメモリ等に格納される。なお、センシング動作にはロボット側搭載センサ201を使用してもよい。本実施形態ではロボット側搭載センサ201も使用する場合を例にとって説明を行う。
【0055】
ステップS202では、任意の時間分のセンシングデータがメモリから取得される。すなわち、次のステップで行動推定を行う際に有用な量のセンシングデータが読込まれる。
【0056】
ステップS203では、関心度推定部106において上記センシングデータを用いて近親者のロボット200(ロボット200の行動表現を含む)に対する関心の程度(関心度)が推定される。この推定において、動作検知用センサ105のみを使用する場合は、センサ105のセンシング結果のみから近親者のロボット200に対する関心度が推定される。本実施形態のようにロボット側搭載センサ201を使用する場合には、例えば、動作検知用センサ105は近親者の居場所を特定してロボット200を近親者の方へ移動させる用に使用し、近親者がロボット200に対して関心を示しているかどうかの推定はロボット側搭載センサ201のセンシング結果を用いて行う、といったセンシング結果の使い分けをすることも可能である。
【0057】
ステップS204では、上記の近親者のロボット200への関心度などが関心度DB107に格納される。なお、後述のステップS207において関心度DB107から読み出されたデータを参照しない場合には、当該ステップS204は実行しなくてもよい。
【0058】
ステップS205では、行動表現決定部102に受信バッファから高齢者の行動の推定結果が読込まれる。読み込みの際のデータ量、および読込み周期は任意に設定してよいが、バッファがオーバーフローしないようなデータ量、および周期である必要がある。
【0059】
ステップS206では、関心度DB107から過去に格納した近親者のロボット200への関心度などが読み出される。例えば、関心度DB107には近親者の推定された関心度やプロフィール、嗜好、既往症、などが蓄積されている。なお、次のステップS207において関心度DB107から読み出されたデータを参照しない場合には、当該ステップS206は実行しなくてもよい。
【0060】
ステップS207では、図4に示される様な行動表現データが決定される。行動表現データは、例えば、高齢者のジェスチャを行うようなものであっても良い。なお、ステップS205で読込まれた高齢者の行動推定結果に従って、ロボット行動出力が一意に定まる。また、ステップS203で評価された近親者のロボット200への関心度に従って、前記ロボット行動出力における動作レベルが決定される。これら一連の内容については、図4を使用して後で説明する。
【0061】
ステップS208では、行動表現決定部102において決定されたロボット行動出力、動作レベルに従い、図4中のマトリクスを使用して決定される行動表現指令信号が、行動表現コントローラ103からロボット200に対して送信される。この指令に従い、ロボット200が行動表現を行う。
【0062】
ステップS209では、サーバ100に対し動作終了指示などがあった場合には終了処理を行い、一連のフローを終了する。それ以外はステップS202へ移動し、一連のフローを繰り返す。
【0063】
次に、ステップS207におけるロボット行動出力の決定方法について述べる。
【0064】
図4のテーブルを参照して、ロボット200の行動表現は高齢者の状態レベル(後述)、近親者のロボット200への関心度に従い、図に示されるようなテーブルから決定される。このテーブルは同図のように複数存在してもよく、高齢者の行動推定の結果内容に依存してテーブルが決定されるようにしてもよい。同図は行動推定の結果から、高齢者がテレビの野球観戦を楽しんでいると推定された場合のテーブルを選択した例を表している。なお、同図は説明上5×5のマトリクスで記述しているが、これに限られず自由に設定することができる。
【0065】
さて、同図のテーブル中において、縦軸方向は具体的にはロボット行動出力を表している。ロボット行動出力は、高齢者の行動推定の結果得られる後述の高齢者の状態レベルに依存して選択される。一方、横軸方向は具体的には近親者のロボット200に対する関心度に対応したロボット動作の動作レベルを表している。数字が大きいほど、ロボットへの関心度が高く、これに連れてロボットの動作レベルが低下する。ロボットの動作レベルとは、ロボット動作の甚だしさの程度のことで、例えばテーブル中に見られる様に、LED発光周期や、音声音量、手足の振りの度合いを表している。こちらはステップS203で推定された関心度に依存して決定される。
【0066】
上記のように、高齢者の行動推定の結果に依存してロボット行動出力が選択され、近親者の関心度からロボットの動作レベルが変更され、マトリクスにおける行動表現が決定される。すなわち、ロボット200の行動出力の内容とその動作レベルが決定される。これが、行動表現データとして、行動表現決定部102から出力される。なお、マトリクス中の内容は説明のための例示であり、ロボットの表現能力等に従って適宜設定される。
【0067】
なお、高齢者のテレビの野球観戦を楽しんでいるという行動の行動推定は、居間でテレビを見ながら楽しんでいる状況の場合には、居間の赤外線センサ等やテレビの電源に取り付けられたセンサ、被験者の笑い声等を感知する音感センサなどを用い、さらに電子番組表(EPG)を参照することで達成できる。こうした行動推定の結果、高齢者宅からは、「テレビで野球観戦をしている」という大まかな“行動”と、高齢者の“状態レベル”が送信される。高齢者の状態レベルとは、その行動中における、例えば、「静かに観戦している状態」や「(贔屓のチームの負け試合で)苛々している」とか、「(テレビの中の観衆と一緒に)応援をしている」などといった、前記“行動”中において更に分類された行動である。同図テーブル中に高齢者の行動の甚だしさや積極性といった点から、先述のように5段階に細分化され、5つの異なる表現の例として表されている。なお、上述の“行動”、および“状態レベル”とロボットの行動出力内容の対応は、前もって定められており、サーバ100内部に格納されている。こうしたロボットの行動表現は、人型ロボットなどの場合には、高齢者の動きそのものを真似たジェスチャーの出力であってもよい。本実施形態では後者の場合で説明している。
【0068】
さて、同図において、例えばロボット行動出力が“2”と判定され、ロボットへの関心度が“2”と評価された場合は、ロボット200は両手を振る動作をし、そのスイングの範囲はスイング可動範囲全体の50%とされる。また、ロボット行動出力が“2”と判定され、ロボットへの関心度が“1”と評価された場合は、関心度が“2”の時より関心度が低いので近親者の関心を惹くために、両手を振る動作は同じであるが、そのスイングの範囲は全体の75%となり、ロボットへの関心度が“0”と評価された場合は、更に関心を惹くべく、ロボット200は両手を振る動作を頻繁に行う動作をする。
【0069】
一方、ロボットへの関心度が“3”と評価された場合は、近親者のロボット200への関心度は“2”と評価された場合と比べて高いと言えるので、両手を振る動作は同じであるが、そのスイングは全体の25%となり、ロボットへの関心度が“4”と評価された場合は、さらに近親者の関心を惹く必要はないと判断できるので、ロボット200は片手を振る動作程度となる。
【0070】
以上により、ロボット200が推定された遠隔地の高齢者の行動を動作で表現し、それを見た近親者の動作を動作検知用センサ105で検知し、その検知結果から近親者のロボット200に対する関心度を関心度推定部106で推定し、その推定結果を行動表現決定部102にフィードバックする。つまり、サーバ100の出力であるロボット200の行動表現への近親者の関心度がサーバ100へフィードバックされ、ロボット200の動作に反映される構成となっている。この結果、ロボット200は近親者の注意を惹くことができ、近親者の“慣れ”や“飽き”を軽減させることが可能となる効果がある。
【0071】
次に、ステップS206で読み出された関心度DB107における近親者のロボット200への関心度の過去のデータを参照してロボット行動出力およびロボット行動出力の動作レベルを決定する方法について説明する。例えば、近親者の過去の関心度の平均値などが低いなどの場合には、ステップS203で評価した関心度に対して例えば1を引くなどした値に関心度を変更することで、標準的なケースよりロボットの動作が1ランク甚だしい様な設定とすることができる。なお、ステップS203で評価した関心度の変更をするのではなく、図4のマトリクス中の動作レベルを1ランク甚だしい様な設定に変更してもよい。また、0未満の関心度にも対応可能なテーブルを用意しておき、マトリクスデータを右へ1つシフトさせることで、関心度はそのままで、ロボットの行動を1ランク甚だしい様な設定とする事もできる。
【0072】
この結果、飽き易い傾向のある観察者に対しても、対応が可能となる効果がある。
【0073】
また、関心度DB107に、例えば高血圧などの既往歴が登録されている場合には、長時間の興奮状態は避けるべく、ステップS203で評価した関心度に対して例えば1を足した値に関心度を変更したり、図4のマトリクス中のロボット200の行動出力を1ランク低下させるように変更を行う。また、関心度DB107に、どのチームのファンであるかプロフィールに登録されている場合はそれを考慮してロボット行動出力およびロボット行動出力の動作レベルを決定することも対応可能である。
【0074】
以上のように、関心度DB107を用いて近親者のロボット200への関心度の過去のデータや既往歴を参照することで、当該システムを近親者の個性や嗜好により近い状態で運用することができる効果がある。
【0075】
図4では“野球観戦を楽しむ”例の場合が表されているが、同様の表は複数用意されていてもよく、それらは被験者の行動毎に対応している。例えば、“ボクシング観戦を楽しむ”とか、“テレビドラマを楽しむ”などであってもよい。なお、これらテーブルデータはサーバ100内メモリや関心度DB107等に登録されており、必要に応じて順次参照される。なお、本実施形態ではテーブルを用いてロボットの行動表現を決定する例で説明したが、テーブルに限られず、行動表現決定のための算出式や関数などを使用してもよい。
【0076】
なお、本実施形態において、ステップS203において、ロボット200に本実施形態のように自走機能が搭載されている場合には、その特徴を活かし、例えば近親者の正面へ移動して、顔の表情を画像で取得するなどの他、音声で話しかけたり、手足等で近親者に接触したりして、近親者のロボット200へのリアクションを引き出し、さらに詳細な検知を実施することができ、ロボットへの関心度をより正確に測ることができる。
【0077】
また、上記実施形態は図1で示されているように、高齢者の行動推定部402が高齢者宅のサブユニット400内部に存在している場合であったが、図5のようにサーバ100内部に存在していてもよい(行動推定部108)。この場合は、上記の実施形態に対して以下の変更がなされている。
【0078】
すなわち、サブユニット400において、動作検知用センサ401、送信部403は図1の場合と同じものであり、行動推定部402が搭載されていない。この場合、図5におけるサブユニット400は、動作検知用センサ401の検知結果を送信する機能のみを有する。
【0079】
一方、図5のサーバ100は、図1における行動推定部402と同じ処理を行う行動推定部108が、受信部101と行動表現決定部102の間に挿入されている。すなわち、受信部101はインターネット300を介して送信部403からのデータを受信し行動推定部108へ送信し、行動推定部108は推定結果を行動表現決定部102へ送出する。この場合は、高齢者の行動推定、および近親者の関心度推定をサーバ100で行う。
【0080】
以上で説明したように本発明によれば、遠く離れた高齢者の行動を動作検知用センサ401で検知し、近親者宅のロボット200で行動表現させることで高齢者を間接的に見守ることができ、さらに動作検知用センサ105やロボット側搭載センサ201により、見守る近親者側の関心度をロボット200の行動表現にフィードバックすることで行動表現に変化を与えることにより、近親者の見守りへの“慣れ”や“飽き”を軽減することができ、さらに、システム運用の継続性を図ることが可能となる、といった効果が得られる。
【0081】
また、関心度DB107を用いることで、本発明における行動表現システム、行動表現処理装置を近親者の個性や嗜好に対応させることができる。
【0082】
なお、本実施の形態における行動表現システムは、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIなどで実現できる。また、ソフトウェア的には、メモリにロードされた行動表現機能のあるプログラムなどによって実現される。図1には、ハードウェアおよびソフトウェアによって実現される行動表現システムの機能ブロックが示されている。ただし、これらの機能ブロックが、ハードウェアのみ、ソフトウェアのみ、あるいは、それらの組合せ等、いろいろな形態で実現できることは言うまでもない。
【0083】
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
【図面の簡単な説明】
【0084】
【図1】実施の形態に係る行動表現システムの構成図である。
【図2】実施の形態に係るロボットを示す図である。
【図3】実施の形態に係る行動表現システムにかかる動作フローチャートである。
【図4】実施の形態に係るロボットの行動出力および動作レベルを決定するテーブル図である。
【図5】別の実施の形態に係る行動表現システムの構成図である。
【符号の説明】
【0085】
1 行動表現システム
100 サーバ
101 受信部
102 行動表現決定部
103 行動表現コントローラ
105 動作検知用センサ
106 関心度推定部
107 関心度DB
108 行動推定部
200 ロボット
201 ロボット側搭載センサ
400 サブユニット
401 動作検知用センサ
402 行動推定部
403 送信部

【特許請求の範囲】
【請求項1】
被観察体の動作を検知する第1の動作検知手段と、
前記被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットと、
前記観察者の動作を検知する第2の動作検知手段と、
を備えると共に、
前記行動表現ユニットを制御するための制御情報を、前記第1の動作検知手段により得られた第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から求めるための制御情報生成手段を有する、
ことを特徴とする行動表現システム。
【請求項2】
請求項1に記載の行動表現システムであって、
前記制御情報生成手段は、
前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求める、
ことを特徴とする行動表現システム。
【請求項3】
請求項1に記載の行動表現システムであって、
前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段と、
前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段と、
を備え、
前記制御情報生成手段は、
前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求める、
ことを特徴とする行動表現システム。
【請求項4】
請求項3に記載の行動表現システムであって、
前記動作推定手段により推定された前記被観察体の動作に関する情報を送信する送信手段と、
前記送信手段により送信された前記被観察体の動作に関する情報を受信する受信手段と、
を有し、
前記制御情報生成手段は、
前記受信手段により受信した前記被観察体の動作に関する情報と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求める、
ことを特徴とする行動表現システム。
【請求項5】
請求項2に記載の行動表現システムであって、
前記行動表現ユニットを制御する制御情報と、前記第2の動作検知手段により検知された前記観察者に関する第2の検知結果と、を関連付けて格納する格納手段を備え、
前記制御情報生成手段は、
前記第1の検知結果と、前記格納手段に格納された情報とから、前記原制御情報を求める、
ことを特徴とする行動表現システム。
【請求項6】
請求項3または4に記載の行動表現システムであって、
前記行動表現ユニットを制御する制御情報と、前記関心度推定手段により推定された関心度情報により制御された前記観察者の関心度と、を関連づけて格納する格納手段を備え、
前記制御情報は、
前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、前記格納手段に格納された情報とから、前記制御情報を求める、
ことを特徴とする行動表現システム。
【請求項7】
請求項1ないし6の何れかに記載の行動表現システムであって、
前記行動表現ユニットは、前記第2の動作検知手段を有する、
ことを特徴とする行動表現システム。
【請求項8】
被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットを制御するための制御情報を、
前記被観察体の動作を検知する第1の動作検知手段により得られた第1の検知結果と、
前記観察者の動作を検知する第2の動作検知手段により得られた第2の検知結果と、
から求めるための制御情報生成手段を有する、
ことを特徴とする行動表現処理装置。
【請求項9】
請求項8に記載の行動表現処理装置であって、
前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求める、
ことを特徴とする行動表現処理装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate


【公開番号】特開2006−178644(P2006−178644A)
【公開日】平成18年7月6日(2006.7.6)
【国際特許分類】
【出願番号】特願2004−369633(P2004−369633)
【出願日】平成16年12月21日(2004.12.21)
【出願人】(000001889)三洋電機株式会社 (18,308)
【Fターム(参考)】