説明

ロボットの対面者の状態変化判断方法、情報処理装置及びプログラム

【課題】解決しようとする課題は、ロボットが対面者(人間、人間の形をしたロボット等)に向き合い、対面者の顔を検知してサービスを提供する場合、対面者が立ち去ったのか、あるいは、よそ見で正面を向いていない事等により一時的に対面者の顔を検知できない問題である。
【解決手段】ロボットは対面者の撮影画像から対面者の顔を検知して顔領域の情報を算出し、顔領域より身体領域情報を算出し、対面者の状態変化のトラッキングを行い、対面者の状態変化により顔を検知できなかった場合に前記身体領域の情報より顔領域を算出して顔の検知を行う。

【発明の詳細な説明】
【技術分野】
【0001】
本発明はロボットの対面者の検知方法に係り、特に人間、人間の顔をしたロボットなどの対面者の顔、身体を検知して、対面者の状態変化を判断する方法、情報処理装置(ロボット)及びプログラムに関するものである。
【背景技術】
【0002】
画像認識、音声認識などの処理により、対面者に向き合い、対面者及び発話内容を認識してサービスを提供するロボットが増えている。例えば、案内ロボットは各種イベント会場、公共施設において、対面者(人間、人間の形をしたロボット等)と向き合い、目前に相手がいることを認識しながら、案内などのサービスを提供する。
【0003】
特許文献1には、ロボットが相手に話しかける場合、相手の顔の正面方向を認識して、顔の正面位置に移動して会話を行なう会話ロボットの技術が開示されている。
【0004】
特許文献2には、検出した人物の顔領域の抽出を行い、顔領域までの距離を算出する技術などを基に人間に対してペットのような振る舞いを行なうロボットの技術が開示されている。
【0005】
このロボットによる目前の相手を確認する方法として、上記特許文献で開示されているように、多数の顔画像から学習したデータに基づく顔一般のデータを基に面前の相手の顔が顔一般の特徴を有しているか否かを検出して顔の検出をするものが一般的である。しかし、この手法は、目や鼻などの顔一般の特徴に基づいているので、相手がちょっと横を向いてよそ見をしただけでも、相手がいなくなったと誤判断してしまう。そのような場合にはロボットは一方的にサービスを終了してしまい問題である。
【0006】
このように、対面者の顔を検知できなくなった時、対面者が居なくなった、立ち去ったと判断するのではなく、よそ見をしているだけかどうかの確認をして対面者の状態を確認する必要がある。
【特許文献1】特開2004−34274号公報
【特許文献2】特開2003−326479号公報
【発明の開示】
【発明が解決しようとする課題】
【0007】
解決しようとする課題は、ロボットが対面者(人間、人間の形をしたロボット等)に向き合い、対面者の顔を検知してサービスを提供する場合、対面者が立ち去ったのか、あるいは、よそ見で正面を向いていない事等により一時的に対面者の顔を検知できない問題である。
【0008】
本発明は、対面者のよそ見等により一時的に顔が検知できない状態を顔に対応する身体の検知と併せて判断し、対面者がロボットに注目しているのか、一時的に顔検知が不可能な状態か、立ち去ったのかを判断する対面者の状態変化判断方法、情報処理装置及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
第1の発明は、対面者を撮影し、対面者との距離を算出する機能を備えたロボットの対面者の状態変化を判断する方法である。
【0010】
前記ロボットは向かい合った前記対面者を撮影し、前記撮影画像から前記対面者の顔を検知して顔領域の情報を算出して保持し、前記顔領域情報より顔領域の下部にある身体領域情報を算出して保持し、前記対面者の前記顔領域と身体領域の状態変化のトラッキングを行い、前記対面者の前記顔領域の中心までの距離と前記身体領域の中心までの距離を算出し、前記算出した中心までの距離の差が所定範囲にある場合に前記顔領域と前記身体領域が同一の対面者と判断する。
【0011】
第1の発明により、ロボットは対面者の顔領域と身体領域の情報を判断して、両領域の情報を関連付けて、対面者の状態変化のトラッキングが可能になる。
【0012】
第2の発明は、第1の発明記載の前記対面者の判断は前記対面者の顔の検知ができなかった場合、前記身体領域が存在すれば前記対面者は前記ロボットに向かい合っていると判断する。
【0013】
第2の発明により、ロボットは対面者の顔の検知ができない場合でも、対面者が面前にいるか否か確認することができ、一時的に顔を見失なっても、対面者が面前に居る判断が可能になる。
【0014】
第3の発明は、第1の発明のトラッキング時に前記対面者の顔の検知ができなかった場合、前記身体領域の情報を基に前記対面者の顔領域を算出し、前記算出した顔領域の情報より顔を検知する。
【0015】
第3の発明により、ロボットは対面者の顔の検知ができない場合でも、対面者の身体領域情報から顔領域の位置を探し、顔を検知することが可能になる。
【0016】
第4の発明は、対面者を撮影し、対面者との距離を算出する機能を備え、前記対面者の状態変化を判断する情報処理装置である。
【0017】
前記情報処理装置は、前記対面者を撮影した撮影画像から前記対面者の顔を検知し、顔領域情報を算出する手段と、前記顔領域情報より顔領域の下部にある身体領域情報を算出する手段と、前記対面者の前記顔領域の中心までの距離と前記身体領域の中心までの距離を算出する手段と、で構成し、前記算出した中心までの距離の差が所定範囲にある場合に前記顔領域と前記身体領域が同一の対面者と判断する。
【0018】
第4の発明により、情報処理装置は面前の対面者の状態を判断し、前記情報処理装置が提供する情報処理サービスの継続あるいは中止などのサービス提供の判断が可能になる。
【0019】
第5の発明は、対面者を撮影し、対面者との距離を算出する機能を備えた情報処理装置のコンピュータに前記対面者の状態変化を判断させるプログラムである。
【0020】
前記プログラムは、前記情報処理装置が撮影した前記対面者の撮影画像から前記対面者の顔を検知させて顔領域の情報を算出させ、前記顔領域情報より顔領域の下部にある身体領域情報を算出させ、前記対面者の前記顔領域と身体領域の状態変化のトラッキングを行わさせ、前記対面者の前記顔領域の中心までの距離と前記身体領域の中心までの距離を算出させ、前記算出した中心までの距離の差が所定範囲にあるか判断させ、前記距離の差が所定範囲にある場合に前記顔領域と前記身体領域が同一の対面者と判断させる。
【0021】
第5の発明により、情報処理装置に備えたコンピュータに対面者の状態を判断させ情報処理サービスを行うことが可能になる。
【発明の効果】
【0022】
本発明により、ロボットが対面者の状態変化を判断し、一時的な顔検知不可により対面者へのサービス提供を終了することを防ぎ、対面者に本来提供するサービスを問題なく実現でき、ロボットの顧客対応の品質を向上させることができる。
【発明を実施するための最良の形態】
【0023】
(実施例1)
図1はロボットのブロック構成を示す図である。ロボットとしては固定された位置で目的のサービスを提供する、あるいは自律移動機能を備え、移動しながらサービスを提供することが考えられる。ここでは、対面者の状態を判断するに必要な最小限の機能として、カメラ3、距離計測部4、対話処理部5、画像処理・状態判断部6、演算部7、メモリ8を示している。ロボットはこれらの機能に加え、提供するサービスに対応した機能を備えてサービスを提供することになる。なお、対話処理、画像・状態判断、演算等の機能の具体的処理は情報処理装置に備えたコンピュータにより行うが、説明は省略する。
1)カメラ3
対面者を撮影する。
2)距離計測部4
対面者との距離を計測する。ステレオ計測として少なくも2つのカメラによる距離計測を行う。距離の計測には距離センサがある。距離計測の機能については一般に行われているので説明は省略する。
3)対話処理部5
相手の音声等の会話を聞き取り、また、聞き取った相手の音声を認識し、メモリに保持する対話の内容を選択して相手との会話を行なう。これらの機能については一般に行われているので説明は省略する。
4)画像処理・状態判断部6
カメラにより撮影した画像をメモリに保持する顔一般の特徴情報と比較判断し対面者の顔の検知を行う。また、検知した顔より身体情報の算出、及び顔と身体との関連を算出し、対面者の状態を判断する。これらの具体的方法は後述する。
5)演算部7
距離計測部により算出した距離を元に所定の演算を実行する。
6)メモリ8
顔一般の特徴、対話に必要な言葉を保持し、また、検知した対面者の顔及び身体のテンプレートデータを保持する。
【0024】
図2は対面者のテンプレート登録を説明する図である。ロボットが対面者の顔を検知し、顔領域、身体領域のテンプレートデータの登録までの手順を示している。
S1:対面者と向き合い、対面者を撮影する。
S2:撮影画像の顔の情報(顔と推定する位置の画像情報)を装置内メモリの顔一般の特徴情報を比較確認し、対面者の顔を検知する。
S3:検知した四角形の顔領域の中心座標(uf,vf)、幅「Wf」、高さ「Hf」を切り出し顔領域のテンプレートデータとする。
S4:検知した顔領域を基に身体領域を検知し、検知した四角形の身体領域の中心座標(ub,vb)、幅「Wb」、高さ「Hb」を切り出し身体領域のテンプレートとする。顔領域から身体領域の算出方法については図3で説明する。
S5:切り出した対面者の顔領域、身体領域のテンプレートデータを保持する。
【0025】
図3は対面者の顔の検知とテンプレートの切り出しを説明する図である。左上隅の位置座標(0,0)と右下隅の位置座標(W,H)で示す実線で囲まれた箇所が撮影画像である。この画像を利用して以下の手順で、顔領域、身体領域のテンプレートデータを切り出す。
ア.顔領域のテンプレートデータの切り出し:検知した顔の中心より顔を含み所定の範囲内にある領域を算出し、顔領域のテンプレートデータとして切り出す。テンプレートデータは顔領域の中心座標(uf,vf)、幅「Wf」、高さ「Hf」)である。
イ.身体領域のテンプレートデータの切り出し:(式1)で示す換算式より顔領域の下部にある対面者の身体領域を算出し、身体領域テンプレートデータとして切り出す。テンプレートデータは身体領域の中心(ub,vb)、「Wb」、高さ「Hb」である。
【0026】
【数1】

図4は対面者の検出領域と距離の算出を説明する図である。図3で述べた撮影画像から切り出した顔領域、身体領域の算出と各領域の中心、幅、高さを図的に示している。
【0027】
ロボットは顔領域と身体領域の中心部を各々幅と高さの1/2の値から算出して中心を設定する。ロボットと対面者の顔領域の中心、及び身体領域の中心までの距離(顔との距離=df、身体領域との距離=db)の算出については図5で説明する。
【0028】
図5は対面者の顔領域、身体領域の中心までの距離算出を説明する図である。具体的にはステレオカメラによる顔領域の中心までの距離の算出方法を示している。
【0029】
アは左カメラによる画像、イは右カメラによる画像、ウはロボットと対面者を上方から見た図である。左カメラと右カメラにより撮影した顔中心の各座標(uL,vL)と(uR,vR)を実際の三次元座標に変換した時のX座標が対面者の顔領域の中心までの距離「df」である。このステレオカメラを用いた左右2つの撮影画像の同一の点から実際の三次元位置座標を算出する方法は一般に知られているので説明は省略する。
【0030】
同様にして身体領域の中心までの距離「db」の算出を行う。
【0031】
図6は対面者との距離による対面者の確認手順を示す図である。対面者の顔領域の中心までの距離「df」、身体領域の中心までの距離[db]より対面者を確認する手順を示している。
S10:対面者の顔領域の中心までの距離「df」、身体領域の中心までの距離「db」を算出する。(図3、図4、図5)
S11:|df−db|は閾値以下か確認し、閾値以下の場合はS12に進み、そうでない場合はS13に進む。
S12:検知した結果は適切と判断する。すなわち、「検知した情報は対面者の顔領域情報、身体領域情報である」と判断する。
S13:検知した結果は不適切と判断する。すなわち、「顔領域情報と身体領域情報が同一の対面者ではない」と判断する。
【0032】
図7は対面者の状態変化と対面者のトラッキング手順を説明する図である。対面者の状態が変化した状況下での顔領域、身体領域の情報より対面者の状態を判断する方法を示している。
S20:向き合った対面者の顔と身体のトラッキングを始める。
S21:顔を検知できているか否か判断し、顔を検知している場合S28に進み、そうでない場合はS22に進む。
S22:身体を見失ったか否か判断し、見失った場合はS31に進み、そうでない場合はS23に進む。なお、「身体を見失う」とは撮影画像に顔領域の下部に身体と判断する情報が無いことを意味している。
S23:予め設定した所定時間内であるか判断し、所定時間内の場合はS24に進み、所定時間を過ぎている場合はS31に進む。
S24:身体領域より顔領域を算出する。算出方法については図7で説明する。
S25:算出した顔領域の情報より顔を検知する。
S26:顔が検知できたか確認し、検知できた場合はS27に進み、検知できない場合はS31に戻り、身体領域の確認を再度行う。
S27:顔領域のテンプレートデータを算出したデータに更新し、S20に戻りトラッキング手順を繰り返す。
S28:検知した顔領域の情報を顔領域テンプレートデータとして更新する。
S29:顔の領域より身体の領域を算出する。算出する方法は図7で説明する。
S30:身体のテンプレート情報を新たに算出したデータに更新し、S20に戻りトラッキング手順を繰り返す。
S31:対面者の確認が出来ない(立ち去った)と判断し、トラッキングを中止する。
【0033】
図8は状態変化した対面者のトラッキングを説明する図である。対面者の状態が変化した場合に対面者を保持する顔領域、身体領域の情報よりトラッキングする方法を示している。
【0034】
対面者が実線で示す状態((uf,vf)、(ub,vb)の位置)から、点線で示す状態((uf,vf)、(ub,vb)の位置)に変化した場合について説明する。
ア.対面者の状態変化に対応して算出した領域情報:各領域の中心座標は(式2)となり、その領域の大きさは(式3)となる。
【0035】
【数2】

【0036】
【数3】

イ.トラッキング中に対面者の片方の領域を見失った時の探索:対面者を見失った場合に把握できている他方の領域より探索する。顔領域の情報から身体領域の情報算出は(式4)で行い、身体領域の情報から顔領域の情報算出は(式5)で行う。すなわち、把握できている位置情報と(式3)で示す各領域の大きさより換算して他方の領域を探索する。
【0037】
【数4】

【0038】
【数5】

図9は対面者の状態確認手順を説明する図である。対面者の状態を把握し、状態を判断する手順を示している。状態としては以下を考える。
ア.「注目している」:対面者はロボットと向き合いサービスを受けている状態である。
イ.「よそ見している」:対面者はよそ見等により一時的にロボットが把握できない状態か、場合により立ち去った状態である。
ウ.「再び注目している」:対面者のよそ見等により状態を一時的に把握できなくなった後、再び把握できるようになった状態である。
S40:対面者に向き合い、対面者のテンプレートデータを算出し、保持する。(図2の手順)
S41:対面が始まり対面者のトラッキングを始める。(図7の方法)
S42:顔領域情報を算出する。
S43:身体領域情報を算出する。
S44:顔の領域までの距離「df」と身体領域までの距離「db」を計測する。
S45:|df−db|は閾値以下か確認し、閾値以下の場合はS49に進み、そうでない場合はS46に進む。
S46:顔のトラッキングを行なう。(図7の方法)
S47:顔を検知したか確認し、検知した場合はS48に進み、そうでない場合はS61に進む。
S48:「注目している」と判断する。
S49:顔と身体のトラッキングを行なう。(図7の方法)
S50:顔及び身体を検知把握している。
S51:「注目している」と判断する。
S52:身体は把握できないが、顔を検知している。
S53:「注目している」と判断する。
S54:顔の検知はできないが、身体を把握している。
S55:「よそ見している」と判断する。
S56:所定時間内か確認し、所定時間内の場合はS57に進み、そうでない場合はS61に進む。
S57:顔を検知したか確認し、検知している場合はS58に進み、そうでない場合はS61に進む。
S58:「再び注目している」と判断する。
S59:顔領域データを算出し、顔領域のテンプレートデータを算出したデータに更新する。
S60:顔を検知できず、また、身体を見失う。
S61:「立ち去っている」と判断する。
【図面の簡単な説明】
【0039】
【図1】図1はロボットのブロック構成を示す図である。
【図2】図2は対面者のテンプレート登録を説明する図である。
【図3】図3は対面者の顔の検知とテンプレートの切り出しを説明する図である。
【図4】図4は対面者の検出領域と距離の算出を説明する図である。
【図5】図5は対面者の顔領域、身体領域中心までの距離算出を説明する図である。
【図6】図6は対面者との距離による対面者の確認手順を示す図である。
【図7】図7は対面者の状態変化と対面者のトラッキング手順を説明する図である。
【図8】図8は状態変化した対面者のトラッキングを説明する図である。
【図9】図9は対面者の状態確認手順を説明する図である。
【符号の説明】
【0040】
1 ロボット
2 対面者
3 カメラ
4 距離計測部
5 対話処理部
6 画像処理・状態判断部
7 演算部
8 メモリ


【特許請求の範囲】
【請求項1】
対面者を撮影し、対面者との距離を算出する機能を備えたロボットの対面者の状態変化を判断する方法であって、
前記ロボットは向かい合った前記対面者を撮影し、
前記撮影画像から前記対面者の顔を検知して顔領域の情報を算出して保持し、
前記顔領域情報より顔領域の下部にある身体領域情報を算出して保持し、
前記対面者の前記顔領域と身体領域の状態変化のトラッキングを行い、
前記対面者の前記顔領域の中心までの距離と前記身体領域の中心までの距離を算出し、
前記算出した中心までの距離の差が所定範囲にある場合に前記顔領域と前記身体領域が同一の対面者と判断することを特徴とするロボットの対面者の状態変化判断方法。
【請求項2】
請求項1記載の前記対面者の判断は前記対面者の顔の検知ができなかった場合、前記身体領域が存在すれば前記対面者は前記ロボットに向かい合っていると判断することを特徴とする請求項1記載のロボットの対面者の状態変化判断方法。
【請求項3】
請求項1記載のトラッキング時に前記対面者の顔の検知ができなかった場合、前記身体領域の情報を基に前記対面者の顔領域を算出し、
前記算出した顔領域の情報より顔を検知することを特徴とする請求項1記載のロボットの対面者の状態変化判断方法。
【請求項4】
対面者を撮影し、対面者との距離を算出する機能を備え、前記対面者の状態変化を判断する情報処理装置であって、
前記情報処理装置は、
前記対面者を撮影した撮影画像から前記対面者の顔を検知し、顔領域情報を算出する手段と、
前記顔領域情報より顔領域の下部にある身体領域情報を算出する手段と、
前記対面者の前記顔領域の中心までの距離と前記身体領域の中心までの距離を算出する手段と、で構成し、
前記算出した中心までの距離の差が所定範囲にある場合に前記顔領域と前記身体領域が同一の対面者と判断することを特徴とする情報処理装置。
【請求項5】
対面者を撮影し、対面者との距離を算出する機能を備えた情報処理装置のコンピュータに前記対面者の状態変化を判断させるプログラムであって、
前記プログラムは、
前記情報処理装置が撮影した前記対面者の撮影画像から前記対面者の顔を検知させて顔領域の情報を算出させ、
前記顔領域情報より顔領域の下部にある身体領域情報を算出させ、
前記対面者の前記顔領域と身体領域の状態変化のトラッキングを行わさせ、
前記対面者の前記顔領域の中心までの距離と前記身体領域の中心までの距離を算出させ、前記算出した中心までの距離の差が所定範囲にあるか判断させ、
前記距離の差が所定範囲にある場合に前記顔領域と前記身体領域が同一の対面者と判断させることを特徴とする情報処理装置の対面者の状態変化判断プログラム。



【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2009−146026(P2009−146026A)
【公開日】平成21年7月2日(2009.7.2)
【国際特許分類】
【出願番号】特願2007−320609(P2007−320609)
【出願日】平成19年12月12日(2007.12.12)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】