説明

案内ロボット、案内方法、及び案内制御用プログラム

【課題】対象を指し示す動作を適切なアームで行うと共に、データ容量の削減を図る。
【解決手段】案内情報の出力に合わせて対象を指し示す動作を含む第1のジェスチャを行うための関節機構の少なくとも回転方向及び回転量を規定するデータであって、第1のアーム部14の軸構成に適合するように構成された第1のジェスチャデータ21を記憶し、位置関係と第1のジェスチャにおけるアーム部の移動方向とに基づいて第1のジェスチャを第1のアーム部14又は第2のアーム部15のどちらで実行するかを決定し、第2のアーム部15が第1のジェスチャを行う場合に第1のジェスチャデータ21を鏡像反転させる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、自律的に動作するロボットを利用して展示物等の案内を行うための技術に関する。
【背景技術】
【0002】
近年、展示場、企業内ロビー等において、自律的に動作するロボットを利用して、展示物、商品等の案内を行う技術が開発されている。このようなロボットは、展示物の説明等を行う案内動作に伴って、各種ジェスチャを行う。このようなジェスチャの一つとして、ロボットのアームで前記展示物を指し示すジェスチャがある。
【0003】
特許文献1において、商品情報を提示するロボットであって、顧客を識別し、顧客に合った商品を案内しこれを指し示す動作を行うことが開示されている。
【0004】
特許文献2において、商品のICタグから情報を読み出して案内するロボットであって、当該案内を商品を指し示しながら行うことが開示されている。
【0005】
特許文献3において、人を目的地近くまで誘導するロボットであって、最適な経路に沿って人を誘導し、到達地点で目的地を指差すことが開示されている。
【0006】
特許文献4において、来客者の識別、混雑度等に応じて対応を変化させるロボットが開示されている。
【0007】
特許文献5において、展示物について移動しながら説明を行うロボットであって、展示物と人との位置関係から最適な位置に移動することが開示されている。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】特開2005−293052号公報
【特許文献2】特開2007−225941号公報
【特許文献3】特開2007−260822号公報
【特許文献4】特開2008−055578号公報
【特許文献5】特開2009−285818号公報
【発明の概要】
【発明が解決しようとする課題】
【0009】
通常、人型のロボットは、左右一対のアームを有している。そのため、上記のような指し示すジェスチャを左右どちらのアームで行うかを決定する処理が必要となる。例えば、一方のアームを外側に広げるように移動させ、最終的に当該アームの先端が前記展示物の方向を向くようにする動作がある。このような動作の場合、当該アームが左アームである場合には、前記ロボットは前記展示物の右側に位置することが必要となる。しかしながら、前記ロボットの可動領域、周囲の障害物等の問題により、前記ロボットが上記位置まで移動できない場合がある。このような場合、上記ジェスチャは不自然な動作となる。
【0010】
上記のような問題に対処する方法として、前記ジェスチャを実現するためのアームの関節機構の動きを規定するデータを、左右のアームの関節機構にそれぞれ適合するかたちで2つ保有し、両データを前記ロボットと前記展示物との位置関係の認識結果に応じて使い分ける方法が考えられる。また、前記位置関係に応じてその都度適したジェスチャの軌道を生成することも可能である。しかしながら、これらの対処法によると、データ容量の増大、演算処理に掛かる負荷の増大等の問題が生ずる。
【0011】
また、上記特許文献1〜3において、案内の対象をロボットが指し示すことが開示されているが、上記のような左右のアームに係る問題に言及するものはない。
【0012】
そこで、本発明は、案内動作を行う対象を指し示す動作を適切なアームで行うと共に、データ容量の削減、演算処理の軽減を図ることを課題とする。
【課題を解決するための手段】
【0013】
本発明の一態様は、自律的に移動する移動手段と、一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、領域内に存在する1又は複数の対象に対応する案内情報を出力する案内情報出力手段と、前記対象と自己との位置関係を認識する位置認識手段と、前記案内情報の出力に合わせて前記対象を指し示す動作を含む第1のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する記憶手段と、前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する動作アーム決定手段と、前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるデータ反転手段と、前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御し、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する動作指令手段とを有するものである。
【0014】
上記態様によれば、前記対象と前記案内ロボットとの位置関係により前記第2のアーム部が前記第1のジェスチャを行うことが望ましい場合には、前記第1のジェスチャデータが鏡像反転され、前記第2のアーム部の制御に使用される。これにより、前記第2のアーム部に適合したジェスチャデータを保持していなくても、前記第2のアーム部により前記対象を正しく指し示す動作を実行させることができる。
【0015】
また、前記記憶手段は、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを更に記憶し、前記動作アーム決定手段は、前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定し、前記データ反転手段は、前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させ、前記動作司令手段は、前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御し、前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御することが好ましい。
【0016】
このように、前記第1のジェスチャを行うアーム部とは反対側のアーム部により実行される前記第2のジェスチャについても、適宜鏡像反転させることにより、一つのデータで両アーム部の制御を行うことができる。
【0017】
また、前記位置認識手段は、前記領域内に存在する人、前記対象、及び自己の位置関係を認識し、前記移動手段は、前記人と前記対象とが所定の距離内にある場合に当該人又は当該対象に近接し、前記動作アーム決定手段は、前記接近時における当該対象と自己との位置関係に基づいて前記第1のジェスチャを行うアーム部を決定することが好ましい。
【0018】
これにより、ある人がある対象に興味を持って立ち止まっているような状況において、前記案内ロボットを当該人及び対象の近傍まで移動させ、当該対象の説明等を行うことが可能となる。
【0019】
また、前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、前記動作アーム決定手段は、前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とすることが好ましい。
【0020】
逆に、前記第1のジェスチャが前記アーム部を内側に動かす動作である場合には、前記対象から遠い方の前記アーム部を前記第1のジェスチャを行うアーム部とすればよい。
【0021】
また、本願発明の他の態様は、領域内を自律的に移動する手段と、 前記領域内に存在する対象についての案内情報を出力する手段と、前記対象と自己との位置関係を認識する手段と、一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段とを有するロボットを利用した案内方法であって、前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定するステップと、前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるステップと、前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御するステップと、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御するステップとを有するものである。
【0022】
また、本願発明の他の態様は、領域内を自律的に移動する手段と、前記領域内に存在する対象についての案内情報を出力する手段と、前記対象と自己との位置関係を認識する手段と、一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段とを有するロボットを制御する案内制御用プログラムであって、コンピュータに、前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する処理と、前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させる処理と、前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御する処理と、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する処理とを実行させるものである。
【0023】
上記案内方法及び案内プログラムに係る態様は、上記案内ロボットに係る態様と同様の技術思想に基づくものである。
【発明の効果】
【0024】
本発明によれば、前記対象を指し示す動作を含む前記第1のジェスチャを前記ロボットと前記対象との位置関係に応じて、適切な方の前記アーム部で行うことが可能となる。また、前記第1のジェスチャを実行させるための前記第1のジェスチャデータを必要に応じて鏡像反転して使用することにより、片方のアーム部に適合した1つのジェスチャデータを用意すれば足りる。更に、前記第1のジェスチャを行うアーム部とは反対側のアーム部により行われる前記対象を指し示す動作を含まない前記第2のジェスチャデータについても同様に、適宜鏡像反転させることにより片方のアーム部に適合した1つのジェスチャデータを用意すれば足りる。これにより、鏡像反転に要する軽微な負荷のみで、記憶手段に格納されるデータ容量を大幅に削減することができる。
【0025】
更にまた、ある対象の前に人が立ち止まっているような状況に対応することができるので、来訪者の興味に対応した高度な案内動作を実行することが可能となる。
【図面の簡単な説明】
【0026】
【図1】本発明の実施の形態1に係る案内ロボットの機能的な構成を示す図である。
【図2】実施の形態1に係る案内ロボットの外観を例示する図である。
【図3】図2に示す案内ロボットの案内行動に伴うジェスチャを例示する図である。
【図4】実施の形態1に係る案内ロボットの両アームの軸構成を示す図である。
【図5】第1のジェスチャを実行するための第1のジェスチャデータを例示する表図である。
【図6】第2のジェスチャを実行するための第2のジェスチャデータを例示する表図である。
【図7】左アームが第1のジェスチャを行うと共に右アームが第2のジェスチャを行う状況を例示する図である。
【図8】右アームが第1のジェスチャを行うと共に左アームが第2のジェスチャを行う状況を例示する図である。
【図9】図5に示す第1のジェスチャデータを鏡像反転させたデータを示す表図である。
【図10】図6に示す第2のジェスチャデータを鏡像反転させたデータを示す表図である。
【図11】実施の形態1に係る案内ロボットによる案内行動の流れを示すフローチャートである。
【図12】実施の形態1により得られる有利な効果を示す図である。
【図13】本発明の実施の形態2に係る案内ロボットが使用される状況を例示する図である。
【図14】図13に示す状況において案内ロボットが所定の距離内にある人又は対象に近接した状況を例示する図である。
【図15】図14に示す位置関係において行われる案内ロボットのジェスチャを示す図である。
【図16】実施の形態2に係る案内ロボットが使用される状況の他の例を示す図である。
【図17】図16に示す状況において案内ロボットが所定の距離内にある人又は対象に近接した状況を例示する図である。
【図18】図17に示す位置関係において行われる案内ロボットのジェスチャを示す図である。
【発明を実施するための形態】
【0027】
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の実施の形態1に係る案内ロボット(以下、ロボットと略記する)1の機能的な構成を示している。図2は、前記ロボット1の外観を例示している。
【0028】
前記ロボット1は、展示場、企業内ロビー等の領域において、展示物、商品等(以下、対象と称する)に関する情報を来訪者に対して説明等する(以下、案内行動と称する)ものである。前記ロボット1は、駆動機構11、センサ12、出力装置13、左アーム14、右アーム15、及び電子制御ユニット16を有する。
【0029】
前記駆動機構11は、前記電子制御ユニット16の制御により前記ロボット1を自律的に移動させるものである。前記駆動機構11としては、複数の車輪、モータ等からなる車両タイプ、複数の脚型マニピュレータ等からなる歩行タイプのものが周知である。
【0030】
前記センサ12は、前記ロボット1周辺に存在する物体の位置、動き、形状的特徴等を検知するためのデータを収集するものである。前記センサ12としては、超音波、赤外線、撮像装置等を利用した各種の周知技術を適用することができるが、特にレーザ光の反射を利用して周囲環境を計測するLRF(Laser Range Finder)が好適である。
【0031】
前記出力装置13は、前記対象の説明情報等を来訪者に伝達するものであり、スピーカ、ディスプレイ等が好適である。
【0032】
前記左アーム14及び前記右アーム15は、複数の関節機構を有し、前記電子制御ユニット16によりその動作が制御される。本実施の形態に係る両アーム14,15は、前記案内行動に伴うジェスチャを実行する。図3は、前記案内行動に伴うジェスチャを例示している。この例では、前記左アーム14が前記対象を指し示す動作を含む第1のジェスチャを行い、前記右アーム15が前記対象を指し示す動作を含まない第2のジェスチャを行っている。
【0033】
図4は、前記両アーム14,15の軸構成を例示している。前記左アーム14は、肩から手先へ順に、1軸L1、2軸L2、3軸L3、4軸L4、5軸L5、6軸L6、及び7軸L7を有している。前記右アーム15も同様に、肩から手先へ順に、1軸R1、2軸R2、3軸R3、4軸R4、5軸R5、6軸R6、及び7軸R7を有している。本実施の形態に係る前記両アーム14,15は、同一の7軸構成を有している。
【0034】
図5は、前記第1のジェスチャを実行するための第1のジェスチャデータ21を例示している。図6は、前記第2のジェスチャを実行するための第2のジェスチャデータ22を例示している。前記両ジェスチャデータ21,22において1〜7軸の下欄に記載された各値(rad)は、それらの左欄に記載された時間0.008(s)の経過時における前記1〜7軸L1〜L7,R1〜R7の回転方向及び回転量を示している。前記第1のジェスチャデータ21は、前記左アーム12の軸L1〜L7に適合している。前記第2のジェスチャデータ22は、前記右アーム13の軸R1〜R7に適合している。
【0035】
前記電子制御ユニット16(図1参照)は、中央処理装置、記憶装置17、入出力装置等からなり、各種演算処理及び制御処理を実行する。本実施の形態に係る電子制御ユニット10は、案内情報出力部30、位置認識部31、動作アーム決定部32、データ反転部33、及び動作司令部34として機能する。前記記憶装置17には、制御プログラム20、前記第1のジェスチャデータ21、前記第2のジェスチャデータ22、前記領域の形状、前記対象の位置等を示すマップデータ23、前記各対象を説明する音声、テキスト、画像等の案内データ24等が格納される。
【0036】
前記案内情報出力部30は、前記各対象に対応する情報を前記案内データ24から抽出し、前記出力装置13から音声、表示等により出力する。
【0037】
前記位置認識部31は、前記センサ12により取得されたデータと前記マップデータ23とに基づいて前記対象と前記ロボット1との位置関係を認識する。例えば、前記LRFにより取得されたデータと前記マップデータ23とに基づいてSLAM(Simultaneously Localization and Mapping)技術を用いることにより、自己及び前記対象の位置を特定することができる。
【0038】
前記動作アーム決定部32は、前記第1のジェスチャ及び前記第2のジェスチャをそれぞれ前記左アーム14又は前記右アーム15のどちらで実行するかを決定する。この決定は、前記対象と前記ロボット1との位置関係、及び前記第1のジェスチャにおける前記アーム部の移動方向に基づいて行うことができる。本実施の形態におけるこの移動方向は、図3に示すように、アームを外側に広げる方向である。
【0039】
図7は、前記左アーム14が前記第1のジェスチャを行うと共に前記右アーム15が前記第2のジェスチャを行う状況を例示している。図8は、前記右アーム15が前記第1のジェスチャを行うと共に前記左アーム14が前記第2のジェスチャを行う状況を例示している。図7に示すように、前記ロボット1より左側に前記対象40がある場合には、前記左アーム14が前記第1のジェスチャを行い、前記右アーム15が前記第2のジェスチャを行う。一方、図8に示すように、前記ロボット1より右側に前記対象40がある場合には、前記右アーム15が前記第1のジェスチャを行い、前記左アーム14が前記第2のジェスチャを行う。
【0040】
前記データ反転部33(図1参照)は、前記右アーム15が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータ21の前記回転軸L1〜L7の動きを規定する値を鏡像反転させる。即ち、前記左アーム14による前記第1のジェスチャに対して、前記ロボット1の縦方向の中心面(図7及び図8における面A)を対象面として鏡像対称性を有するように、前記第1のジェスチャデータ21の一部の値を反転させる。図9は、図5に示す前記第1のジェスチャデータ21を鏡像反転させたデータ21'を示している。この例においては、2,3,5,7軸についての回転方向が反転するように値が変換されている。また、前記データ反転部33は、前記左アーム14が前記第2のジェスチャを行う場合に、上記と同様に、前記第2のジェスチャデータ22を鏡像反転させる。図10は、図6に示す前記第2のジェスチャデータ22を鏡像反転させたデータ22'を示している。この例においても、2,3,5,7軸についての回転方向が反転するように値が変換されている。
【0041】
前記動作司令部34(図1参照)は、前記左アーム14が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータ21に基づいて生成された制御信号を前記左アーム14に出力する。また、前記右アーム15が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータ21'に基づいて生成された制御信号を前記右アーム15に出力する。更に、前記右アーム15が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータ22に基づいて生成された制御信号を前記右アーム15に出力する。更にまた、前記左アーム14が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータ22'に基づいて生成された制御信号を前記左アーム14に出力する。
【0042】
図11は、前記ロボット1による案内行動の流れを例示している。先ず、前記センサ12により取得されたデータと前記マップデータ23とを照合させることにより、前記ロボット1の現在位置を認識し(S101)、前記対象の位置を認識する(S102)。次いで、前記ロボット1からみて前記対象が左右どちらに存在するかを判定する(S103)。
【0043】
前記ステップS103において、前記対象が左側にある場合(CASE1)には、前記左アーム14が前記第1のジェスチャを実行すると共に、前記右アーム15が前記第2のジェスチャを実行することを決定する(S104)。次いで、前記第1のジェスチャデータ21をそのまま前記左アーム14の制御に使用すると共に、前記第2のジェスチャデータ22をそのまま前記右アーム15の制御に使用し、前記対象に対応する音声データ等を再生する(S105)。
【0044】
一方、前記ステップS103において、前記対象が右側にある場合(CASE2)には、前記右アーム15が前記第1のジェスチャを実行すると共に、前記左アーム14が前記第2のジェスチャを実行することを決定する(S106)。次いで、前記第1のジェスチャデータ21及び前記第2のジェスチャデータ22をそれぞれ前記鏡像変換する(S107)。そして、前記鏡像変換された第1のジェスチャデータ21'を前記右アーム15の制御に使用すると共に、前記鏡像変換された第2のジェスチャデータ22'を前記左アーム14の制御に使用し、前記対象に対応する音声データ等を再生する(S105)。
【0045】
上記構成によれば、前記第1のジェスチャデータ21及び前記第2のジェスチャデータ22をそれぞれ1つずつ保有していれば、前記左アーム14が前記第1のジェスチャを行うと共に前記右アーム15が前記第2のジェスチャを行う場合にも、前記左アーム14が前記第2のジェスチャを行うと共に前記右アーム15が前記第1のジェスチャを行う場合にも対応することができる。
【0046】
図12は、上記実施の形態1により得られる有利な効果を示している。従来の記憶装置100には、前記両アーム14,15に前記第1又は第2のジェスチャを実行させるためのデータとして、前記対象が左側にある場合の左アーム用ジェスチャデータ101、前記対象が左側にある場合の右アーム用ジェスチャデータ102、前記対象が右側にある場合の左アーム用ジェスチャデータ103、及び前記対象が右側にある場合の右アーム用ジェスチャデータ104が格納されている必要であった。しかしながら、本実施の形態に係る記憶装置17には、前記第1のジェスチャデータ21及び前記第2のジェスチャデータ22が格納されていれば足りる。従って、データ容量を大幅に削減することが可能となる。
【0047】
尚、前記案内動作においては、前記第2のジェスチャは付随的なものと言える。従って、少なくとも、前記記憶装置17に前記第1のジェスチャデータ21が格納され、前記データ反転部33が前記鏡像反転された第1のジェスチャデータ21'を生成すれば、前記案内動作を成立させることが可能である。
【0048】
実施の形態2
図13は、本発明の実施の形態2に係る案内ロボット(以下、ロボットと略記する)51が使用される状況を例示している。前記ロボット51は、図1に示す前記電子制御ユニット16と同様の内部構成を有するが、前記位置認識部31及び前記動作司令部34が、上記実施の形態1に係る処理に加えて、以下のような処理を行う。
【0049】
実施の形態2に係る前記位置認識部31は、前記領域内に存在する人52〜54、前記対象60〜66、及び前記ロボット51の自己位置の位置関係を認識する。例えば、前記センサ12により検知された物体の形状的特徴と、予め登録された人体の形状的特徴とを比較することにより、前記領域内における前記人52〜54の位置、動作、及び前記対象60〜66との位置関係を認識することができる。そして、前記位置認識部31、この認識結果に基づいて、前記人52〜54と前記対象60〜66とが所定の距離内にあるか否かを判定することができる。図13に示す例では、前記人52と前記対象60とが前記所定の距離内にある。
【0050】
実施の形態2に係る前記動作司令部34は、前記所定の距離内にあると判定された前記人52又は前記対象60に、前記ロボット51を近接させる制御を行う。図14は、図13に示す状況において前記ロボット51が前記所定の距離内にある前記人52又は前記対象60に近接した状況を例示している。
【0051】
そして、前記動作アーム決定部32は、図14に示す状況における前記対象60と自己との位置関係に基づいて、上記実施の形態1と同様に、前記第1のジェスチャ(及び前記第2のジェスチャ)を実行する前記アーム14,15を決定する。図15は、図14に示す位置関係において行われる前記ロボット51のジェスチャを示している。この状況では、前記対象60が前記ロボット51の左側にあるため、前記左アーム14が前記第1のジェスチャを実行し、前記右アーム15が前記第2のジェスチャを実行する。
【0052】
また、図16は、前記ロボット51が使用される状況の他の例を示している。この例においては、人55と前記対象66とが前記所定の距離内にある。図17は、図16に示す状況において前記ロボット51が前記所定の距離内にある前記人55又は前記対象66に近接した状況を例示している。図18は、図17に示す位置関係において行われる前記ロボット51のジェスチャを示している。この状況では、前記対象66が前記ロボット55の右側にあるため、前記右アーム15が前記第1のジェスチャを実行し、前記左アーム14が前記第2のジェスチャを実行する。
【0053】
上記構成によれば、来訪者の存在も考慮に入れた高度な案内動作を実行することができる。例えば、来訪者がある展示物に興味を持ち、当該展示物の前に立ち止まっている場合に、前記ロボット51がこの状況を検知し、当該展示物及び当該来訪者の位置まで移動して、当該展示物の案内情報を出力することが可能となる。このように、来訪者が興味を持つ特定の展示物に対して優先的に前記案内動作を実行することが可能となる。
【0054】
尚、本発明は上記実施の形態に限られるものではなく、趣旨を逸脱しない範囲で適宜変更することが可能なものである。
【符号の説明】
【0055】
1,51 案内ロボット
11 移動機構
12 センサ
13 出力装置
14 左アーム
15 右アーム
16 電子制御ユニット
17 記憶装置
20 制御プログラム
21 第1のジェスチャデータ
22 第2のジェスチャデータ
23 マップデータ
24 案内データ
30 案内情報出力部
31 位置認識部
32 動作アーム決定部
33 データ反転部
34 電子司令部
40,60,61,62,63,64,65,66 対象
52,53,54,55 人

【特許請求の範囲】
【請求項1】
自律的に移動する移動手段と、
一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、
前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、
領域内に存在する1又は複数の対象に対応する案内情報を出力する案内情報出力手段と、
前記対象と自己との位置関係を認識する位置認識手段と、
前記案内情報の出力に合わせて前記対象を指し示す動作を含む第1のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する記憶手段と、
前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する動作アーム決定手段と、
前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるデータ反転手段と、
前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御し、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する動作指令手段と、
を有する案内ロボット。
【請求項2】
前記記憶手段は、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを更に記憶し、
前記動作アーム決定手段は、前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定し、
前記データ反転手段は、前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させ、
前記動作司令手段は、前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御し、前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御する、
請求項1に記載の案内ロボット。
【請求項3】
前記位置認識手段は、前記領域内に存在する人、前記対象、及び自己の位置関係を認識し、
前記移動手段は、前記人と前記対象とが所定の距離内にある場合に当該人又は当該対象に近接し、
前記動作アーム決定手段は、前記接近時における当該対象と自己との位置関係に基づいて前記第1のジェスチャを行うアーム部を決定する、
請求項1又は2に記載の案内ロボット。
【請求項4】
前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、
前記動作アーム決定手段は、前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とする、
請求項1〜3のいずれか1つに記載の案内ロボット。
【請求項5】
領域内を自律的に移動する手段と、
前記領域内に存在する対象についての案内情報を出力する手段と、
前記対象と自己との位置関係を認識する手段と、
一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、
前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、
前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、
前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段と、
を有するロボットを利用した案内方法であって、
前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定するステップと、
前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるステップと、
前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御するステップと、
前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御するステップと、
を有する案内方法。
【請求項6】
前記ロボットは、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを記憶する手段を更に備え、
前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定するステップと、
前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させるステップと、
前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御するステップと、
前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御するステップと、
を更に有する請求項5に記載の案内方法。
【請求項7】
前記領域内に存在する人、前記対象、及び自己の位置関係を認識するステップと、
前記人と前記対象とが所定の距離内にある場合に当該人又は当該対象に近接するステップと、
前記接近時における当該対象と自己との位置関係に基づいて前記第1のジェスチャを行うアーム部を決定するステップと、
を更に備える請求項5又は6に記載の案内方法。
【請求項8】
前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、
前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とする、
請求項5〜7のいずれか1つに記載の案内方法。
【請求項9】
領域内を自律的に移動する手段と、
前記領域内に存在する対象についての案内情報を出力する手段と、
前記対象と自己との位置関係を認識する手段と、
一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、
前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、
前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、
前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段と、
を有するロボットを制御する案内制御用プログラムであって、
コンピュータに、
前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する処理と、
前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させる処理と、
前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御する処理と、
前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する処理と、
を実行させる案内制御用プログラム。
【請求項10】
前記ロボットは、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを記憶する手段を更に備え、
前記コンピュータに、
前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定する処理と、
前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させる処理と、
前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御する処理と、
前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御する処理と、
を更に実行させる請求項9に記載の案内制御用プログラム。
【請求項11】
前記コンピュータに、
前記領域内に存在する人、前記対象、及び前記ロボットの位置関係を認識する処理と、
前記人と前記対象とが所定の距離内にある場合に前記ロボットを当該人又は当該対象に近接させる処理と、
前記接近時における当該対象と前記ロボットとの位置関係に基づいて前記第1のジェスチャを行うアーム部を決定する処理と、
を更に実行させる請求項9又は10に記載の案内制御用プログラム。
【請求項12】
前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、
前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とする、
請求項9〜11のいずれか1つに記載の案内プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate


【公開番号】特開2011−224737(P2011−224737A)
【公開日】平成23年11月10日(2011.11.10)
【国際特許分類】
【出願番号】特願2010−97664(P2010−97664)
【出願日】平成22年4月21日(2010.4.21)
【出願人】(000003207)トヨタ自動車株式会社 (59,920)
【Fターム(参考)】