説明

歩行補助ロボット

【構成】歩行補助ロボット10は車輪12を含み、車輪12によって自走する。歩行者がつかむためのつかみ部30が備えられ、たとえば、歩行者とのコミュニケーションによって入力された目的地まで当該歩行者を連れた移動が行われる。GPSやネットワーク、ネットワークロボットプラットフォーム、環境埋め込み型情報発信機器などの環境インフラを利用して現在地の位置情報が取得され、生成した目的地までの経路に沿った移動が行われる。現在地の特徴や問題点などの情報が音声または画像で提供される。触覚センサの出力に基づいて推定した歩行者の位置および姿勢の変化等に応じて移動速度を調節する。座部24上に歩行者が座ったときは長距離移動がキャンセルされる。
【効果】歩行者を連れて目的地まで正確に安全に誘導でき、しかも健康を促進できる。

【発明の詳細な説明】
【技術分野】
【0001】
この発明は歩行補助ロボットに関し、特にたとえば歩行する人とともに移動する、歩行補助ロボットに関する。
【背景技術】
【0002】
従来、高齢者、身体障害者などの利用者を搭乗させて自律走行する車椅子ロボットがあった。たとえば特許文献1の技術では、GPS受信機で得た現在地情報と走行コースとを逐次比較して移動方向と走行距離とを制御することによって、車椅子のみでの目的地への自律走行を可能にしている。
【特許文献1】特開平11−290390号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
従来技術は車椅子であり、利用者はこれに搭乗するのであるが、安全性の確保が困難であった。たとえば、対向車や自転車などが迫るなどの危険時には、自動車のように高剛性ボディで守られているわけではないのでユーザは車椅子から降りる必要があるが、車椅子を利用する必要のあるユーザがとっさに逃げたり降りたりする回避運動を行うのは困難である。もし利用者が健常者であれば逃げることも可能であろうが、車椅子の利用の必要性のない人が車椅子に搭乗すると、身体を動かさないため足腰を弱らせてしまうという弊害がある。また、人が搭乗するために車椅子ロボットのサイズは大きくなり、幅の狭い歩道で健常者が使用するのは問題があろう。このように、たとえば健康な高齢者や子供などが散歩や買い物に出掛けるような状況で、道に迷わないからといって車椅子ロボットを使用することは、問題が多く現実的ではない。
【0004】
それゆえに、この発明の主たる目的は、新規な、歩行補助ロボットを提供することである。
【0005】
この発明の他の目的は、歩行者を連れて移動できる、歩行補助ロボットを提供することである。
【0006】
この発明のその他の目的は、歩行者を目的地へ誘導できる、歩行補助ロボットを提供することである。
【0007】
この発明のさらに他の目的は、利用者の健康を促進する、歩行補助ロボットを提供することである。
【課題を解決するための手段】
【0008】
請求項1の発明は、自走式の移動機構、ユーザがつかまることが可能に形成されたつかみ部、および移動機構の移動を制御する制御手段を備え、制御手段による移動によってつかみ部につかまったユーザを動かす、歩行補助ロボットである。
【0009】
請求項1の発明では、歩行補助ロボットは、たとえば、車輪、モータ、モータドライバなど自走式移動機構を備え、制御手段によってその移動が制御される。ユーザがつかまることの可能に形成されたつかみ部が設けられ、当該つかみ部につかまったユーザを移動機構の移動によって動かすことができる。したがって、歩行するユーザを連れて移動することができる。
【0010】
請求項2の発明は、請求項1の発明に従属し、ユーザの発話音声または操作に基づいて目的地を取得する第1目的地取得手段、および現在地の位置情報を環境インフラを利用して取得する現在地取得手段をさらに備える。制御手段は、現在地取得手段によって取得された現在地および第1目的地取得手段によって取得された目的地に基づいて生成された経路情報によって移動を制御する。
【0011】
請求項2の発明では、第1目的地取得手段によって目的地が取得される。たとえば、コミュニケーションによって目的地が入力されてよい。つまり、ユーザの発話音声をマイクで取り込み、目的地を音声認識によって取得してよい。あるいは、タッチパネル操作などによって画面入力で目的地が設定されてよい。目的地は、屋外のある場所であってもよいし、何らかの建物であってもよいし、屋内のある場所であってもよい。現在地取得手段は、環境インフラを利用して現在地の位置情報を取得する。環境インフラは、たとえばGPS、ネットワーク、ネットワークロボットプラットフォーム、環境埋め込み型情報発信機器などであってよい。ネットワークロボットプラットフォームは、ネットワークに接続する歩行補助ロボットや各種ロボットの位置情報を記憶している。環境埋め込み型情報発信機器は、たとえば当該位置の識別情報を発信していて、歩行補助ロボットは当該識別情報をタグリーダ等によって検出して、ネットワークを介してネットワークロボットプラットフォームに送信する。これに応じて、ネットワークロボットプラットフォームが歩行補助ロボットの位置を記憶する。制御手段は、現在地と目的地に基づいて生成された経路情報によって移動を制御する。現在地から目的地までの経路情報は、当該歩行補助ロボットで地図情報に基づいて探索および生成してもよい。あるいは、ネットワーク上の他の装置で探索および生成された現在地から目的地までの経路情報をネットワークを介して取得するようにしてもよい。なお、当該歩行補助ロボットが屋外も含めて使用される場合には、屋外の地図情報に基づいて目的地までの経路が作成され、さらに当該目的地が建物である場合には当該建物内の地図情報に基づいて屋内目的地までの経路が作成されてよい。あるいは、当該歩行補助ロボットが建物内で使用される場合には、当該建物内の地図情報が使用されて経路が作成される。このように、現在地から目的地までの経路に沿ってユーザを目的地まで誘導することができる。
【0012】
請求項3の発明は、請求項1または2の発明に従属し、ユーザの位置を検出する位置検出手段をさらに備える。制御手段は、位置検出手段によって検出された位置が所定の範囲内でないとき、当該位置に近付ける位置調整手段を含む。
【0013】
請求項3の発明では、位置検出手段によって、ユーザの位置が検出される。位置検出手段は、たとえば、つかみ部を含む体表に設けられた分布型の触覚センサを含み、当該触覚センサによって取得した触覚情報と予め記憶手段に記憶しておいたマップとに基づいて、ユーザの位置および姿勢を推定してよい。あるいは、位置検出手段は、カメラで全方向を撮影し、予め記憶しておいたユーザの服の色などの特徴を、撮影した画像から検出することで、当該ユーザの位置を検出してよいし、さらに、音声発話に対する音声入力によって当該ユーザの位置を確認してよい。あるいは、ユーザに装着した無線タグを計測することによって、ユーザの位置を検出してもよい。位置調整手段は、所定の範囲内、たとえば、当該歩行補助ロボットの音声の届く範囲内にユーザが存在していないと判断されるとき、当該ユーザの位置に近付く移動を行う。このように、ユーザと離れないように調整できるので、ユーザを連れて移動することができる。
【0014】
請求項4の発明は、請求項1ないし3の発明のいずれかに従属し、体表に設けられた触覚センサによって取得した触覚情報と記憶手段に記憶されたマップとに基づいてユーザの位置および姿勢を推定する推定手段を含む。制御手段は、推定手段によって推定された位置および姿勢の変化に応じて移動速度を調整する第1速度調整手段を含む。
【0015】
請求項4の発明では、推定手段によって、触覚センサからの触覚情報とマップとに基づいてユーザの位置および姿勢が推定される。マップでは、触覚センサの触覚情報のパターンと人の位置および姿勢に関する情報とが対応付けられているので、触覚センサから触覚情報を取得することによって、そのときのユーザの位置および姿勢を推定できる。第1速度調整手段は、ユーザの位置および姿勢の変化に応じて、移動速度を調整する。たとえば、ユーザが位置および姿勢を激しく変化させている場合には、ユーザの歩行ペースと歩行補助ロボットの移動速度とが合っていないと考えられるので、移動速度をユーザに合わせて調整する。新たな移動速度は、たとえばユーザとのコミュニケーションによって設定されてよい。このようにして、ユーザの状態を見ながら速度が調整できるので、ユーザのペースに合わせて移動することができる。
【0016】
請求項5の発明は、請求項1ないし4の発明のいずれかに従属し、ユーザとの距離を検出する距離検出手段を含む。制御手段は、距離検出手段によって検出された距離の変化に応じて移動速度を調整する第2速度調整手段を含む。
【0017】
請求項5の発明では、たとえば距離センサのような距離検出手段によってユーザとの距離が検出される。第2速度調整手段は、ユーザとの距離の変化に応じて移動速度を調整する。たとえば、ユーザとの距離が変化している場合には、ユーザの歩行ペースと歩行補助ロボットの移動速度とが合っていないと考えられるので、移動速度をユーザに合わせて調整する。この場合も、ユーザとのコミュニケーションで新たな移動速度を設定してよい。このように、ユーザとの距離を見ながら速度調整できるので、ユーザのペースに合わせて移動することができる。
【0018】
請求項6の発明は、請求項1ないし5の発明のいずれかに従属し、ユーザの位置を検出する位置検出手段を含む歩行補助ロボットであり、ユーザが座ることが可能に形成された座部をさらに備える。制御手段は、位置検出手段によって検出された位置が座部上である場合に長距離移動をキャンセルし、必要に応じて回転または短距離移動のみを実行する。
【0019】
請求項6の発明では、位置検出手段によってユーザの位置が検出され、当該検出位置が座部上であるときには、たとえば目的地までの誘導のような長距離移動がキャンセルされ、必要に応じて回転または短距離移動のみが実行される。つまり、ユーザが座部に座った場合には、たとえば、向きを変えたり、近付いてくる物体を回避したりするような移動のみが許可され、ユーザを搭乗させたまま長距離移動することがない。したがって、ユーザが歩行している場合には、当該ユーザを連れて移動することができるので、健康を促進できる。一方、ユーザが座部に座っている場合には、当該ユーザを休憩させることができる。さらに、ユーザを搭乗させて長距離を移動するようなことがないので安全である。
【0020】
請求項7の発明は、請求項1ないし6の発明のいずれかに従属し、現在地の位置情報を環境インフラを利用して取得する現在地取得手段を含む歩行補助ロボットであり、現在地取得手段によって取得された現在地の位置情報に付随する情報を出力する情報提供手段をさらに備える。
【0021】
請求項7の発明では、現在地取得手段によって、環境インフラを利用して現在地の位置情報が取得される。情報提供手段は、現在地に付随する情報、たとえば、現在地の特徴、問題点、注意事項などの情報を出力する。位置に付随する情報は、たとえばネットワークから取得されてよいし、予め記憶手段に記憶しておいてもよい。また、当該付随情報は音声や画面表示によって提供されてよい。したがって、ユーザに現在地に関する情報を提示することができ、注意を喚起することができる。
【0022】
請求項8の発明は、請求項2ないし7の発明のいずれかに従属し、第1目的地取得手段によって取得された目的地が建物である場合に当該建物内における屋内目的地をユーザの発話音声または操作に基づいて取得する第2目的地取得手段をさらに備える。制御手段は、第1目的地入力手段によって取得された目的地に到達後、第2目的地入力手段によって取得された屋内目的地と現在地とに基づいて生成された屋内の経路情報によって移動を制御する。
【0023】
請求項8の発明では、第2目的地取得手段によって、目的地が建物である場合には、当該建物内における目的地を取得する。建物内の目的地は、同様に、音声または操作に基づくユーザとのコミュニケーションによって入力されてよい。また、建物内の目的地の設定は、たとえば、第1目的地取得手段による目的地の設定と同時に行われてもよいし、当該建物に到着後に行われてもよい。制御手段は、建物に到着した後は、屋内目的地と現在地とに基づいて生成された屋内の経路情報によって移動を制御する。建物内での現在地は、たとえば建物内の環境インフラを利用して取得する。屋内の目的地までの経路情報は、当該歩行補助ロボットで当該屋内の地図情報に基づいて探索および生成してもよいし、あるいは、ネットワーク上の他の装置で探索および生成された屋内の経路情報をネットワークを介して取得するようにしてもよい。このように、目的地が建物である場合には、さらに屋内の目的地までの経路に沿って、当該屋内目的地まで誘導することができる。
【発明の効果】
【0024】
この発明によれば、つかみ部を備えて自走可能にしているので、歩行者を連れて、たとえばその手を引いて移動することができ、人の歩行を補助することができる。
【0025】
また、目的地を入力しかつ現在地から目的地までの経路情報に従って移動するようにした場合には、ユーザを目的地まで誘導することができる。
【0026】
さらに、人を搭乗させず連れて移動するようにしているので、利用者の健康を促進できる。
【0027】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【発明を実施するための最良の形態】
【0028】
図1および図2を参照して、この実施例の歩行補助ロボット10は、歩く人を連れて移動するためのロボットであり、自走式の移動機構を備えている。歩行補助ロボット10はこの実施例では車輪移動型であるが、他の実施例では脚移動型であってもよい。
【0029】
歩行補助ロボット10は、図示しないメインフレームに設けられた車輪12を含む。車輪12は、進行方向(前後方向)に並べられた2つの駆動輪12aと、進行方向に直交する方向(左右方向)に並べられた2つの従輪12bとを含む。前輪12aおよび後輪12aは操舵輪でもある。前輪12aおよび後輪12aは、後述する前輪モータ14および後輪モータ16(図3参照)によってそれぞれ駆動される。なお、メインフレームには、この歩行補助ロボット10の各コンポーネントに電源を供給するバッテリなども設けられる。メインフレームは、所定形状(円柱状、截頭円錐状など)を有したとえばFRP製のハウジング18内に設けられる。
【0030】
ハウジング18の前壁には、たとえば無色透明な樹脂で形成された2つの窓20が設けられ、2つの窓20の内側のメインフレームには、距離センサ22(図3参照)が設けられる。たとえば、2つの窓20内には、複数の(たとえば8つ)距離センサ22のそれぞれが、異なる所定の方向へ向けて配置される。距離センサ22によって、歩行補助ロボット10の前方の所定の範囲に存在する物体との距離が計測される。距離センサ22はたとえば赤外線、超音波またはレーザを用いるデバイスであってよい。なお、距離センサ22は、歩行補助ロボット10の前方だけでなく後方や全方向に向けて設けられてよいし、ハウジング18の外側に設けられてもよい。後方の所定範囲に向けて距離センサ22を設けることによって歩行補助ロボット10の後方を歩行するユーザとの距離を計測できる。距離センサ22を全方向をカバーするように設ける場合には、歩行補助ロボット10の周囲のどの方位でユーザが歩行していても、当該ユーザとの距離を計測できる。
【0031】
ハウジング18の上端にはたとえば円盤状の座部24が設けられる。この座部24を設ける場合には、当該歩行補助ロボット10は椅子として機能する。ユーザはこの座部24に腰掛けることによって休憩することができる。ただし、後述するように、ユーザが座った場合には長距離移動は実行されない。
【0032】
ハウジング18の後壁の上端部からは支柱26が上方に立ち上げられ、支柱26の上端にはたとえばU字状の支持部28が固定的に形成される。支持部28のU字の2つの直線部分の先端には、2つのつかみ部30がそれぞれ左右方向に延びて固定的に形成される。つかみ部30は、ユーザにつかませるために設けられた取っ手であり、進行方向に向かって右側に形成される右つかみ部30aと、左側に形成される左つかみ部30bとを含む。たとえば、各つかみ部30は、ユーザが楽に握ることができるように、適宜な径および長さを有する棒状に形成される。また、つかみ部30の高さは、ユーザが楽な姿勢で歩行できるように適宜に設定される。移動時には、理想的には図2に示すようにユーザが右手で右つかみ部30aを握りかつ左手で左つかみ部30bを握った状態で歩行することを想定している。したがって、この歩行補助ロボット10によれば、ユーザの手を引いて移動をすることができる。なお、ユーザはこのつかみ部30以外の部分、たとえば支柱26、支持部28、後述する球体32および操作部36などに触れながら歩行することも可能である。
【0033】
つかみ部30aおよび30bの先端にはそれぞれ球体32aおよび32bが固定的に形成される。球体32には図示しない複数の孔が形成されており、内部にはステレオのスピーカ34(図3参照)が設けられる。つまり、球体32aには右スピーカが設置され、球体32bには左スピーカが設置される。スピーカ34は、この歩行補助ロボット10がユーザに対して音声によってコミュニケーションを図ったり情報を提供したりするために使用されてよい。
【0034】
支持部28のU字形の内面には、コンピュータが収められユーザインターフェースとしても機能する操作部36が設けられる。操作部36は、たとえば正面視で縦長の楕円形状に形成されたハウジングを有している。操作部36は、支持部28に対して1軸の自由度を有して取り付けられる。つまり、操作部36は、ヨー軸(図1で「A」軸)周りに回転可能に形成される。なお、操作部36を歩行補助ロボット10の模擬の頭部と捉えることもでき、したがって、頭部36のA軸周りの回転は首における回転と捉えることもできる。
【0035】
操作部36のハウジングの一方主面の下部の開口には、LCD38の表示面が配置される。LCD38の表示面上にはタッチパネル40が重ねられている。タッチパネル40は図1では便宜上破線で示される。LCD38には、ユーザに対して提供される情報や、ユーザがタッチパネル40を使って操作するための入力画面等が表示されてよい。
【0036】
また、操作部36のハウジングの一方主面の上部の開口からは、球体42の一部が露出している。この球体42は、操作部36に対して2軸の自由度を有して設けられている。つまり、球体42は、ヨー軸(図1で「B」軸)およびピッチ軸(図1で「C」軸)周りにそれぞれ回転可能に形成されている。球体42には、2つの縦長孔が形成されており、当該孔の内側には、カメラ44(図3参照)が設置されている。したがって、この球体42をヨー軸Bおよびピッチ軸C回りに回転することによって、歩行補助ロボット10の前方の全範囲をカメラ44で撮影することができる。さらに、操作部36をヨー軸A回りに180度回転すればカメラ44の視線方向を歩行補助ロボット10の後方に向けることができるので、後方の全範囲をカメラ44で撮影できる。したがって、カメラ44によって歩行補助ロボット10の周囲の全方向を撮影できる。カメラ44はたとえばCMOSやCCDのような固体撮像素子を用いるカメラであってよい。カメラ44は主としてユーザを撮影ないし検出するために使用されてよい。
【0037】
また、球体42の孔の内側にはカメラ44とともにマイク46(図3参照)も設置されている。マイク46は、周囲の音、主としてユーザの声を取り込むために用いられる。
【0038】
なお、球体42を歩行補助ロボット10の模擬の顔と捉えることもできる。図2に示したように、移動時においては、操作部36は、基本的には図1の状態から180度回転された状態にされ、球体42(カメラ44およびマイク46)およびLCD38の設けられた面がユーザに向けられる。
【0039】
また、歩行補助ロボット10の体表であって歩行中のユーザに触れられそうな箇所には、触覚センサ48(図3参照)が設けられる。具体的には、触覚センサ48は、つかみ部30、球体32、操作部36、支持部28、支柱26等の表面に設けられてよく、したがって、歩行補助ロボット10には分布型触覚センサ48が形成される。
【0040】
触覚センサ48としては、本件出願人による特開2004−283975号公報に開示したように、シリコン皮膚にピエゾフィルムを埋め込んだセンサが使用されてよい。具体的には、触覚センサ48のセンサデバイスとしてたとえばPVDF(ポリビニリデンフルオロイド)フィルムのようなピエゾフィルムが使用される。ピエゾフィルムは圧電センサであり、圧力等で変形されるとそのひずみ速度に応じた電圧を出力する。所定サイズの複数のピエゾフィルムがシリコンゴムのような柔軟な皮膚に埋め込まれる。センサデバイス(ピエゾフィルム)の近傍に読取装置および演算装置が設けられており、読取装置はセンサデバイスの出力信号をディジタルデータに変換する。触覚センサ48では、複数の演算装置がセンサネットワークを形成しており、各演算装置は、読取装置から得たデータに基づく触覚情報をセンサネットワークを介してホストコンピュータ(すなわち歩行補助ロボット10全体を制御するコンピュータであるCPU50(図3参照))へ送信する。なお、送信される触覚情報は、たとえばセンサデバイスの識別情報と圧力値に関する情報とを含むので、ホストコンピュータは、触覚情報に基づいてどの箇所がどの程度の圧力を受けたかなどを検出できる。
【0041】
そして、この歩行補助ロボット10は、分布型の触覚センサ48の出力パターンとユーザの位置および姿勢とを対応付けたマップデータを記憶している。このため、触覚センサ48の出力を計測してマップと比較することによって、当該歩行補助ロボット10に触れているユーザがどのような位置に存在してどのような姿勢であるかを推定することができる。マップを作成するためには、人間がこの歩行補助ロボット10に触れながら歩行をする試験を行う。触覚センサ48の出力データを計測するとともにモーションキャプチャによって3次元座標を計測し、これら計測データを基にマップを作成することができる。
【0042】
なお、上述のような分布型の触覚センサ48、マップを使用した相手の位置および姿勢の推定、マップ作成方法などに関する技術の一例は、たとえば本件出願人による特開2005−279834号公報に詳細に開示されるので参照されたい。また、触覚センサ48として他のものが用いられてもよく、たとえば、本件出願人が2005年3月31日に出願した特願2005−103582号には、上記特開2005−279834号公報の技術とは異なる形態の触覚センサネットワークに関する技術の一例が記載されるので参照されたい。また、マップを使用したユーザの位置および姿勢の推定を行わない場合には、単に接触のオン・オフを検出する接触センサのような他の触覚センサを各部位の体表に設けるようにしてもよい。
【0043】
図3には歩行補助ロボット10の電気的な構成の一例を示すブロック図が示される。歩行補助ロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バスを介して、RAM52、HDD54および入出力インターフェース56が接続される。
【0044】
HDD54や図示しないROMには、この歩行補助ロボット10の動作を制御するプログラムおよびデータが予め格納されている。RAM52はバッファメモリやワーキングメモリとして使用される。CPU50は、HDD54から必要なプログラムおよびデータをRAM52に読み出し、当該プログラムに従って生成しまたは取得したデータをRAM52に記憶しつつ処理を実行する。
【0045】
入出力インターフェース56は、接続される各機器に適した回路およびインターフェースを含む。CPU50には、入出力インターフェース56を介して、LCD38、タッチパネル40、無線通信装置58、アンプ60、触覚センサ48、距離センサ22、GPS受信機62およびハブ64が接続される。
【0046】
CPU50は、表示する画面のデータを入出力インターフェース56を介して図示しないLCDコントローラに与え、当該画像をLCD38に表示する。タッチパネル40は、ユーザによってタッチされた位置を検出して当該位置を示す座標データを出力する。CPU50は入出力インターフェース56を介してタッチパネル40からの座標データを取得する。
【0047】
無線通信装置58は他の装置と無線通信するためのものであり、たとえば無線LANアクセスポイントや基地局などを介してネットワークの他の装置と通信する。CPU50は無線通信装置58を介してデータを送受信する。
【0048】
アンプ60にはスピーカ34が接続される。CPU50は音声データを入出力インターフェース56に与え、アンプ60を介して左右のスピーカ34のそれぞれに音声信号を与えて当該音声を出力する。
【0049】
触覚センサ48は、上述のように複数のセンサデバイス、複数の読取装置および複数の演算装置などを備えたセンサネットワークであり、センサデバイスの識別情報と圧力情報等を含む触覚情報を出力する。CPU50は入出力インターフェース56を介して触覚センサ48からの出力データを取得する。
【0050】
距離センサ22は、検出した物体までの距離ないし位置に関する情報を当該距離センサ22の識別情報とともに出力し、CPU50は入出力インターフェース56を介して距離センサ22からの出力データを取得する。なお、上述のようにこの歩行補助ロボット10には複数の距離センサが設置されるが、図3ではこれらをまとめて距離センサ22として示す。
【0051】
GPS受信機62は、4つのGPS衛星またはディファレンシャルGPS基準局からの信号を受信して、現在地の緯度、経度、高度を算出し、現在の位置情報を出力する。CPU50は入出力インターフェース56を介してGPS受信機62からの出力データを取得する。
【0052】
ハブ64はたとえばUSB2.0ハブであり、ハブ64には、タグリーダ66、カメラ44、マイク46およびサーボコントローラ68が接続される。
【0053】
タグリーダ66は、無線タグ(RFIDタグ)から発信されるデータを読み取るためのものであり、CPU50は入出力インターフェース56およびハブ64を介してタグリーダ66からの出力データを取得する。なお、環境に埋め込まれる無線タグやユーザに取り付けられる無線タグにパッシブ型無線タグが使用される場合には、タグリーダ66がアンテナから電波を発信して、電磁誘導で当該無線タグを駆動する。
【0054】
なお、赤外線LEDタグが使用される場合には、赤外線LEDタグの発信する情報を読み取るために、赤外線カメラないし赤外線受光素子などを備えるタグリーダが設けられる。
【0055】
カメラ44は撮影した映像に基づく画像データを出力し、CPU50は入出力インターフェース56およびハブ64を介してカメラ44からの出力データを取得する。マイク46は入力された声または音に基づく音声データを出力し、CPU50は入出力インターフェース56およびハブ64を介してマイク46からの出力データを取得する。
【0056】
サーボコントローラ68は、たとえばUSBシリアル変換ケーブルを用いてハブ64に接続される。サーボコントローラ68には、サーボコントローラ70、モータドライバ72およびモータドライバ74がたとえばデイジーチェーンで接続される。
【0057】
サーボコントローラ68は操作部36を駆動するための首サーボモータ76を制御する。つまり、サーボコントローラ68はCPU50からの制御データを受けて、操作部36のヨー軸A周りの角度を制御する1つのモータ(すなわち「首サーボモータ」)76の回転角度を調節する。また、サーボコントローラ70は球体42を駆動するための顔サーボモータ78を制御する。つまり、サーボコントローラ70は、CPU50からの制御データを受けて、球体42のヨー軸Bおよびピッチ軸C周りの各角度を制御する2つのモータ(まとめて「顔サーボモータ」と呼ぶ。)78の回転角度を調節する。このように、CPU50は、サーボコントローラ68および70に適切な制御データを与えることによって、操作部36の向きを所望の方向に制御できるし、球体42の向き、すなわち、これに取り付けられたカメラ44およびマイク46の向きを所望の方向に制御できる。
【0058】
また、モータドライバ72は、CPU50からの制御データを受けて、後輪12aを駆動するための後輪モータ16を制御する。後輪モータ16は、後輪12aを回転させるための駆動用モータと、後輪12aを操舵するための操舵用モータとを含む。したがって、モータドライバ72は後輪12aの方向および回転を制御できる。なお、各モータの動力は各減速機を介して車輪12aに伝達される。また、モータドライバ74は、CPU50からの制御データを受けて、前輪12aを駆動するための前輪モータ14を制御する。前輪モータ14は、前輪12aを回転させるための駆動用モータと、前輪12aを操舵するための操舵用モータとを含む。したがって、モータドライバ74は前輪12aの方向および回転を制御できる。このように、CPU50は、モータドライバ72および74に適切な制御データを与えることによって、歩行補助ロボット10の移動方向、移動距離(移動速度)などを制御できる。
【0059】
たとえば、この歩行補助ロボット10は、人間を連れて移動する際、環境のインフラと連携して現在地を把握しつつ移動をすることができる。利用する環境のインフラは、代表的にはGPSであり、また、ネットワークロボット技術等である。
【0060】
図4には、歩行補助ロボット10と環境のインフラとの連携の概要の一例が示される。歩行補助ロボット10が利用する環境インフラとして、ネットワーク80を介して接続可能なネットワークロボットプラットフォーム(以下、単に「プラットフォーム」ともいう。)82、ネットワーク80に接続するための無線LANアクセスポイント84、環境埋め込み型情報発信機器86、ネットワーク80に接続されている他のロボット88、およびGPS衛星90等が存在する。なお、無線LANアクセスポイント84は基地局であってもよい。また、歩行補助ロボット10は4つのGPS衛星90からの信号を受信することによって高精度に現在地を検出できるが、ディファレンシャルGPS基準局の発信する補正情報を使用してもよい。
【0061】
プラットフォーム82は、ネットワーク80に接続されている各種ロボットやアンコンシャスセンサなどのようなロボット88が計測した情報を登録するデータベースである。この歩行補助ロボット10や他のロボット88はプラットフォーム82に登録されているデータをネットワーク80経由で受信して利用することができる。また、この歩行補助ロボット10が計測した情報も、プラットフォーム82に登録することができる。プラットフォーム82は、たとえばロボット位置情報DB(データベース)82a、人位置情報DB82bおよび位置付属情報DB82cなどを含む。ロボット位置情報DB82aには、ネットワークに接続されている各ロボットの現在位置を示すデータが記憶され、この歩行補助ロボット10の位置データもその識別情報に対応付けて登録されている。人位置情報DB82bには、計測対象に設定された人の現在位置を示すデータが記憶され、この歩行補助ロボット10のユーザの位置データもその識別情報に対応付けて登録されてよい。位置付属情報DB82cには、たとえば、位置データ(緯度、経度、高度)または位置の識別情報に対応付けて、当該位置に関してユーザに提供すべき情報が記憶されている。一例として、転びやすい、車がよく通って危ないなど、歩行者に警告ないし提示すべき情報が登録される。位置付属情報は、当該情報を音声出力で提供する場合には音声データであってよいし、当該情報を画面表示で提供する場合には画像データまたはテキストデータ等であってよい。あるいは、提供される複数の情報について、歩行補助ロボット10に音声データまたは画像データもしくはテキストデータ等を予め記憶しておく場合には、位置付属情報DB82cには、当該情報の識別情報を登録しておくようにしてもよい。
【0062】
歩行補助ロボット10は、屋外を移動しながら、たとえば公衆無線LANの無線LANアクセスポイント84に通信接続して、ネットワーク80を介してプラットフォーム82にアクセスできる。また、歩行補助ロボット10は、屋内では、たとえば当該建物内の無線LANの無線LANアクセスポイント84に通信接続して、ネットワーク80を介してプラットフォーム82にアクセスできる。
【0063】
歩行補助ロボット10は、環境埋め込み型の情報発信機器86からの情報を取得する。環境埋め込み型情報発信機器86は、たとえば、環境中に埋め込まれたインテリジェント基準点や、ICタグ付き点字ブロック、無線マーカ、赤外線マーカなどの情報発信機器である。インテリジェント基準点は、国土地理院によって設置される位置情報の基準となる基準点であり、無線タグなどの情報発信機器が設定される。各情報発信機器86は、屋内または屋外の所定の位置に設置され、当該機器の設置された位置情報を電波または赤外線等を用いて発信する。なお、無線タグが使用される場合パッシブ型であることが望ましい。ただし、外部電源を容易に確保できる場所であればこれに限られない。発信される位置情報は、当該埋め込み位置の識別情報であり、歩行補助ロボット10はタグリーダ66で当該識別情報を読み取ると、無線通信装置58を用いてネットワーク80経由でプラットフォーム82に当該識別情報を送信する。プラットフォーム82は、位置の識別情報を受信すると、たとえばネットワーク80に接続された他のデータベースから、当該識別情報に対応付けられた位置データ(緯度、経度、高度)を取得して、歩行補助ロボット10の識別情報に対応付けて当該位置データをロボット位置情報DB82aに記憶する。
【0064】
なお、情報発信機器86は、当該位置の識別情報を発信せずに、当該位置の緯度、経度および高度を示す位置データ自体を発信するようにしてもよい。この場合には、歩行補助ロボット10は情報発信機器86から現在地の位置データを直接取得できるし、また、現在地の位置データをプラットフォーム82に送信してロボット位置情報DB82aに登録できる。
【0065】
ユーザには当該ユーザの識別情報を発信するタグ92が装着される。タグ92は無線タグであり、場合によっては赤外線LEDタグであってもよい。歩行補助ロボット10は、タグ92を検出したとき、当該読み取ったユーザ識別情報をプラットフォーム82に送信する。プラットフォーム82はユーザ識別情報を受信すると、たとえば、当該ユーザ識別情報を送信してきたロボットの現在地をロボット位置情報DB82aから取得し、当該位置データを当該ユーザ識別情報に対応付けて人位置情報DB82bに記憶する。あるいは、歩行補助ロボット10が現在地を把握している場合、検出したユーザ識別情報とともに現在地の位置データをプラットフォーム82に送信するようにしてもよい。
【0066】
他のロボット88は、ビジブル型ロボットや環境に埋め込まれたアンコンシャス型ロボットであり、人に装着されたタグ92を検出するタグリーダを備えている。ビジブル型ロボットは、目に見えるロボットで、人型、ペット型など一体性のある身体を持つ。自律的または遠隔操作などで行動するパートナーロボットや、情報提供ないしガイドを行うサポートロボット等がこれに相当する。アンコンシャス型ロボットは、道路、街、室内、機器などの環境に埋め込まれたロボットであり、身体が見えないロボットをいう。人間の行動モニタリングをベースに必要に応じた情報を提供する。このような他のロボット88も、タグ92を検出すると、歩行補助ロボット10と同様に、当該読み取ったユーザ識別情報をネットワーク80経由でプラットフォーム82に送信する。これに応じて、プラットフォーム82は、上述の歩行補助ロボット10が送信した場合と同様にして、ユーザ識別情報に対応付けて位置データを人位置情報DB82bに記憶する。
【0067】
なお、この実施例では、歩行補助ロボット10にタグは装着されない。しかし、他の実施例では、歩行補助ロボット10にタグが装着されてもよい。この場合には、他のロボット88は、歩行補助ロボット10のタグを検出すると、当該読み取った歩行補助ロボット10の識別情報をネットワーク80経由でプラットフォーム82に送信する。したがって、この場合には、歩行補助ロボット10の現在地を他のロボット88によって検出し、プラットフォーム82に登録することができる。
【0068】
また、このプラットフォーム82を備えるシステムでは、歩行補助ロボット10のユーザの家族の人等は、ネットワーク80に接続されたPC94からプラットフォーム82にアクセスして歩行補助ロボット10またはユーザの識別情報を入力することによって、当該歩行補助ロボット10またはユーザの現在地を確認することができる。なお、PC94はネットワーク80に接続可能な携帯端末や携帯電話であってもよい。
【0069】
このように、歩行補助ロボット10は、GPS衛星90、ネットワーク80、プラットフォーム82、環境埋め込み型情報発信機器86等の環境インフラを利用することによって、屋内屋外を問わず現在地を把握することができるので、ユーザを目的地まで正確に案内することができる。しかも、ユーザを搭乗させた移動ではなく、たとえばつかみ部30につかまってまたは当該歩行補助ロボット10に接触せずに歩行するユーザを連れた移動を実現することができるので、ユーザの健康を促進できる。
【0070】
この歩行補助ロボット10の誘導処理における具体的な動作を、図5のフロー図を参照しながら説明する。誘導処理を開始すると、歩行補助ロボット10のCPU50は、ステップS1で、プラットフォーム82またはGPS等から現在地の位置データを取得する。位置データは、たとえば緯度、経度、高度(標高)である。具体的には、無線通信装置58を用いて無線LANアクセスポイント84と通信接続できたときには、ネットワーク80を介してプラットフォーム82に現在地の要求を送信する。これに応じて、プラットフォーム82は、受信した歩行補助ロボット10の識別情報に対応する位置データをロボット位置情報DB82aから読み出して、当該位置データを当該歩行補助ロボット10にネットワーク80を介して送信する。これに応じて、歩行補助ロボット10は現在地の位置データを受信してRAM52に記憶する。または、GPS受信機62から出力される位置データを取得してRAM52に記憶する。あるいは、タグリーダ66を使用して環境埋め込み型情報発信機器86を検出できた場合には、当該情報発信機器86が位置データを発信しているときには、当該位置データを現在地としてRAM52に記憶してもよい。なお、環境埋め込み型情報発信機器86が位置データではなく位置の識別情報を発信しているときには、当該識別情報をネットワーク80を介してプラットフォーム82に送信する。これに応じて、プラットフォーム82は、当該識別情報に対応する位置データを特定して、当該位置データを当該歩行補助ロボット10に返信する。また、プラットフォーム82は、当該歩行補助ロボット10の識別情報に対応付けてロボット位置情報DB82aに当該位置データを記憶する。また、歩行補助ロボット10がユーザのタグ92を検出して当該ユーザ識別情報も送信している場合には、プラットフォーム82は当該ユーザの識別情報に対応付けて人位置情報DB82bに当該位置データを記憶する。
【0071】
次に、ステップS3で、目的地入力処理を実行する。この処理では、コミュニケーションによってユーザに目的地を入力してもらう。この実施例では、ユーザは音声発話またはタッチパネル40の操作によって目的地を設定できる。この目的地入力処理の動作の一例が図6に示される。目的地入力処理が開始されると、LCD38には目的地設定の開始を指示するための起動ボタンが表示される。図6のステップS21で、起動ボタンがタッチされたか否かを、タッチパネル40からの座標データと起動ボタンの位置データとに基づいて判定する。なお、LCD38に表示されるボタンやアイコンなどの位置データは予めHDD54に記憶されており、処理の開始時など必要に応じてRAM52に読み出されている。ステップS21で“NO”であれば、ステップS23で、触覚センサ48が触られているか否かを、触覚センサ48から取得した触覚情報によって判定する。ステップS23で“NO”であれば処理はステップS21に戻る。
【0072】
一方、ステップS21で“YES”である場合、またはステップS23で“YES”である場合には、ステップS25で、たとえば「目的地を教えて下さい」のようなメッセージの画像ないし文字をLCD38に表示し、また、同メッセージの音声をスピーカ34から出力する。なお、LCD38に画面を表示するための画像データおよびスピーカ34から音声を出力するための音声データは予めHDD54に記憶される。
【0073】
そして、ステップS27で、歩行者すなわちユーザの音声発話またはタッチパネル40の操作に応じて目的地を設定する。具体的には、マイク46によって取得された音声データに音声認識を行うことによってユーザの発話した目的地を認識する。または、LCD38に、目的地を名称または住所などから選択または指定可能な目的地設定用画面を表示しておく。そして、タッチパネル40からの座標データと画面に表示されているボタンやアイコン等の位置データとに基づいて、ユーザによって指示ないし選択された目的地を特定する。入力された目的地の位置データ(緯度、経度、高度)は、HDD54に記憶されていた地図データから取得され、目的地データとしてRAM54に記憶される。なお、目的地として、その緯度、経度、高度が入力されてもよい。ステップS27を終了すると、この目的地入力処理を終了して処理は図5のステップS5へ戻る。
【0074】
図5のステップS5では、現在地から目的地までの経路を、探索用経路に関する情報を含む地図データに基づいて探索して、移動経路情報を生成し、RAM52記憶する。なお、地図データは予めHDD54に記憶されている。現在地から目的地までの経路の探索および生成は、公知のカーナビゲーションシステムなどの手法を使用すればよい。なお、この実施例では、歩行補助ロボット10で経路を探索および生成するようにしているが、他の実施例では、目的地までの移動経路情報をネットワーク80から取得するようにしてもよい。たとえば、現在地と目的地の情報をネットワーク80上の経路探索用サーバに送信して、当該サーバが地図データに基づいて現在地から目的地までの経路の探索および生成を行って、当該移動経路情報を歩行補助ロボット10に送信するようにしてもよい。なお、プラットフォーム82に上記経路探索用サーバとしての機能を備えさせてもよい。この場合、プラットフォーム82は歩行補助ロボット10の現在地だけでなく目的地も把握することができる。
【0075】
そして、ステップS7で移動処理を実行する。これによって、作成した経路に沿って歩行者と共に移動する。この移動処理では、歩行者と当該歩行補助ロボット10との位置関係を所定の範囲内に保つように位置調整を行いながら、経路に沿う方向に一定距離だけ進む移動が行われ、当該移動処理を繰返すことによって目的地まで歩行者を誘導する。この移動処理の動作の一例が図7に示される。
【0076】
移動処理を開始すると、ステップS41で、たとえば触覚センサ48、カメラ44および音声、またはプラットフォーム82を用いて、歩行者の位置を確認する。具体的には、触覚センサ48からの触覚情報に基づいて歩行者が歩行補助ロボット10に触っているか否かを判定し、反応がある場合には歩行者が歩行補助ロボット10から離れていない、つまり、当該ロボット10の声が届く範囲内に存在していることが確認できる。また、顔サーボモータ78および首サーボモータ76を制御してカメラ44で全方向を撮影することによって取得した画像データに基づいて歩行者の特徴(予め設定しておいた服の色など)の検出を行う。歩行者の特徴が検出される場合には当該歩行者が歩行補助ロボット10から離れていないことが確認できる。また、スピーカ34からの音声出力によって歩行者の名前を呼びかけたり話しかけたりして、歩行者からの応答をマイク46で取得した音声データから検出する。応答が検出される場合には当該歩行者が歩行補助ロボット10から離れていないことが確認できる。または、プラットフォーム82に歩行者の識別情報を含む要求を送信して、プラットフォーム82から当該歩行者の現在地を示す位置データを取得する。そして、当該歩行補助ロボット10の現在地と歩行者の現在地から両者の距離を算出し、当該算出距離が所定の閾値以下であるか否かを判定する。なお、所定の閾値は、たとえば当該ロボット10の出力音声が届く最大距離を実験によって計測することで得られる。なお、ステップS41では、距離センサ22で歩行者との距離を計測するようにしてもよい。または、後述する他の実施例のような歩行者位置検出処理(図9)を実行してもよい。
【0077】
次に、ステップS43で、歩行者が当該歩行補助ロボット10の声の届く範囲内に存在しているか否かを判定し、“NO”であれば、ステップS45で歩行者の近隣に移動する。たとえば、プラットフォーム82から取得した歩行者の現在地、当該ロボット10の現在地および向き(進行方向)等から、歩行者の近隣に設定した目標位置へ向かうための方向と距離とを算出する。そして、当該算出した方向および距離の移動を行うための制御データを生成し、当該制御データをモータドライバ72および74に与えて、後輪モータ16および前輪モータ14の回転を制御する。これによって、ユーザと離れないように位置関係を調整することができるので、ユーザを連れて移動することができる。ステップS45を終了すると処理はステップS41に戻って歩行者の位置を確認する。
【0078】
一方、ステップS43で“YES”であれば、つまり、歩行者が歩行補助ロボット10の近くに存在している場合には、作成した経路に沿った一定距離Aの移動を行う。具体的には、ステップS47で、上述のステップS1と同様にして、プラットフォーム82またはGPS等から歩行補助ロボット10の現在地を取得する。続いて、ステップS49で、現在地の位置データと作成した経路データに基づいて当該経路に沿う方向を計算し、当該方向へ一定距離Bだけ移動する。具体的には、算出した方向および一定距離Bの移動を行うための制御データを生成し、当該制御データをモータドライバ72および74に与えて、後輪モータ16および前輪モータ14の回転を制御する。なお、制御データの生成では、設定された移動速度も考慮される。移動速度はデフォルトであってもよいが、たとえば、ユーザの発話またはタッチパネル操作によって予め複数の候補から選択されたり入力されたりしてもよい。また、一定距離AおよびBの値は適宜に設定される。ただし、距離Bの値は距離Aの値よりも小さい。そして、ステップS51で、歩行補助ロボット10は今回の移動処理を開始してから一定距離Aだけ移動したか否かを判定する。ステップS51で“NO”であれば処理はステップS47へ戻り、一方、“YES”であればこの移動処理を終了して、処理は図5のステップS9へ戻る。このようにして、距離Bの移動ごとに経路に沿うように移動方向が決められ、当該方向への移動が行われる。また、移動処理が開始されるたびに、歩行者の位置が確認され、離れている場合には歩行補助ロボット10は歩行者に近付いて、位置調整を行う。
【0079】
図5のステップS9では、目的地に到着したか否かが判定される。たとえば、GPSまたはプラットフォーム82等の環境インフラから現在地の位置データを取得して、現在地の位置データと目的地の位置データとが一致するか否かを判定する。現在地が目的地から所定距離内であれば両者は一致すると判定してよい。ステップS9で“NO”であれば、処理はステップS7へ戻って再び移動処理を行う。
【0080】
このようにして、目的地に到着するまでは、距離Aの移動ごとに歩行者の位置が確認されるとともに、距離Bの移動ごとに経路に沿った方向が決められて移動が行われる。したがって、この実施例によれば、歩行者を連れて移動することができるとともに、歩行者を目的地まで正確に誘導することができる。
【0081】
なお、移動速度は一定にされてもよいが、他の実施例では、歩行者に合わせて移動速度を調整するようにしてもよい。たとえば、歩行者の状態(位置および姿勢など)の変化や歩行者と歩行補助ロボット10との距離の変化などに応じて、速度が調整されてよい。
【0082】
図8には速度調整処理の動作の一例が示される。この速度調整処理は、たとえば、一定時間ごとに他の処理(移動処理)と並列的に実行されてもよいし、図5のステップS7の移動処理の終了後に実行されてもよいし、所定の距離の移動ごとに実行されてもよい。
【0083】
速度調整処理を開始すると、ステップS61で、歩行者位置検出処理が実行され、当該歩行補助ロボット10と一緒に移動している人の位置が検出される。この歩行者位置検出処理の動作の一例が図9に示される。
【0084】
図9のステップS91で、タグリーダ66を用いて周囲を計測し、歩行者に装着されるタグ92の検出を試みる。歩行者に装着されるタグ92は、たとえばパッシブ型の無線タグであり、タグリーダ66の放つ電波で駆動されて、識別情報を発信する。この種のタグの交信可能範囲はたとえば1m程度の短距離であり、したがって、ここでは短距離で反応する無線タグが検出され得る。
【0085】
次に、ステップS93で、対象としている人のIDが存在するか否かを判定する。つまり、歩行者のIDを検出できたか否かを判断する。歩行者の所持するタグ92の識別情報すなわちIDは、当該歩行者の識別情報に対応付けて、予めまたは移動前に歩行補助ロボット10に登録される。あるいは、タグ92は、歩行者の識別情報を発信してもよい。ステップS93で“NO”であれば、つまり、歩行者が近くにいない場合には、ステップS95で、音声発話によって、対象としている人の名前を呼びかける。たとえば、歩行者の名前は、移動前にタッチパネル操作等によって歩行補助ロボット10に登録されている。当該名前を発音する合成音声データが生成されて当該名前の音声が出力される。これによって、歩行者を歩行補助ロボット10の方へ近付けさせる。ステップS95を終了すると処理はステップS91に戻る。
【0086】
一方、ステップS93で“YES”であれば、つまり、歩行者が当該歩行補助ロボット10の近距離範囲内に存在している場合には、ステップS97で、触覚センサ48からの触覚情報を取得して、触覚センサ48が触られているか否かを判定する。
【0087】
なお、タグリーダ66で歩行者のIDを検出した場合には、当該歩行者IDをネットワーク80を介してプラットフォーム82に送信し、人位置情報DB82bに当該歩行者の位置を記録させるようにしてよい。
【0088】
ステップS97で“YES”であれば、つまり、歩行者が歩行補助ロボット10に触っている場合には、ステップS99で、取得した触覚情報とHDD54に記憶されているマップデータとに基づいて、歩行補助ロボット10に触れている歩行者の位置および姿勢を推定する。
【0089】
続いて、ステップS101で、推定した位置および姿勢から当該歩行者の顔の位置を推定して、当該顔の位置をカメラ44で確認する。具体的には、推定した顔の位置にカメラ44を向けるための制御データを生成し、当該制御データをサーボコントローラ68および70に与えて、首サーボモータ76および顔サーボモータ78の回転を制御し、球体42すなわちカメラ44を当該顔の位置へ向ける。そして、カメラ44からの画像データを取得して、当該画像データに基づいて歩行者の顔(たとえば肌色領域あるいは顔の特徴)の検出を試みる。
【0090】
そして、ステップS103で、歩行者が推定位置に存在するか否かを判断する。このステップS103で“NO”であれば、つまり、触覚情報から推定した位置に歩行者が存在していない場合には、処理はステップS105へ進む。一方、ステップS103で“YES”であれば、処理はステップS109へ進む。また、ステップS97で“NO”であれば、つまり、歩行者が歩行補助ロボット10に触れていない場合には、処理はステップS105へ進む。
【0091】
ステップS105では、カメラ44などで歩行補助ロボット10の周囲360度全てを計測する。たとえば、サーボコントローラ68を用いて首サーボモータ76を制御してヨー軸A周りで操作部36を回転して後方に向ける。そして、サーボコントローラ70を用いて顔サーボモータ78を制御してヨー軸Bおよびピッチ軸C周りで球体42すなわちカメラ44の向きを変化させながら、歩行補助ロボット10の後方の全範囲を撮影する。さらに、サーボコントローラ68を用いて首サーボモータ76を制御してヨー軸A周りで操作部36を回転して前方に向けて、その後同様に球体42の向きを変化させながら、歩行補助ロボット10の前方の全範囲を撮影する。
【0092】
続いて、ステップS107で、撮影した画像データに基づいて、対象としている人の特徴と合致する人の位置を検出する。タグ92の検出により歩行者が当該歩行補助ロボットの近くに存在していることは確認されているので、全方向の撮影によって歩行者の位置を検出することが可能である。対象としている人すなわち歩行者の特徴はたとえばその服の色であってよい。当該特徴は、たとえば、移動前にカメラ44で撮影することによってHDD54またはRAM52に記憶されてよい。全方向の画像のうち特徴の検出された画像が撮影されたときの各軸のサーボモータの回転角度、および当該画像における特徴の位置などから、人の位置を特定する。
【0093】
続くステップS109では、検出した位置に当該歩行補助ロボット10の顔すなわち球体42を向けて、音声発話により話しかける。そして、ステップS111で、検出した位置に対象としている人が存在するか否かを判定する。具体的には、ステップS109における顔を向けての話しかけに対して、歩行者から所定の反応があったか否かを判定する。顔を向けられて話しかけられたとき、人間は何らかの反応を返すことが予期されるので、当該予期される反応の認識を行う。代表的には、話しかけに対する発話があったか否かをマイク46から取得したデータに基づいて判定する。ステップS111で“NO”であれば、顔を向けた位置には歩行者が存在していないと考えられるので、処理はステップS105に戻って人の位置の検出からやり直す。一方、ステップS111で“YES”であれば、人の位置を確認できたのでこの歩行者位置検出処理を終了して、処理は図8のステップS63に戻る。
【0094】
続いて、図8のステップS63で、触覚センサ48から取得した触覚情報に基づいて触覚センサ48に反応があるか否かを判定する。ステップS63で“YES”であれば、つまり、歩行者が歩行補助ロボット10に触れている場合には、ステップS65で、触覚センサ48の出力とマップから推定される歩行者の位置および姿勢を、たとえば現時刻に対応付けてRAM52に記録する。これによって、歩行者の位置および姿勢について、所定回数分の履歴(少なくとも今回と前回)を記録する。そして、ステップS67で、歩行者の位置および姿勢の変化が激しいか否かを判定する。歩行者の歩行ペースと歩行補助ロボット10の移動ペースとが合っていない場合には、歩行補助ロボット10に触れている歩行者は、歩行補助ロボット10に近付き過ぎたり遠ざかり過ぎたりして、その位置および姿勢を大きくまたは頻繁に変えることになると考えられる。したがって、ここでは、歩行者の歩行補助ロボット10に対する触行動に基づいて推定される位置および姿勢の変化に着目して、速度変更の必要性を判定している。
【0095】
ステップS67で“YES”であれば、ステップS69で速度変更処理を実行し、“NO”であれば、ステップS71で現在の移動速度を維持する。ステップS69の速度変更処理の動作は後述される。
【0096】
一方、ステップS63で“NO”であれば、つまり、歩行者が歩行補助ロボット10に触れていない場合には、ステップS73で、距離センサ22などによって歩行者との距離を計測して、当該距離をたとえば現時刻に対応付けてRAM52に記録する。ステップS61の歩行者位置検出処理で歩行者の位置が検出されているので、当該歩行者の位置に向けられている距離センサ22からの計測データを元に距離を記録する。これによって、歩行者と歩行補助ロボット10との距離について、所定回数分の履歴(少なくとも今回と前回)を記録する。そして、ステップS75で、歩行者との距離が変化しているか否かを判断する。歩行者の歩行ペースと歩行補助ロボット10の移動ペースとが合っていない場合には、歩行者は、歩行補助ロボット10に近付いたり遠ざかったりして、両者間の距離が変化することになると考えられる。したがって、ここでは、歩行者と歩行補助ロボット10との距離の変化に着目して、速度変更の必要性を判定している。
【0097】
ステップS75で“YES”であれば、ステップS69で速度変更処理を実行し、“NO”であれば、ステップS77で現在の移動速度を維持する。ステップS69の速度変更処理の動作は後述される。ステップS71、S77またはS69を終了すると、この速度調整処理を終了する。
【0098】
ステップS69の速度変更処理の動作の一例が図10に示される。図10のステップS121で、対象としている人に向けて、たとえば「ゆっくり移動しますか?」と発話する。具体的には、図9の歩行者位置検出処理におけるステップS109と同様に、当該位置に顔すなわち球体42を向けるとともに、上記音声をスピーカ34から出力する。
【0099】
続いて、ステップS123で、上記発話に対して肯定する返答が得られたか否かを、マイク46からの音声入力データの音声認識によって判定する。ステップS125で“YES”であれば、ステップS125で移動速度を減少する。たとえば、現在の移動速度の値から一定値だけ減算して、当該新たな移動速度をRAM52に記憶する。
【0100】
一方、ステップS123で“NO”であれば、つまり、否定的な返答が得られた場合、または一定時間経過しても返答が得られなかった場合等には、ステップS127で、対象としている人に向けて、たとえば「はやく移動しますか?」と発話する。そして、ステップS129で、上記発話に対して肯定する返答が得られたか否かを判定する。ステップS129で“YES”であれば、ステップS131で移動速度を増加する。たとえば、現在の移動速度の値に一定値を加算し、当該新たな移動速度をRAM52に記憶する。
【0101】
また、ステップS129で“NO”であれば、つまり、否定的な返答が得られた場合、または一定時間経過しても返答が得られなかった場合には、ステップS133で現在の移動速度を維持する。ステップS125、S131またはS133を終了すると、この速度変更処理を終了する。このようにして、歩行補助ロボット10と歩行者とのコミュニケーションによって、簡単に速度を変更することができる。
【0102】
したがって、図8の速度調整処理によれば、歩行者の状態を見ながら歩行ペースを調整することができるので、歩行者を連れて歩行者に合わせたペースで移動することができる。
【0103】
また、上述の各実施例の歩行補助ロボット10には座部24を設けて、移動に疲れた歩行者が当該歩行補助ロボット10の移動を停止させて、当該座部24に座って休憩することができるようにしている。つまり、座部24は、人間を搭乗させて移動させるためのものではなく、歩行補助ロボット10を休憩用椅子として機能させる。したがって、他の実施例では、ユーザが歩行補助ロボット10を椅子として扱って座部24に腰掛けたときには、目的地への移動などの長距離移動を自動的にキャンセルするようにしてよい。この機能を実現するための休止処理の動作の一例が図11に示される。この休止処理は、たとえば、図5の誘導処理と並列的に、一定時間ごとに実行される。
【0104】
図11のステップS151では、距離センサ22や圧力センサ等で椅子上を計測する。たとえば、この実施例の歩行補助ロボット10では、座部24の上方をセンシングするように、支柱26などにおける適宜な位置に距離センサ22が設置される。したがって、当該座部24上をセンシングする距離センサ22からのデータを取得する。また、座部24に圧力センサまたは接触センサ等を設置し、座部24上に物体が置かれたことを検知するようにしてもよい。この場合、当該圧力センサ等からの出力データを取得する。あるいは、上述の触覚センサ48を座部24の上面にも設けるようにしてもよい。この場合、触覚センサ48からの出力データを取得して、当該データから座部24上のセンサデバイスのデータを取得する。
【0105】
そして、ステップS153で、計測したデータに基づいて、椅子上に物体が存在するか否かを判定する。なお、距離センサ22の場合には、計測された物体までの距離が座部24の上方の範囲内であるか否かを判定する。ステップS153で“NO”であれば、座部24上に物体がないので、そのままこの休止処理を終了する。
【0106】
一方、ステップS153で“YES”であれば、つまり、座部24上に何らかの物体が存在する場合には、当該座部24上の物体がユーザであるか否かを確認するために、ステップS155で歩行者位置検出処理を実行する。この歩行者位置検出処理は上述の図9と同じ処理であってよい。つまり、触覚センサ48に基づく位置および姿勢の推定、カメラ44による位置検出、および音声発話に基づく確認などによって位置が検出される。
【0107】
そして、ステップS157で、検出位置は椅子の上であったか否かを判定する。ステップS157で“NO”であれば、つまり、座部24上に物体はあるが、ユーザではない場合には、そのままこの休止処理を終了する。したがって、座部24上にカバンや手荷物などを載せて移動することが可能である。
【0108】
一方、ステップS157で“YES”であれば、つまり、座部24にユーザが座っている場合には、ステップS159で、長距離移動をキャンセルするとともに、回転および短距離移動のみを許可する。たとえば、RAM52上に設けた長距離移動キャンセルフラグをオンにする。これによって、図7の移動処理では、ステップS49の一定距離Bの移動処理が実行されない。たとえば、ステップS49の前などで、長距離移動キャンセルフラグの判定を行い、当該フラグがオフのときに処理をステップS49へ進め、当該フラグがオンのときには処理をステップS51に進めるようにしてもよい。あるいは、移動処理のプログラムの実行を中断するようにしてもよい。また、長距離移動キャンセルフラグがオンである場合には、回転と短距離(たとえば30cm程度)の移動の実行は許可される。これによって、たとえば、その場で回転して、歩行補助ロボット10の向き(進行方向)を変えることが可能である。また、人や物体が近付いて来たことが距離センサ22等の出力データに基づいて検出された場合等には、当該人や物体を回避することができる。ステップS159を終了するとこの休止処理を終了する。なお、図11では省略したが、長距離移動キャンセルフラグがオンである場合において、座部24上にユーザが検出されなくなったときには、長距離移動キャンセルフラグをオフにする。これによって、図7の移動処理が再開される。このように、休止処理を実行することによって、座部24上に座らせてユーザにその場で休憩をしてもらうことができる。しかも、ユーザが座部24に座っているときには、長距離移動が実行されないようにしているので、ユーザを搭乗させた状態で長距離たとえば目的地まで移動するような危険を回避できる。
【0109】
また、プラットフォーム82には付属位置情報DB82が設けられるので、他の実施例では、移動時に経路上の特徴や問題点などの情報を歩行者に提供するようにしてもよい。この機能を実現するための警告処理(情報提供処理)の動作の一例が図12に示される。この警告処理は、図5のステップS7の移動処理と並列的に、一定時間ごとに実行されてよい。あるいは、図7の移動処理のステップS49の一定距離Bの移動ごとに、この警告処理を他の処理と並列的に実行するようにしてもよい。
【0110】
警告処理を開始すると、図12のステップS171で、プラットフォーム82またはGPS等に基づく現在地を取得する。なお、図7の移動処理のステップS47で現在地がRAM52に取得されているので、当該現在地の位置データを読み出すようにしてよい。
【0111】
次に、ステップS173で、現在地に付随する情報をプラットフォーム82に問い合わせる。具体的には、現在地の位置データを含む問い合わせデータをネットワーク80を介してプラットフォーム82に送信する。これに応じて、プラットフォーム82は、受信した位置データを条件として位置付属情報DB82cを検索する。プラットフォーム82は、当該位置データに対応付けられた情報が登録されている場合には、当該情報を位置付属情報DB82cから読み出して、歩行補助ロボット10にネットワーク80を介して返信する。一方、当該位置に付随する情報が登録されていない場合には、プラットフォーム82は、たとえば付随情報なしを示すデータを返信する。
【0112】
続いて、ステップS175で、付随情報(付属情報)ありか無しかを判定する。“NO”であれば、つまり、付随情報なしを示すデータをネットワーク80を介して受信した場合には、そのままこの警告処理を終了する。
【0113】
一方、ステップS175で“YES”であれば、つまり、プラットフォーム82からの付随情報を受信した場合には、ステップS177で、受信した現在地に付随する情報をRAM52に取得する。この付随情報は、上述のように、画面表示用のデータと音声出力用のデータであってよい。
【0114】
続いて、ステップS179で、歩行者位置検出処理を実行する。なお、この歩行者位置検出処理は図9の処理と同じであってよい。だたし、図8の速度調整処理も同時に実行されるような実施例では、速度調整処理のステップS61の歩行者位置検出処理で検出された位置を使用することができる。
【0115】
そして、ステップS181で、顔、すなわち、操作部36の球体42およびLCD38の設けられた面を、検出された歩行者の位置に向けて、現在地に付随する情報を提供する。具体的には、当該情報の音声をスピーカ34から出力し、当該情報を示す画面をLCD38に表示する。ステップS181を終了するとこの警告処理を終了する。このようにして、経路上を移動中に、歩行者に提供すべき情報、たとえば特徴、問題点、注意事項などが登録されている地点にさしかかったときには、当該情報が出力される。したがって、歩行者の注意を喚起することができ、安全に目的地まで誘導することができる。
【0116】
なお、環境埋め込み型情報発信機器86が位置付属情報を発信している場合には、当該情報発信機器86から読み取った当該付属情報に基づいて、当該付属情報の提供を行うようにしてよい。
【0117】
また、上述の各実施例では、図5のステップS9で目的地に到着したと判定されたときに誘導を終了するようにしていた。しかし、他の実施例では、目的地が博物館、店舗などのような建物や屋内を有する施設等であった場合には、当該目的地に到着後に、屋内の誘導処理を実行するようにしてもよい。この機能を実現するための屋内誘導処理の動作の一例が図13に示される。この屋内誘導処理は、図5のステップS9で“YES”と判定された場合に実行される。
【0118】
屋内誘導処理を開始すると、ステップS191で、到着した目的地が建物であるか否かを判定する。建物を示すデータは、経路を作成するための地図データ等に予め登録しておくようにしてもよい。あるいは、プラットフォーム82やネットワーク80上の他の装置等に問い合わせするなどしてもよい。ステップS191で“NO”であれば、つまり、目的地の位置に建物が登録されていない場合には、そのままこの屋内誘導処理を終了する。
【0119】
一方、ステップS191で“YES”であれば、ステップS193で、図5のステップS1と同様にして、プラットフォーム82またはGPS等から現在地を取得する。続いてステップS195で、ネットワーク80から当該建物内の地図情報を取得する。ネットワーク80には、当該建物内の無線LANアクセスポイント84等からアクセスすることができる。たとえば、ネットワーク80上には、建物内の地図情報を提供するサーバが設けられていて、当該サーバに建物の識別情報等を送信することによって当該屋内の検索用経路情報を含む屋内地図情報を取得することができる。あるいは、当該屋内の地図情報を予めHDD54に、記憶媒体やネットワーク80を介して上記サーバ等から取得しておいてもよい。
【0120】
そして、ステップS197で当該建物内の目的地を設定するための目的地入力処理を実行する。この処理は図6の処理と同様であり、音声入力やタッチパネル操作で目的地を設定できる。なお、この建物内のある場所を目的地に設定する処理は、屋外のある場所や建物などを目的地として設定する図6の目的地入力処理において、当該目的地が建物か否かの判定を行い、当該目的地が建物であると判定される場合に、続けて実行するようにしてもよい。
【0121】
続いて、ステップS199で、図5のステップS5と同様にして、当該建物内の経路に関する情報を含んだ屋内地図情報に基づいて現在地から目的地までの経路を探索して、屋内の移動経路情報を生成しRAM52記憶する。なお、他の実施例では、ネットワーク80上の他の装置に屋内目的地等の情報を送信して、当該他の装置で作成された屋内の移動経路情報を取得するようにしてもよい。
【0122】
そして、ステップS201で、移動処理を実行する。この移動処理は、図7の処理と同様である。ただし、屋内だとGPS信号の受信が困難であるので、現在地は、プラットフォーム82または屋内の埋め込み型情報発信機器86等から取得される。ステップS203で目的地に到着したと判定されるまで、移動処理を繰返し実行し、ステップS203で“YES”であればこの屋内誘導処理を終了する。このようにして、屋内でも目的地までユーザを連れて誘導することができる。歩行補助ロボット10が屋内のみで使用される場合には、図5の屋外の誘導処理に代えてこの屋内誘導処理を初めから実行すればよい。
【0123】
また、上述の各実施例の歩行補助ロボット10とプラットフォーム82とを含むシステムでは、ネットワーク80に接続されたPC94によって、歩行補助ロボット10や歩行者が現在どこにいるのかを確認することができる。図14には、当該PC94のロボット位置確認処理の動作の一例が示される。
【0124】
図14のステップS211では、PC94のユーザ操作によって入力される歩行補助ロボット10のID(識別情報)を取得する。たとえば、PC94の画面にはID入力画面が表示されており、当該画面では、当該PC94のユーザ、すなわち、歩行補助ロボット10と散歩や買い物などの出掛けている歩行者の家族などは、キーボードやマウスなどの入力装置を操作して、当該歩行補助ロボット10のIDを入力することができる。
【0125】
次に、ステップS213で、入力された歩行補助ロボット10のIDをプラットフォーム82にネットワーク80を介して送信する。これに応じて、プラットフォーム82は、ロボット位置情報DB82aを検索して、当該IDに対応づけられた位置データを読み出し、PC94に当該位置データをネットワーク80を介して返信する。これに応じて、PC94は、ステップS215で、歩行補助ロボット10の位置データをプラットフォーム82から受信して記憶する。
【0126】
そして、ステップS217で、歩行補助ロボット10の位置を地図などの背景を伴ってPC94のディスプレイに表示する。歩行補助ロボット10の位置は、たとえば当該ロボットを示すアイコンを用いて地図上に表示されてよい。
【0127】
なお、歩行補助ロボット10の現在地とともに歩行者の現在地も一緒に表示するようにしてもよいし、歩行者の現在地のみを表示するようにしてもよい。歩行者の位置は歩行者のIDの入力に応じて表示されてもよい。あるいは、プラットフォーム82で歩行者のIDと歩行補助ロボット10のIDとを対応付けて登録しておくことによって、歩行補助ロボット10のIDのみの入力で、歩行者の位置が表示されるようにしてもよい。また、プラットフォーム82に目的地も登録している場合には、目的地も表示するようにしてもよく、その場合、家族の人等は歩行者の現在地とともに目的地も確認できる。
【図面の簡単な説明】
【0128】
【図1】この発明の一実施例の歩行補助ロボットの外観を示す図解図である。
【図2】図1実施例の使用状態を示す図解図である。
【図3】図1実施例の電気的な構成の一例を示すブロック図である。
【図4】歩行補助ロボットと環境のインフラとの連携の概要の一例を示す図解図である。
【図5】図1実施例の誘導処理の動作の一例を示すフロー図である。
【図6】図5の目的地入力処理の動作の一例を示すフロー図である。
【図7】図5の移動処理の動作の一例を示すフロー図である。
【図8】他の実施例で実行される速度調整処理の動作の一例を示すフロー図である。
【図9】図8の歩行者位置検出処理の動作の一例を示すフロー図である。
【図10】図8の速度変更処理の動作の一例を示すフロー図である。
【図11】他の実施例で実行される休止処理の動作の一例を示すフロー図である。
【図12】他の実施例で実行される警告処理の動作の一例を示すフロー図である。
【図13】他の実施例で目的地到着後に実行される屋内誘導処理の動作の一例を示すフロー図である。
【図14】ネットワークに接続されたPCにおいて実行されるロボット位置確認処理の動作の一例を示すフロー図である。
【符号の説明】
【0129】
10 …歩行補助ロボット
12 …車輪
14 …前輪モータ
16 …後輪モータ
22 …距離センサ
24 …座部
30 …つかみ部
34 …スピーカ
36 …操作部(頭部)
38 …LCD
40 …タッチパネル
42 …球体(顔)
44 …カメラ
46 …マイク
48 …触覚センサ
50 …CPU
52 …RAM
54 …HDD
58 …無線通信装置
62 …GPS受信機
66 …タグリーダ
68,70 …サーボコントローラ
72,74 …モータドライバ
76 …首サーボモータ
78 …顔サーボモータ
80 …ネットワーク
82 …ネットワークロボットプラットフォーム
84 …無線LANアクセスポイント
86 …環境埋め込み型情報発信機器
88 …他のロボット
90 …GPS衛星
92 …タグ
94 …PC

【特許請求の範囲】
【請求項1】
自走式の移動機構、
ユーザがつかまることが可能に形成されたつかみ部、および
前記移動機構の移動を制御する制御手段を備え、
前記制御手段による移動によって前記つかみ部につかまった前記ユーザを動かす、歩行補助ロボット。
【請求項2】
前記ユーザの発話音声または操作に基づいて目的地を取得する第1目的地取得手段、および
現在地の位置情報を環境インフラを利用して取得する現在地取得手段をさらに備え、
前記制御手段は、前記現在地取得手段によって取得された前記現在地および前記第1目的地取得手段によって取得された前記目的地に基づいて生成された経路情報によって前記移動を制御する、請求項1記載の歩行補助ロボット。
【請求項3】
前記ユーザの位置を検出する位置検出手段をさらに備え、
前記制御手段は、前記位置検出手段によって検出された前記位置が所定の範囲内でないとき、当該位置に近付ける位置調整手段を含む、請求項1または2記載の歩行補助ロボット。
【請求項4】
体表に設けられた触覚センサによって取得した触覚情報と記憶手段に記憶されたマップとに基づいて前記ユーザの位置および姿勢を推定する推定手段を含み、
前記制御手段は、前記推定手段によって推定された前記位置および姿勢の変化に応じて移動速度を調整する第1速度調整手段を含む、請求項1ないし3のいずれかに記載の歩行補助ロボット。
【請求項5】
前記ユーザとの距離を検出する距離検出手段を含み、
前記制御手段は、前記距離検出手段によって検出された前記距離の変化に応じて移動速度を調整する第2速度調整手段を含む、請求項1ないし4のいずれかに記載の歩行補助ロボット。
【請求項6】
前記ユーザの位置を検出する位置検出手段を含む歩行補助ロボットであり、
前記ユーザが座ることが可能に形成された座部をさらに備え、
前記制御手段は、前記位置検出手段によって検出された前記位置が前記座部上である場合に長距離移動をキャンセルし、必要に応じて回転または短距離移動のみを実行する、請求項1ないし5のいずれかに記載の歩行補助ロボット。
【請求項7】
現在地の位置情報を環境インフラを利用して取得する現在地取得手段を含む歩行補助ロボットであり、
前記現在地取得手段によって取得された前記現在地の位置情報に付随する情報を出力する情報提供手段をさらに備える、請求項1ないし6のいずれかに記載の歩行補助ロボット。
【請求項8】
前記第1目的地取得手段によって取得された前記目的地が建物である場合に当該建物内における屋内目的地をユーザの発話音声または操作に基づいて取得する第2目的地取得手段をさらに備え、
前記制御手段は、前記第1目的地取得手段によって取得された前記目的地に到達後、前記第2目的地取得手段によって取得された前記屋内目的地と前記現在地とに基づいて生成された屋内の経路情報によって前記移動を制御する、請求項2ないし7のいずれかに記載の歩行補助ロボット。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2007−139710(P2007−139710A)
【公開日】平成19年6月7日(2007.6.7)
【国際特許分類】
【出願番号】特願2005−337184(P2005−337184)
【出願日】平成17年11月22日(2005.11.22)
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成17年4月1日付け、支出負担行為担当官 総務省大臣官房会計課企画官、研究テーマ「ネットワーク・ヒューマン・インターフェースの総合的な研究開発(ネットワークロボットの技術)」に関する委託研究、産業活力再生特別措置法第30条の適用を受ける特許出願
【出願人】(393031586)株式会社国際電気通信基礎技術研究所 (905)
【Fターム(参考)】