説明

歩行支援装置、及び歩行支援プログラム

【課題】装着者に与える違和感を低減しつつ、装着性の優れた歩行支援装置を提供する。
【解決手段】装着型ロボット1は、装着性を向上させるために筋電センサは用いずに、装着者の運動を検知して動作を制御する。このように装着者の運動を検知して動作すると1次遅れの制御となり、装着者に違和感が生じる原因となるが、装着型ロボット1は、予め装着者の動きを先読みして1次遅れの制御を補完することにより、ユーザに与える違和感を緩和する。具体的な先読み場面としては、エスカレータや動く歩道など、歩行基準面が移動する場合に、装着者が移動する歩行面上で歩行を継続するか否かを推定して先読みし、その結果によって、歩行を継続する場合の制御と、歩行を継続しない場合の制御に切り換える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、歩行支援装置、及び歩行支援プログラムに関し、例えば、装着者の歩行運動をアシストするものに関する。
【背景技術】
【0002】
近年、装着者の動作をアシストする装着型ロボットが注目を集めている。
装着型ロボットには、センサなどで体の動きを検知して装着者の身体動作を支援するものであり、例えば、重量物の持ち上げや歩行運動を補助することができる。
これまでに発表された装着型ロボットは、歩行に関しては、転倒しない、装着しやすい、機器の暴走により怪我をしない、などの工夫がされているものが主であった。
【0003】
そのような中で、特許文献1の「装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム」のように、如何にして装着者に違和感を感じさせずに歩行させるか、という視点から提案された技術も存在する。
この技術は、筋電センサを用いて筋電からの筋肉の動きを読み取って動作制御に利用するものである。
しかし、この技術では、装着者の身体各所に筋電センサを貼付しなければならず、装着性がよくないという問題があった。
【0004】
また、実施の形態で使用する通信技術に関しては、特許文献2の「通信機能を有する照明器具」がある。
この技術は、電力線によって照明体に信号を送信し、照明体から無線や光の変調により信号を送出するものである。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2005−95561号公報
【特許文献2】特開2009−141766号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は、装着者の歩行支援に際して装着者に与える違和感を低減しつつ、装着性の優れた歩行支援装置や歩行支援プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
請求項1に記載の発明では、歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援手段と、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出手段と、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定手段と、前記推定手段で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援手段による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援手段による歩行支援を停止する歩行支援制御手段と、を具備したことを特徴とする歩行支援装置を提供する。
請求項2に記載の発明では、前記歩行支援対象者が前記移動する歩行面に対して左右何れの側に位置するかを検出する位置検出手段を具備し、前記推定手段は、前記検出した位置に基づいて前記歩行支援対象者が歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項3に記載の発明では、前記歩行支援対象者が存在する現在地域を取得する地域取得手段を具備し、前記推定手段は、取得した地域に基づいて前記歩行支援対象者が歩行する側と歩行しない側を判断することを特徴とする請求項2に記載の歩行支援装置を提供する。
請求項4に記載の発明では、前記歩行支援対象者の移動スケジュールを取得する移動スケジュール取得手段と、前記取得した移動スケジュールに対する現在の遅れを取得する遅れ取得手段と、を具備し、前記推定手段は、前記取得した遅れが所定量以上の場合には、前記歩行支援対象者が歩行し、前記取得した遅れが所定量未満の場合には、前記歩行支援対象者が歩行しないと推定することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項5に記載の発明では、前記歩行支援対象者の前記足部の加速度を取得する加速度取得手段を具備し、前記推定手段は、前記歩行支援対象者が固定された歩行面を歩行する際の前記足部の加速度と前記移動する歩行面に乗車する際の前記足部の加速度を前記加速度取得手段で取得して比較することにより、前記歩行支援対象者が前記歩行面で歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項6に記載の発明では、歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援機能と、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出機能と、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定機能と、前記推定機能で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援機能による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援機能による歩行支援を停止する歩行支援制御機能と、をコンピュータで実現する歩行支援プログラムを提供する。
【発明の効果】
【0008】
本発明によれば、装着者の動きを先読みすることにより装着者の歩行支援に際して装着者に与える違和感を低減しつつ、装着性の優れた歩行支援装置を提供する。
【図面の簡単な説明】
【0009】
【図1】エスカレータを運営する設備側の通信施設を説明するための図である。
【図2】装着型ロボットの装着状態や装着ロボットシステムを説明するための図である。
【図3】エスカレータの乗口での光の照射状態などを示した図である。
【図4】装着者の意図を推定する手順を説明するためのフローチャートである。
【図5】乗車左右位置判断処理を説明するためのフローチャートである。
【図6】画像認識処理を説明するためのフローチャートである。
【図7】スケジューラ判断処理を説明するためのフローチャートである。
【図8】振上足加速度判断処理を説明するためのフローチャートである。
【発明を実施するための形態】
【0010】
(1)実施形態の概要
装着型ロボット1(図2(a))は、装着性を向上させるために筋電センサは用いずに、装着者の運動を検知して動作を制御する。
このように装着者の運動を検知して動作すると1次遅れの制御となり、装着者に違和感が生じる原因となるが、装着型ロボット1は、予め装着者の動きを先読みして1次遅れの制御を補完することにより、ユーザに与える違和感を緩和する。
【0011】
具体的な先読み場面としては、エスカレータや動く歩道など、歩行基準面が移動する場合に、装着者が移動する歩行面上で歩行を継続するか否かを推定して先読みし、その結果によって、歩行を継続する場合の制御と、歩行を継続しない場合の制御に切り換える。
推定方法には、乗車左右位置判断処理、スケジューラ判断処理、振上足加速度判断処理などがある。
【0012】
乗車左右位置判断処理は、例えば、エスカレータの一方の側が立つ側、他方の側が歩く側といった習慣を利用するものである。何れの側が立つ側、あるいは歩く側かは地域によって異なるため、装着型ロボット1は、装着者の存在する地域、及び、装着者がエスカレータの何れの側に存在するか、を用いて推定する方法である。
スケジューラ判断処理は、ナビゲーション装置12を用いて装着者がスケジュールから遅れているか否かを判断し、遅れている場合はエスカレータで歩き、スケジュール通りの場合はエスカレータで立つと推定する方法である。
振上足加速度判断処理は、装着者の平常状態での歩行における足の加速度などをアーカイブに保存しておき、装着者がエスカレータに乗車する際の足の加速度を平常状態での足の加速度と比較することにより推定する方法である。
【0013】
このように、装着型ロボット1は、装着者が公共交通機関、特にエスカレータ乗車前後における歩行意思を非接触センサ(乗車左右位置判断処理)やナビゲーション(スケジューラ判断処理)、アーカイブ(振上足加速度判断処理)、などの情報を統合的に用いて判別することにより、接触型の筋電センサを用いずに歩行支援し、装着性の悪化を抑制することができる。
【0014】
(2)実施形態の詳細
図1は、エスカレータを運営する設備側の通信施設を説明するための図である。
装着者は、装着型ロボット1を着用し、エスカレータ300に乗降して移動する。
エスカレータ300の乗口には、照明100が設置してあり、乗口に照明光を発光している。照明100の照明光には、エスカレータ300の踏板の速度、及び踏板の繰出ピッチが含まれた踏板情報が照明光を変調することにより重畳されている。
装着型ロボット1は、照明100の照明光を照明領域内の位置200にて検知し、これに含まれる踏板情報を受信する。
【0015】
装着型ロボット1は、踏板情報を受信すると、所定形状パターンの光を前進方向斜め下の歩行面に照射して像を投影すると共に撮像し、その像の歪みから装着者が踏板の左右何れの側に位置するか判断する。
装着型ロボット1は、装着者の位置する側により、乗車左右位置判断処理を行って装着者が踏板を歩くのか、あるいは、踏板で立つのかを推定する。
【0016】
また、乗車左右位置判断処理で判断できない場合は、スケジューラ判断処理を行い、スケジューラ判断処理で判断できない場合は、更に、振上足加速度判断処理を行って、装着者がエスカレータ300で歩くのか、あるいは停止するのかを推定する。
【0017】
そして、装着型ロボット1は、装着者がエスカレータ300を歩くと推定した場合は、エスカレータ300の乗車の際に、装着者の動作を先回りして踏板を歩く歩行動作を開始し、装着者がエスカレータ300で立つと推定した場合は、エスカレータ300の乗車の際に、装着者の動作を先回りして踏板上に立つ動作を開始する。
【0018】
また、エスカレータ300の降口手前の照明101が発光する光にも踏板情報が含まれており、装着型ロボット1は、照明101の照明領域内の位置201にて踏板情報を受信する。
そして、装着型ロボット1は、踏板情報を受信すると、位置202で前方斜め下に像を投影し、その歪みから櫛板と踏板の段差を検出して櫛板までの距離を算出する。
次に、装着型ロボット1は、櫛板までの距離、及び踏板情報を用いて装着者の足が適切に櫛板(コムプレート)に着地するように駆動する。
【0019】
降口の照明102が発光する光には、周辺地図情報が含まれており、装着型ロボット1は、照明102の照明領域の位置203で周辺地図情報を受信する。
その後、装着型ロボット1は、周辺地図情報を用いて装着者の歩行を支援する。
図1のエスカレータ300は、一例として、下りとなっているが、上りのエスカレータも同様である。また、乗口と降口の構造が同じため、エスカレータ300を動く歩道としてもよい。
【0020】
図2(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、装着者の腰部及び下肢に装着し、装着者の歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
【0021】
装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、撮像カメラ5と光源装置4を保持する撮像ユニット9、無線通信装置10、及びナビゲーション装置12などを備えている。
腰部装着部7は、装着型ロボット1を装着者の腰部に固定する固定装置である。腰部装着部7は、装着者の腰部と一体となって移動する。
また、腰部装着部7は、歩行アクチュエータ17(図2(b))を備えており、装着者の歩行動作に従って連結部8を前後方向などに駆動する。
【0022】
連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、装着者の下肢に装着され、歩行アクチュエータ17により前後方向などに駆動されて装着者の歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
【0023】
3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、前進方向、鉛直方向、体側方向の軸の周りの回転角度、角速度、角加速度などを検知することができる。
なお、前進方向の軸の周りの角度をロール角、鉛直方向の軸の周りの角度をヨー角、体側方向の軸の周りの角度をピッチ角とする。
【0024】
3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させる。
【0025】
撮像ユニット9で適切な画像を撮像するためには、撮像ユニット9を所定の角度で歩行基準面(地面や床面など、装着者が歩行する歩行面)に向ける必要があるが、装着者が装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。
【0026】
光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点など各種の形状が可能である。
【0027】
撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行基準面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行基準面の成す角度や、歩行基準面に存在する障害物(エスカレータ300の側壁、段差など)により円形から変形した(歪んだ)形状となるが、この形状を解析することにより、装着者がエスカレータ300の何れの側にいるか、また、前方に存在する段差などを検知することができる。
【0028】
無線通信装置10は、照明100が発光する光に含まれる踏板情報などの各種情報を検出する。
これにより、装着型ロボット1は、前方にエスカレータ300の乗口が存在すること、あるいは、照明101からの踏板情報により、エスカレータ300の降口が存在することを認識する。
ここで、無線通信に照明光を用いたのは、情報を受信する箇所を照明領域に限定することができるほか、通常、エスカレータの設置箇所には照明が設置されており、これを利用すると無線通信のための新たな設備投資を低減することができるためである。
なお、照明光を用いず、通常の電波を用いた無線通信とすることも可能である。
【0029】
ナビゲーション装置12は、GPS(Global Positioning Systems)衛星からのGPS信号を受信したり、所定のサーバと通信したりして装着者の現在位置を特定したり、現在位置から目的地までの経路を探索したりなどのナビゲーション機能を有している。
装着型ロボット1は、ナビゲーション装置12により、装着者がスケジュール通りに歩行しているか否かを判断することができる。
【0030】
図2(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
【0031】
ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。
【0032】
CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、装着者がエスカレータ300で歩行を持続するのか否かを推定したり、当該推定結果を用いて歩行アクチュエータ17を駆動して歩行支援を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3、無線通信装置10、及びナビゲーション装置12とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したり、無線通信装置10から踏板情報を取得したり、ナビゲーション装置12から装着者の現在位置を取得したりする。
【0033】
ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、受信した踏板情報を記憶したり、段差までの距離を計算したりするためのワーキングメモリを提供する。
【0034】
記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、光源装置4の投影像を解析して階段やエスカレータなどの段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、段差認識の画像認識などに使用する撮像カメラ5の高さなどのパラメータなどを記憶している。
【0035】
歩行アクチュエータ17は、ECU16からの指令に基づいて歩行アシスト部2を駆動する。
装着型ロボット1が、股関節、膝関節、足首関節などを有する多関節の場合は、各関節に歩行アクチュエータ17が備えられており、ECU16は、これらを個別に制御することにより、装着型ロボット1に一体として歩行支援動作を行わせる。
【0036】
図3(a)は、エスカレータ300の乗口での光の照射状態を示した図である。
エスカレータ300の乗口は、櫛板40と、櫛板40の前方かつ櫛板40より低い位置に配設された踏板(ステップ)50を備えており、装着者の両体側方向には、図示しないエスカレータ300の側壁が存在している。
櫛板40の先端部分は、平坦部41と、踏板50にかけて形成された傾斜部42を有しており、傾斜部42による段差が形成されている。そして、傾斜部42の先端からは、踏板50が所定速度で繰り出されている。
【0037】
図3(b)は、乗口で撮像カメラ5が撮像した光源装置4の投影像26の画像の一例である。
装着型ロボット1は、光源装置4によって所定形状パターンの光を照射し、撮像カメラ5によって投影された像を撮像する。
本実施の形態では、光源装置4は円形断面の光を前進方向斜め下方に存在する歩行基準面に照射するため、歩行基準面が平面の場合、投影像26は、画面フレーム31内で前進方向を長軸とする楕円形となる。
【0038】
この場合、装着者がエスカレータ300の左側に位置すると投影像26の左側がひしゃげた形状となるため(即ち、本来投影されるはずの楕円形状が、立ち位置側が歪んだ形となるため)、装着型ロボット1は、装着者がエスカレータ300の左側に立っている(立ち位置が左側である)と判断することができる。投影像26の左側がひしゃげていることの判断は、投影像26の中心から左端までの距離aが右端までの距離bよりも小さいことを検出して行う。
同様に、投影像26の右側がひしゃげている場合は、装着者は、エスカレータ300の右側に位置していると判断される。
【0039】
なお、照明100からの踏板情報によって装着者が櫛板40に到達したことを検出した場合に、装着型ロボット1が光源装置4の光を装着者の体側方向に広げて、エスカレータ300の側壁に光が当たりやすくするように構成することもできる。
更に、櫛板40と踏板50の段差を投影像26によって認識することにより、傾斜部42による段差を検出することもできる。
装着型ロボット1は、このように画像認識によって当該段差までの距離を計測し、また、踏板情報からの踏板の速度、及び繰出ピッチを取得し、これらの情報を用いて踏板50に適切に乗れるように歩幅や歩行ピッチを制御する。
【0040】
図4は、装着型ロボット1がエスカレータ300において、装着者の意図を推定する手順を説明するためのフローチャートである。
当該推定により装着者の意図を先読みし、装着者の動作を先回りして支援することが可能となる。
なお、以下の処理は、ECU16のCPUが所定のプログラムに従って行うものである。
【0041】
まず、CPUは、乗車左右位置判断処理を行う(ステップ5)。
乗車左右位置判断手段で、装着者の歩行の有無を推定できた場合には(ステップ10;Y)、CPUは、当該推定に基づいて歩行アクチュエータ17を制御する(ステップ30)。
一方、乗車左右位置判断手段で、装着者の歩行の有無を推定できなかった場合には(ステップ10;N)、CPUは、スケジューラ判断処理を行う(ステップ15)。
【0042】
スケジューラ判断手段で、装着者の歩行の有無を推定できた場合には(ステップ20;Y)、CPUは、当該推定に基づいて歩行アクチュエータ17を制御する(ステップ30)。
一方、スケジューラ判断手段で、装着者の歩行の有無を推定できなかった場合には(ステップ20;N)、CPUは、振上足加速度判断処理を行い(ステップ25)、当該処理による推定結果に基づいて歩行アクチュエータ17を制御する(ステップ30)。
【0043】
図5は、ステップ5の乗車左右位置判断処理を説明するためのフローチャートである。
まず、CPUは、設備側の通信範囲にいるか否かを判断する(ステップ50)。設備側の通信範囲にいない場合(ステップ50;N)、引き続きステップ50で監視を継続する。
【0044】
設備側の通信範囲にいる場合(ステップ50;Y)、CPUは、現在位置の地域を取得してRAMに記憶する(ステップ55)。
ここで、地域には、エスカレータ300の左側で停止し、右側を歩行する地域(右側歩行地域)、及び、左側を歩行し、右側で停止する地域(左側歩行地域)がある。一般的に、関東地方は、右側歩行地域に該当し、関西地方は左側歩行地域に該当する。
ECU16の記憶装置には、例えば、○○県は右側歩行地域といった歩行地域マップが記憶されており、CPUは、ナビゲーション装置12で検出した現在位置を歩行地域マップで参照して、現在位置の地域が何れの地域であるかを取得する。
【0045】
次に、CPUは、画像認識処理を行って、装着者がエスカレータ300の何れの側に乗車するかを判断し、判断結果(右側乗車、左側乗車)をRAMに記憶する(ステップ60)。
次に、CPUは、ステップ55で記憶した現在位置の地域をRAMから読み出す。読み出した地域が右側歩行地域である場合(ステップ65;Y)、CPUは、ステップ60で記憶した判断結果をRAMから読み出し、判断結果が右側乗車か否かを判断する(ステップ70)。
右側乗車であった場合(ステップ70;Y)、CPUは、歩行と推定し、推定結果をRAMに記憶する(ステップ75)。
【0046】
一方、ステップ70で右側乗車でなかった場合(ステップ70;N)、CPUは、RAMに記憶した判断結果が左側乗車であるか否かを判断する(ステップ80)。
判断結果が左側乗車であった場合(ステップ80;Y)、CPUは、停止と推定し、推定結果をRAMに記憶する(ステップ85)。
また、判断結果が左側乗車でなかった場合(ステップ80;N)、装着者は、中央付近に乗車しようとしていることが推定され、この場合は、乗車左右位置判断処理では推定できないため、CPUは、スケジューラ判断処理へ移行する(ステップ90)。
【0047】
一方、ステップ65で右側歩行地域でないと判断された場合(ステップ65;N)、CPUは、ステップ60で記憶した判断結果をRAMから読み出し、判断結果が左側乗車か否かを判断する(ステップ95)。
左側乗車であった場合(ステップ95;Y)、CPUは、歩行と推定し、推定結果をRAMに記憶する(ステップ100)。
【0048】
一方、ステップ95で左側乗車でなかった場合(ステップ95;N)、CPUは、RAMに記憶した判断結果が右側乗車であるか否かを判断する(ステップ105)。これは、装着者が左側に乗車しようとした後、右側に移動した可能性があるためである。
判断結果が右側乗車であった場合(ステップ105;Y)、CPUは、停止と推定し、推定結果をRAMに記憶する(ステップ110)。
また、判断結果が右側乗車でなかった場合(ステップ105;N)、CPUは、スケジューラ判断処理へ移行する(ステップ115)。
【0049】
図6は、ステップ60の画像認識処理を説明するためのフローチャートである。
まず、CPUは、光源装置4により光を前進方向の下方に照射する(ステップ150)。
次に、CPUは、光によって投射された投影像26を撮像カメラ5で撮像し、画像データをRAMに記憶する(ステップ155)。
【0050】
次に、CPUは、RAMに記憶した画像データを用いて、投影像26の中心から左端までの距離aと右端までの距離bを取得し、aとbの大小関係から投影像26の何れの側がひしゃげているかを判断する画像認識処理を行い、認識結果をRAMに記憶する(ステップ160)。
【0051】
次に、CPUは、ステップ160で記憶した画像認識結果をRAMから読み出し、当該結果により投影像26の左側がひしゃげているか否かを判断する(ステップ165)。
左側がひしゃげている場合(ステップ165;Y)、CPUは、装着者は左側に位置しており、左乗車すると判断する(ステップ170)。
【0052】
一方、当該結果により投影像26の左側がひしゃげていると判断されない場合(ステップ165;N)、CPUは、ステップ160で記憶した画像認識結果をRAMから読み出し、当該結果により投影像26の右側がひしゃげているか否かを判断する(ステップ175)。
【0053】
右側がひしゃげている場合(ステップ175;Y)、CPUは、装着者は右側に位置しており、右乗車すると判断する(ステップ180)。
一方、当該結果により投影像26の右側がひしゃげていると判断されない場合(ステップ175;N)、CPUは、装着者が中央に位置していると判断する(ステップ185)。
【0054】
図7は、ステップ15のスケジューラ判断処理を説明するためのフローチャートである。
まず、CPUは、設備側の通信範囲にいるか否かを判断する(ステップ200)。設備側の通信範囲にいない場合(ステップ200;N)、引き続きステップ200で監視を継続する。
【0055】
設備側の通信範囲にいる場合(ステップ200;Y)、CPUは、ナビゲーション装置12から現在位置、到着予想時間、及び到着予定時間を取得してRAMに記憶する(ステップ205)。
次に、CPUは、装着者がスケジュール時間に対して遅れているか否かを判断する(ステップ210)。
【0056】
この判断は、例えば、到着予想時間が到着予定時間よりも所定時間以上遅い場合に遅れていると判断したり、あるいは、装着者がスケジュール上存在すべき位置と現在位置を比較して、現在位置がスケジュール上存在すべき位置よりも所定距離以上後方の場合に遅れていると判断することができる。
【0057】
遅れていると判断した場合(ステップ210;Y)、CPUは、歩行と推定し、推定結果をRAMに記憶する(ステップ215)。
一方、遅れていないと判断した場合(ステップ210;N)、CPUは、振上足加速度判断処理へ移行する(ステップ220)。
【0058】
図8は、ステップ25の振上足加速度判断処理を説明するためのフローチャートである。
CPUは、足部に設置した加速度センサにより左右各足の振上加速度a1を取得してRAMに記憶する(ステップ250)。
次に、CPUは、設備側の通信範囲にいるか否かを判断する(ステップ255)。設備側の通信範囲にいない場合(ステップ255;N)、ステップ250に戻って振上加速度a1の計測と記憶を継続する。
【0059】
設備側の通信範囲にいる場合(ステップ255;Y)、CPUは、一方の足が踏板50に着地したか否かを判断する(ステップ260)。
この判断は、例えば、撮像ユニット9によって画像認識した櫛板40と踏板50の段差を越えた第一歩目であることを歩行距離から認識して行ったり、あるいは、ナビゲーション装置12により装着者の位置を特定して行ったり、あるいは、足が着地した箇所の高さが櫛板40と踏板50の段差の高さ分だけ低下したことを認識して行うことができる。また、他の方法を用いてもよい。
【0060】
CPUは、一方の足が踏板50に着地していないと判断した場合(ステップ260;N)、引き続きステップ260で着地したか否かを監視し、一方の足が踏板50に着地したと判断した場合(ステップ260;Y)引きつけ足の振上加速度a2を取得してRAMに記憶する(ステップ265)。
次に、CPUは、ステップ250で記憶した振上加速度a1と、ステップ265で記憶した振上加速度a2をRAMから読み出して両者の大小関係を判断する(ステップ270)。
【0061】
a1がa2より大きい場合(ステップ270;Y)、CPUは、装着者がエスカレータ300で停止すると推定し、当該推定結果をRAMに記憶する(ステップ275)。
一方、a2がa1以上の場合(ステップ270;N)、CPUは、装着者がエスカレータ300を歩行すると推定し、当該推定結果をRAMに記憶する(ステップ280)。
【0062】
以上の実施の形態では、装着者がエスカレータ300に乗車する場合について説明したが、動く歩道に乗車する場合に適用することもできる。
【0063】
以上に説明した実施の形態により、次の効果を得ることができる。
(1)装着型ロボット1に筋電センサなどを用いる必要がなくなり、装着型ロボット1の装着性を向上させることができる。
(2)装着型ロボット1は、エスカレータ300において装着者の歩行、又は停止の意図を推定することにより先回りして制御し、これによって、一次遅れの制御による違和感を緩和することができる。
(3)装着型ロボット1は、エスカレータ300に対する装着者の位置、スケジュール、振上足の加速度の3つの方法を段階的に適用することにより、精度の高い推定を行うことができる。
(4)照明器具は、特別な事情がない限り固定された場所で使われることを利用し、装着型ロボット1は、エスカレータ300の乗降口に設置された照明設備より、踏板情報を受信して得ることができる。また、施設側は、既存の設備を用いて踏板情報を送信することができるため、設備投資を低減することができる。
【0064】
更に、以上に説明した実施の形態により、次の構成を提供することができる。
装着型ロボット1は、歩行アシスト部2や連結部8を駆動して装着者の歩行を支援するため、歩行支援対象者(装着者)の足部の動きを制御して歩行を支援する歩行支援手段を備えている。
また、装着型ロボット1は、照明100からの情報により前進方向にエスカレータ300が存在することを検出し、また、踏板50は、移動する歩行面として機能するため、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出手段を備えている。
また、装着型ロボット1は、乗車左右位置判断処理、スケジューラ判断処理、振上足加速度判断処理によって、装着者がエスカレータ300を歩くか否かを推定するため、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定手段を備えている。
そして、装着型ロボット1は、装着者がエスカレータ300を歩くと推定した場合は、エスカレータ300での歩行を支援し、歩かないと推定した場合には、歩行支援を停止して装着者が踏板50の上に立つ姿勢を支援するため、前記推定手段で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援手段による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援手段による歩行支援を停止する歩行支援制御手段を備えている。
よって、装着型ロボット1は、以上の手段を備えた歩行支援装置として機能している。
【0065】
また、装着型ロボット1は、乗車左右位置判断処理では、エスカレータ300の乗口の櫛板40で投影像26により装着者の立ち位置を検出して歩行の意図の有無を推定するため、前記歩行支援対象者が前記移動する歩行面に対して左右何れの側に位置するかを検出する位置検出手段を具備し、前記推定手段は、前記検出した位置に基づいて前記歩行支援対象者が歩行するか否かを推定している。
【0066】
また、装着型ロボット1は、装着者が右側歩行地域にいるか否かを認識して、これに基づいて歩行する側としない側を判断するため、前記歩行支援対象者が存在する現在地域を取得する地域取得手段を具備し、前記推定手段は、取得した地域に基づいて前記歩行支援対象者が歩行する側と歩行しない側を判断している。
【0067】
また、装着型ロボット1は、スケジューラ判断処理で、装着者の移動スケジュールを取得し、ナビゲーション装置12を用いてスケジュールからの遅れを評価するため、前記歩行支援対象者の移動スケジュールを取得する移動スケジュール取得手段と、前記取得した移動スケジュールに対する現在の遅れを取得する遅れ取得手段を備えている。
そして、装着型ロボット1は、スケジュールからの遅れが所定量以上の場合に装着者が歩行すると推定するため、前記推定手段は、前記取得した遅れが所定量以上の場合には、前記歩行支援対象者が歩行し、前記取得した遅れが所定量未満の場合には、前記歩行支援対象者が歩行しないと推定している。
【0068】
また、装着型ロボット1は、振上足加速度判断処理で装着者の振上足加速度を取得し、これを通常歩行時の振上足加速度と比較して歩行の意図の有無を推定するため、前記歩行支援対象者の前記足部の加速度を取得する加速度取得手段を具備し、前記推定手段は、前記歩行支援対象者が固定された歩行面を歩行する際の前記足部の加速度と前記移動する歩行面に乗車する際の前記足部の加速度を前記加速度取得手段で取得して比較することにより、前記歩行支援対象者が前記歩行面で歩行するか否かを推定している。
【0069】
また、装着型ロボット1は、ECU16の記憶媒体に、歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援機能と、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出機能と、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定機能と、前記推定機能で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援機能による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援機能による歩行支援を停止する歩行支援制御機能と、をコンピュータで実現する歩行支援プログラムを記憶している。
【符号の説明】
【0070】
1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
10 無線通信装置
12 ナビゲーション装置
15 装着ロボットシステム
16 ECU
17 歩行アクチュエータ
26 投影像
31 画面フレーム
40 櫛板
41 平坦部
42 傾斜部
50 踏板
100〜102 照明
200〜203 位置
300 エスカレータ

【特許請求の範囲】
【請求項1】
歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援手段と、
前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出手段と、
前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定手段と、
前記推定手段で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援手段による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援手段による歩行支援を停止する歩行支援制御手段と、
を具備したことを特徴とする歩行支援装置。
【請求項2】
前記歩行支援対象者が前記移動する歩行面に対して左右何れの側に位置するかを検出する位置検出手段を具備し、
前記推定手段は、前記検出した位置に基づいて前記歩行支援対象者が歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置。
【請求項3】
前記歩行支援対象者が存在する現在地域を取得する地域取得手段を具備し、
前記推定手段は、取得した地域に基づいて前記歩行支援対象者が歩行する側と歩行しない側を判断することを特徴とする請求項2に記載の歩行支援装置。
【請求項4】
前記歩行支援対象者の移動スケジュールを取得する移動スケジュール取得手段と、
前記取得した移動スケジュールに対する現在の遅れを取得する遅れ取得手段と、
を具備し、
前記推定手段は、前記取得した遅れが所定量以上の場合には、前記歩行支援対象者が歩行し、前記取得した遅れが所定量未満の場合には、前記歩行支援対象者が歩行しないと推定することを特徴とする請求項1に記載の歩行支援装置。
【請求項5】
前記歩行支援対象者の前記足部の加速度を取得する加速度取得手段を具備し、
前記推定手段は、前記歩行支援対象者が固定された歩行面を歩行する際の前記足部の加速度と前記移動する歩行面に乗車する際の前記足部の加速度を前記加速度取得手段で取得して比較することにより、前記歩行支援対象者が前記歩行面で歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置。
【請求項6】
歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援機能と、
前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出機能と、
前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定機能と、
前記推定機能で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援機能による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援機能による歩行支援を停止する歩行支援制御機能と、
をコンピュータで実現する歩行支援プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2012−115312(P2012−115312A)
【公開日】平成24年6月21日(2012.6.21)
【国際特許分類】
【出願番号】特願2010−265191(P2010−265191)
【出願日】平成22年11月29日(2010.11.29)
【出願人】(591261509)株式会社エクォス・リサーチ (1,360)
【Fターム(参考)】