説明

ロボット環境間力作用状態呈示装置

【課題】 拘束状態におけるスレーブロボットと環境との間の力の作用状態を推定かつ表示する。
【解決手段】 予測モデルによりスレーブロボットの予測された運動予測画像と、モニタ用カメラにより、ロボットにより力が作用される環境が撮影して得られた実画像とを重ねてモニタに表示する。スレーブロボット側から出力された、スレーブロボットの手先が環境から受ける力の絶対値が、所定の閾値以上か否かを判断し、所定の閾値以上と判断された場合には、スレーブロボットの手先は環境に拘束された拘束状態にあると判断して、予測運動画像内における、スレーブロボットの手先の環境内へのめり込み量を算出し、このめり込み量に基づいて、スレーブロボットの手先が環境に加える所定時間後の接触力及びモーメントを予測する。そして、予測された接触力及びモーメントに基づいて、予測力矢印FA及び予測モーメント矢印MAを、運動予測画像に代えて、実画像に重ねてモニタで、呈示する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示装置にかかり、特に、遠隔作業ロボットに動作指令値を通信回線を介して送信し、ロボットから、該ロボットの環境に作用するための部位の位置・姿勢情報を通信回線を介して受信するロボット環境間力作用状態呈示装置に関する。
【背景技術】
【0002】
近年のインターネット等の高速・広域通信網の急速な発展と普及により、ネットワーク経由で様々な近ロボットシステムやインターフェースを連携させることのできるネットワーク・ロボティクス技術が注目を集めている。これに伴い、人が指令塔として作業に介入できるネットワークテレオペレーションシステムは、従来のような極限作業等の特殊分野だけでなく、絵や音といったマルチメディア情報に加えてロボットによる物理的相互作用を取り入れることでネットワーク情報に付加価値を与え、遠隔診療や福祉、遠隔体験・遠隔コミュニケーション、家庭用やホビー用途など、より身近な分野への応用が期待されるようになってきた。
【0003】
このような身近な応用領域においては、操作性や安定性・安全性に対する配慮とともに、環境やロボットシステムを限定せずに使用できる汎用性や、家庭やオフィスといった身近な環境から誰でも気軽に扱うことのできる簡便性を加味したシステム設計が必要となってくる。従って、作業内容や環境を限定することなく、遠隔側にロボットと作業監視用のカメラ原稿受付システムを設置して、カメラ映像を見ながら簡便かつ汎用的に使用できる実画像ネットワークテレオペレーションシステムを構築することが求められる。
【0004】
一般に、ネットワークテレオペレーションシステムでは、通信経路に存在する時間遅れがロボットシステムの制御系の安定性を害する原因となることが知られており、現在まで様々な補償法が提案されてきている。代表的なアプローチとしては、制御システムを受動性を満たすように構成しパワー伝達の観点から安定性を補償する手法や、制御系を時刻の関数としてではなくイベントに基づいて構成するイベントベース手法、ロバスト安定化補償器を構成しH∞制御理論に基づいて安定性を補償する手法等が挙げられる。
【0005】
しかし、それと同時に、通信遅れは人間の操作(制御)ループにも悪影響を及ぼし、作業画像や操作情報の遅れは操作性や臨場感の低下を招くだけでなく、最悪の場合にはオペレータの操作そのものを不安定化してしまう要因ともなる。
【0006】
これらを防止するための手段の一つとして、遠隔作業ロボットの挙動を予測的にオペレータに呈示して遅れの影響を軽減する「予測ディスプレイ(予測呈示)」の手法が知られている。予測ディスプレイの最も基本的な手法の一つは「重ね合わせ型」である。この手法では、オペレータ側にスレーブロボットロボットの動力学モデルを予め構築して配置し、オペレータの操作履歴を利用して遅れのない理想的な状態でのスレーブロボットロボットの挙動を計算し、遠隔側から送られた実画像にそれを重ね合わせて予測的な呈示を行う。オペレータはスレーブロボットの運動を事前に把握しながら操作できるため、操作性が改善される。
【0007】
しかし、一般に、この手法は基本的に自由状態での予測を想定したもので、ロボットが環境に拘束された状態(拘束状態)での予測については考慮されておらず、接触力等に関する予測情報は得られない。
【0008】
そのため、近年では「仮想環境モデル介在型」のアプローチがとられることが多い。この手法では、スレーブロボットのモデルに加えて作業環境のモデルもオペレータ側に予め構築される。オペレータは仮想環境内で作業を遂行し、力情報は環境の動力学モデルを元に生成してオペレータへのフィードバックを行う。
【0009】
しかし、この場合、作業環境のモデルが正確に構築されていることを前提としており、実際の環境との間に食い違いがあると所望の動作が期待できない。ところが、完全な環境の動力学モデルの構築は非常に困難で多大な労力を要し、環境が変わる度にモデルを構築し直さなければならない。モデル化誤差にロバストな制御手法やオンラインでのモデル修正法等も提案されてきているが、簡単な幾何学的誤差の検討が行われている段階で、複雑な環境や動力学的誤差の扱いなどが問題となる。そのため、身近な環境で汎用的かつ簡便に使用するには、仮想環境モデル介在型のシステムは現状では課題が多いと考えられる。また、対象が生体であったりしてモデル化が困難な場合や、遠隔診断や遠隔体験・コミュニケーションなど実画像そのものに意味のある場合などにも、仮想環境モデル介在型のシステムは利用できない。
【0010】
ところで、オペレータが、ロボットの動作指令を、ジョイスティックを介して入力し、入力された動作指令に基づいて、ロボットの動作状態を予測し、これを表示し、表示されたロボットの動作状態が意図したものでない場合には、再度ロボットの動作指令を、ジョイスティックを介して入力し、表示されたロボットの動作状態が意図したものである場合に始めてオペレータは送信指示を入力し、これにより、ロボットの動作指令がロボットに到達するロボットの遠隔操作装置が提案されている(特許文献1参照)。この特許文献1には更に、ロボットの実際の動作状態を撮影するテレビカメラを備え、テレビカメラにより撮影されたロボットの実際の動作状態と、ジョイスティックを介して入力された動作指令に基づいて予測されたロボットの動作状態と、を重ねて表示し、両者の誤差をオペレータに認識できるようにすることが開示されている。
【0011】
しかしながら、本特許文献1においても、ロボットが環境に拘束された状態(拘束状態)での予測については考慮されておらず力については実測値を表示するのみであり、接触力等に関する予測情報は得られない。また、文献中の仮想ビームの手法では少なくとも環境の幾何学形状が既知である必要がある。
【特許文献1】特開平08-108387号公報
【発明の開示】
【発明が解決しようとする課題】
【0012】
本発明は、遠隔操作ロボットにおける上記問題を解決すべく成されたもので、環境モデルを用いずに拘束状態でのロボットと環境との間の力の作用状態を推定かつ呈示することの可能なロボット環境間力作用状態呈示装置の提供を目的とする。
【課題を解決するための手段】
【0013】
上記目的を達成するために請求項1に記載の発明は、環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示装置であって、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、速度指令ベクトルを通信回線を介して送信する送信手段と、前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信する受信手段と、前記受信手段により受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断する判断手段と、前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記速度指令ベクトルの履歴と前記通信回線を介して受信された力の情報及び遠隔作業ロボットの予測モデルに基づき、現時刻の速度指令ベクトルが遠隔作業ロボットに到達するであろう通信遅れ時間後の時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢と、前記受信手段により受信された遠隔作業ロボットの位置・姿勢情報に基づく、前記通信回線を介して情報を通信することにより生ずる遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢とのずれ量を算出する算出手段と、前記算出手段により算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定する推定手段と、前記推定された力の作用状態を呈示する呈示手段と、を備えている。
【0014】
即ち、本発明は、環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示する。
【0015】
ここで、遠隔作業ロボットは、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置を表す位置情報及び該検出された力の情報を送信する機能を有する。
【0016】
本発明の送信手段は、遠隔作業ロボットへの動作指令値として、速度指令ベクトルを通信回線を介して送信する。
【0017】
この速度指令ベクトルは、送信手段が送信したときから、通信回線を介して情報を通信することにより生ずる遅れ時間遅れて遠隔作業ロボットに到達する。そして、遠隔作業ロボットは、この速度指令ベクトルに従って動作する。
【0018】
遠隔作業ロボットは、外力に対する柔軟性を有しながら速度指令ベクトルに従って動作しつつ、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢の情報及び該検出された力の情報を送信する。
【0019】
受信手段は、遠隔作業ロボットから送信された、遠隔作業ロボットの部位の位置・姿勢情報及び検出された力の情報を、通信回線を介して受信する。
【0020】
判断手段は、受信手段により受信された力の情報に基づいて、遠隔作業ロボットが環境に拘束されたか否かを判断する。例えば、受信手段により受信された力の情報に基づいて、遠隔作業ロボットにより検出された力が所定の閾値以上か否かを判断することにより、遠隔作業ロボットが環境に拘束されたか否かを判断するようにしてもよい。
【0021】
算出手段は、判断手段により遠隔作業ロボットが環境に拘束されたと判断された場合、速度指令ベクトルの履歴と通信回線を介して受信された力の情報及び遠隔作業ロボットの予測モデルに基づき、現時刻の速度指令ベクトルが遠隔作業ロボットに到達するであろう通信遅れ時間後の時刻における遠隔作業ロボットの部位の状態を予測する第1の位置・姿勢と、受信手段により受信された遠隔作業ロボットの位置・姿勢情報に基づき、通信回線を介して情報を通信することにより生ずる遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢とのずれ量を算出する。
【0022】
ここで、ずれ量を説明する。ずれ量は、現時刻の速度指令ベクトルが遠隔作業ロボットに到達するであろう通信遅れ時間後の時刻における遠隔作業ロボットの部位の状態を予測する第1の位置・姿勢と、遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢とのずれ量である。
【0023】
第1の位置・姿勢は、速度指令ベクトルと通信回線を介して受信された力の情報及び遠隔作業ロボットのモデルとに基づく予測位置・姿勢である。従って、環境モデルを用いずに、通信時間だけ遅れた力の情報とロボットモデルから、操作側で一方的に推定した位置である。
【0024】
これに対し、第2の位置は、実際の遠隔作業ロボットと環境との相互作用によって決定され、受信手段により受信された位置・姿勢情報に基づくものである。即ち、遠隔作業ロボットにより検出された実際の位置・姿勢である。従って、第1の位置・姿勢(予測位置・姿勢)の算出に際して、力の情報は実際の接触よりも通信遅れ分だけタイミングが遅れたものが用いられることになる。
【0025】
そのため、判断手段により遠隔作業ロボットが環境に拘束されたと判断された場合、第1の位置・姿勢は第2の位置・姿勢に比較して、力情報の伝達が遅れる時間分だけずれが生じる。
【0026】
このずれの量は、往復の通信遅れ時間とその間に指令した速度指令ベクトルの履歴によって決定され、遠隔作業ロボットが環境に拘束された場合には速度指令ベクトルに比例する力を環境に与えるように制御系を構成しておけば、通信遅れ時間後に生じるロボット環境間の接触力がこのずれ量に反映されるため、このずれ量が大きくなればなるほど、環境と遠隔作業ロボットの部位との間に作用する力が大きくなる。そこで、このずれ量から、遠隔作業ロボットの部位と環境との間に作用する力の作用状態を推定することができる。
【0027】
そこで、推定手段は、算出手段により算出されたずれ量に基づいて、遠隔作業ロボットの部位と環境との間に作用する現在時刻から上記遅れ時間後の力の作用状態を推定し、呈示手段は、推定された力の作用状態を呈示する。
【0028】
このように本発明は、遠隔作業ロボットが環境に拘束されたと判断された場合、遠隔作業ロボットの部位の通信遅れ時間後の第1の位置・姿勢(予測位置・姿勢)と、遅れ時間分遅れて伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量に基づいて、該部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定し、推定された力の作用状態を呈示するので、拘束状態における遠隔作業ロボットと環境との間の力の作用状態を推定かつ呈示することができる。
【0029】
請求項2記載の発明は、環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示装置であって、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、位置及び姿勢を通信回線を介して送信する送信手段と、前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信する受信手段と、前記受信手段により受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断する判断手段と、前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記位置及び姿勢の指令値に基づき、現時刻の指令値が遠隔作業ロボットに到達するであろう通信遅れ時間後の時刻における前記遠隔作業ロボットの前記部位の状態を予測する第1の位置・姿勢と、前記受信手段により受信された遠隔作業ロボットの位置・姿勢情報に基づく,前記通信回線を介して情報を通信することにより生ずる遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出する算出手段と、前記算出手段により算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定する推定手段と、前記推定された力の作用状態を呈示する呈示手段と、を備えている。
【0030】
即ち、本発明は、環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示する。
【0031】
ここで、遠隔作業ロボットは、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する機能を有する。
【0032】
本発明の送信手段は、遠隔作業ロボットへの動作指令値として、位置及び姿勢を通信回線を介して送信する。
【0033】
この位置及び姿勢は、送信手段が送信したときから、通信回線を介して情報を通信することにより生ずる遅れ時間遅れて遠隔作業ロボットに到達する。そして、遠隔作業ロボットは、この位置及び姿勢の指令値に従って動作する。
【0034】
遠隔作業ロボットは、外力に対する柔軟性を有しながら位置及び姿勢の指令値に従って動作しつつ、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する。
【0035】
受信手段は、遠隔作業ロボットから送信された、遠隔作業ロボットの部位の位置・姿勢情報及び検出された力の情報を、通信回線を介して受信する。
【0036】
判断手段は、受信手段により受信された力の情報に基づいて、遠隔作業ロボットが環境に拘束されたか否かを判断する。例えば、受信手段により受信された力の情報に基づいて、遠隔作業ロボットにより検出された力が所定の閾値以上か否かを判断することにより、遠隔作業ロボットが環境に拘束されたか否かを判断するようにしてもよい。
【0037】
算出手段は、判断手段により遠隔作業ロボットが環境に拘束されたと判断された場合、前記位置及び姿勢の指令値に基づき、現時刻の指令値が遠隔作業ロボットに到達するであろう通信遅れ時間後の時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢と、前記受信手段により受信された遠隔作業ロボットの位置・姿勢情報に基づく,前記通信回線を介して情報を通信することにより生ずる遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出する。
【0038】
ここで、ずれ量を説明する。ずれ量は、現時刻の指令値が遠隔作業ロボットに到達するであろう通信遅れ時間後の時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢と、遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量である。
【0039】
第1の位置・姿勢は、上記位置及び姿勢の指令値に基づいて推定される。従って、環境を考慮せずに、一方的に推定した位置・姿勢である。
【0040】
これに対し、第2の位置・姿勢は、受信手段により受信された位置・姿勢情報に基づくものである。即ち、遠隔作業ロボットにより検出された実際の位置・姿勢である。従って、実際には、外力に対する柔軟性を実現する制御により環境に遠隔作業ロボットの部位が拘束され、遠隔作業ロボットに指令された目標となる位置・姿勢に到達していないことがある。
【0041】
従って、判断手段により遠隔作業ロボットが環境に拘束されたと判断された場合、第1の位置・姿勢と第2の位置・姿勢とがずれることが生ずる。
【0042】
このずれ量が大きくなればなるほど、環境と遠隔作業ロボットの部位との間に作用する力が大きくなる。そこで、このずれ量から、遠隔作業ロボットの部位と環境との間に作用する力の作用状態を推定することができる。
【0043】
そこで、推定手段は、算出手段により算出されたずれ量に基づいて、遠隔作業ロボットの部位と環境との間に作用する現在時刻から上記遅れ時間後の力の作用状態を推定し、呈示手段は、推定された力の作用状態を呈示する。
【0044】
このように本発明は、遠隔作業ロボットが環境に拘束されたと判断された場合、遠隔作業ロボットの部位の現在時刻における第1の位置・姿勢と、現在時刻よりも所定の遅れ時間遅れた時刻における前記部位の第2の位置・姿勢と、のずれ量に基づいて、該部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定し、推定された力の作用状態を呈示するので、拘束状態における遠隔作業ロボットと環境との間の力の作用状態を推定かつ呈示することができる。
【0045】
請求項3記載の発明は、環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示装置であって、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、所定情報を通信回線を介して送信する送信手段と、前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信する受信手段と、前記受信手段により受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断する判断手段と、前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記遠隔作業ロボットの前記部位の通信遅れ時間後の第1の位置・姿勢(予測位置・姿勢)と、前記受信手段により遅れて受信された位置・姿勢情報に基づく、実際の遠隔作業ロボットの前記部位の第2の位置と、のずれ量を算出する算出手段と、前記算出手段により算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定する推定手段と、前記推定された力の作用状態を呈示する呈示手段と、を備え、前記送信手段は、速度指令ベクトルを送信する第1のモードと、位置及び姿勢の指令値を送信する第2のモードと、を有し、前記算出手段は、前記速度指令ベクトルと前記通信回線を介して受信された受信された力の情報及び及び遠隔作業ロボットの予測モデルに基づき,通信遅れ時間後の前記遠隔作業ロボットの前記部位の状態を予測する第1の位置・姿勢を用いる第1のモードと、前記位置及び姿勢の指令値に基づき,通信遅れ時間後の前記遠隔作業ロボットの前記部位の状態を予測する第1の位置・姿勢を用いる第2のモードと、を有し、前記第1のモード及び第2のモードを切り替える切り替え手段を備えている。
【0046】
即ち、本発明にかかるロボット環境間力作用状態呈示装置は、環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、所定情報を通信回線を介して送信する送信手段と、前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信する受信手段と、前記受信手段により受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断する判断手段と、前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記遠隔作業ロボットの前記部位の通信遅れ時間後の状態を予測する第1の位置・姿勢と、前記受信手段により遅れて受信された位置・姿勢情報に基づく、実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出する算出手段と、前記算出手段により算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定する推定手段と、前記推定された力の作用状態を呈示する呈示手段と、を備えている。
【0047】
このように本発明は、遠隔作業ロボットが環境に拘束されたと判断された場合、通信遅れ時間後の遠隔作業ロボットの状態を予測する第1の位置・姿勢と、通信回線により遅れて伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量に基づいて、該部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定し、推定された力の作用状態を呈示するので、拘束状態における遠隔作業ロボットと環境との間の力の作用状態を推定かつ呈示することができる。
【0048】
そして、本発明の送信手段は、速度指令ベクトルを送信する第1のモードと、位置及び姿勢の指令値を送信する第2のモードと、を有し、算出手段は、速度指令ベクトルと通信回線を介して受信された力の情報及びロボットモデルとに基づく遠隔作業ロボットの前記部位の第1の位置・姿勢(予測位置・姿勢)を用いる第1のモードと、位置及び姿勢の指令値に基づく遠隔作業ロボットの部位の第1の位置・姿勢(予測位置・姿勢)を用いる第2のモードと、を有し、第1のモード及び第2のモードを切り替える切り替え手段を備えている。
【0049】
遠隔作業ロボットを大きく動作させる場合、又は、遠隔作業ロボットの微調整させる場合など、状況に応じて適切なモードを選択することができ、操作者の使い勝手を向上させることができる。
【0050】
上記請求項1及び請求項3のおける算出手段は、請求項4のように、遠隔作業ロボットが環境に拘束された場合には速度指令ベクトルに比例する力を環境に与えるように制御系を構成しておき、速度指令ベクトルの履歴を蓄積し、遅れ時間の2倍の時間積分することにより、前記ずれ量を算出する。
【0051】
ここで、請求項5のように、受信手段は、遠隔作業ロボットとの間に力が作用する環境を撮影する撮影手段からの環境の撮影情報を受信し、呈示手段は、受信手段により受信された撮影情報に基づいて、環境を更に呈示する。この場合、請求項6のように、呈示手段は、判断手段により遠隔作業ロボットが環境に拘束されたと判断されない場合には、少なくとも第1の位置・姿勢を含む遠隔作業ロボットの所定領域と環境とを対応させて、例えば、重ねて呈示し、判断手段により遠隔作業ロボットが環境に拘束されたと判断された場合、力の作用状態と環境とを対応させて、例えば、重ねて呈示するようにしてもよい。
【0052】
また、請求項7のように、撮影手段は、環境に対して固定された第1の撮影手段及び遠隔作業ロボットに対して固定された第2の撮影手段の少なくとも一方を備えるようにしてもよい。この場合、請求項8のように、撮影手段が第1の撮影手段及び第2の撮影手段を備え、呈示手段は、第1の撮影手段及び第2の撮影手段からの双方の撮影情報に基づいて、環境を呈示するようにしてもよい。
【0053】
なお、請求項9のように、力の作用状態は、力の方向とモーメントの少なくとも一方である。
【0054】
また、請求項10のように、力を加えることにより遠隔作業ロボットの動作を指令するための指令手段と、前記推定手段により推定された力の作用状態に基づいて、該力の作用状態とは逆の作用状態(反力)を前記指令手段に物理的に作用させて呈示する作用手段と、を備えるようにしてもよい。
【0055】
この場合、送信手段は、指令手段により指令された動作に基づいて、速度指令ベクトル又は位置及び姿勢を送信する。
【0056】
なお、以下の遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示法も提案される。
【0057】
環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、速度指令ベクトルを通信回線を介して送信し、前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信し、前記受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断し、前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記速度指令ベクトルと前記通信回線を介して受信された力の情報及び遠隔作業ロボットのモデルとに基づき、通信遅れ時間後の前記遠隔作業ロボットの前記部位の状態を予測する第1の位置・姿勢と、前記遅れて受信された位置・姿勢情報に基づく、実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出し、前記算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定し、前記推定された力の作用状態を呈示する遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示法である。
【0058】
また、以下の遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示法も提案される。
【0059】
環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、位置及び姿勢を通信回線を介して送信し、前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信し、前記受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断し、前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記位置及び姿勢の指令値に基づき通信遅れ時間後の前記遠隔作業ロボットの前記部位の状態を予測する第1の位置・姿勢と、遅れて受信された位置・姿勢情報に基づく、実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出し、前記算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定し、前記推定された力の作用状態を呈示する遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示法である。
【0060】
更に、次の遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示法も提案される。
【0061】
環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットの指令された動作として、所定情報を通信回線を介して送信し、前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信し、前記受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断し、前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記遠隔作業ロボットの前記部位の通信遅れ時間後の状態を予測する第1の位置・姿勢と、遅れて受信された位置・姿勢情報に基づく、実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出し、前記算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定し、前記推定された力の作用状態を呈示する遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示法であって、前記送信の際は、速度指令ベクトルを送信する第1のモードと、位置及び姿勢の指令値を送信する第2のモードと、を有し、前記算出の際は、前記速度指令ベクトルと前記通信回線を介して受信された力の情報及びロボットモデルとに基づく遠隔作業ロボットの前記部位の第1の位置・姿勢(予測位置・姿勢)を用いる第1のモードと、前記位置及び姿勢の指令値に基づく遠隔作業ロボットの部位の第1の位置・姿勢(予測位置・姿勢)を用いる第2のモードと、を有し、前記第1のモード及び第2のモードを切り替えることを特徴とするロボット環境間力作用状態呈示方法である。
【0062】
なお、上記ロボット環境間力作用状態呈示方法の発明では、更に、次のようにしてもよい。
【0063】
まず、上記1番目及び3番目のロボット環境間力作用状態呈示方法では、速度指令ベクトルを遅れ時間の2倍の時間積分することにより、ずれ量を算出するようにしてもよい。
【0064】
遠隔作業ロボットとの間に力が作用する環境を撮影する撮影手段からの環境の撮影情報を受信し、前記受信された撮影情報に基づいて、環境を更に呈示する。この場合、遠隔作業ロボットが環境に拘束されたと判断されない場合には、少なくとも第1の位置・姿勢を含む遠隔作業ロボットの所定領域と環境とを重ねて呈示し、遠隔作業ロボットが環境に拘束されたと判断された場合、力の作用状態と環境とを重ねて呈示するようにしてもよい。
【0065】
また、撮影手段は、環境に対して固定された第1の撮影手段及び遠隔作業ロボットに対して固定された第2の撮影手段の少なくとも一方を備えるようにしてもよい。この場合、撮影手段が第1の撮影手段及び第2の撮影手段を備え、第1の撮影手段及び第2の撮影手段からの双方の撮影情報に基づいて、環境を呈示するようにしてもよい。
【0066】
なお、力の作用状態は、力の方向とモーメントの少なくとも一方である。
【0067】
また、力を加えることにより遠隔作業ロボットの動作を指令するための指令手段に対し、前記推定された力の作用状態に基づいて、該力の作用状態とは逆の作用状態(反力)を前記指令手段に直接物理的に作用させるようにして呈示してもよい。
【発明の効果】
【0068】
以上説明したように本発明によれば、遠隔作業ロボットが環境に拘束されたと判断された場合、遠隔作業ロボットの部位の通信遅れ時間後の状態を予測する第1の位置・姿勢と、通信によって遅れて伝達される実際の遠隔作業ロボットの部位の第2の位置・姿勢と、のずれ量に基づいて、該部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定し、推定された力の作用状態を呈示するので、環境モデルを用いずに拘束状態における遠隔作業ロボットと環境との間の力の作用状態を推定かつ呈示することができる、という効果がある。
【発明を実施するための最良の形態】
【0069】
以下、図面を参照して、本発明の実施の形態の一例を詳細に説明する。
[第1の実施の形態]
図1及び図2に示すように、ロボット遠隔操作システムは、遠隔配置されたスレーブロボット12A、スレーブロボットコントローラ12、及びモニタ用カメラ20と、本実施の形態にかかるロボット環境間力作用状態呈示装置としてのロボット遠隔制御装置14と、を備えている。ロボット遠隔制御装置14は、詳細は後述する指令手段としてのジョイスティックマスタ16、モニタ18、及び予測情報呈示システム24を備えている。
【0070】
オペレータは、遠隔側のスレーブロボット12Aの作業状況(動作状態)等を、モニタ用カメラ20により撮影して得られた撮影情報に基づいてモニタ18の画面で監視しながら、ジョイスティックマスタ16を操作して目標指令を生成する。生成された指令値は、インターネットなどの遅れを伴う通信経路22を介して遅れて、スレーブロボットコントローラ12に伝達される。スレーブロボット12Aはオペレータからの指令値に基づいて、外力に対する柔軟性を伴って速度制御される。
【0071】
しかし、上記のように人間の操作ループに入り込んだ遅れはシステムに悪影響を及ぼし、画像遅延や操作情報の遅れによって操作性の低下を招くだけでなく、最悪の場合にはオペレータの操作そのものを不安定化してしまう要因となる。そのため、本実施の形態では、スレーブロボット12Aの運動学的・動力学的モデルを構築し、オペレータ側に配置することにより予測情報の生成を行うものとする。
【0072】
図2に示すように、図2の紙面に向い、図2における通信回線22の位置を挟んで左側はオペレータ側、右側は遠隔側を表している。オペレータ側には、予測情報呈示システム24を備え、予測情報呈示システム24は、スレーブロボット12Aの予測モデル26と、スレーブロボット12A側から遅れて伝達された作業映像に予測情報を対応して、本実施の形態では重ね合わせて(スーパーインポーズして)、モニタ18を介してオペレータに呈示を行う予測画像生成器28と、を備えている。
【0073】
図3には、ロボット遠隔操作システムのブロック図が示されている。図3に示すように、ジョイスティックマスタ16は、スレーブロボット12Aの動作を指令するためオペレータにより加わった力を、後述するばね定数行列Kで除して、ジョイスティックマスタ16の変位量δxmを求める除算器16aと、求められたジョイスティックマスタ16の変位量δxmに速度指令ゲインAを乗算して、速度指令値vsdを求める乗算器16bと、を備えている。乗算器16bは予測モデル26に直接接続されると共に、乗算器16bの出力(速度指令値vsd)は、通信回線22を介してスレーブロボットコントローラ12に送信される。
【0074】
上記のように、オペレータがスレーブロボット12Aの動作を指令するため、ジョイスティックマスタ16を操作、即ち、操作力を加えたとする。
【0075】
fhをオペレータがジョイスティックマスタ16に加える操作力/モーメントを表すベクトル、δxmをジョイスティックマスタ16の中立点からの変位を表すベクトル、Kを調整可能なばね定数行列とすると、ジョイスティックマスタ16の特性は、
【0076】
【数1】

【0077】
のように表される。オペレータの操作によって生じた変位δxmは、速度指令ゲインAにより定数倍され、速度指令値(速度指令ベクトル)vsdに変換され、スレーブロボット12A側に送信される。
【0078】
ここで、スレーブロボット12Aとしては、様々なロボットシステムを適用可能であるが、本実施の形態では、多関節マニピュレータを用いる。一般化座標系で表したスレーブロボットの手先位置・姿勢に対する速度指令値vsdは次式のように表される。
【0079】
【数2】

【0080】
マスタスレーブロボット間の通信遅れをT[s] (遅れ時間)と仮定すると、速度指令値はvsd (t-T) のように遅れてスレーブロボット12A側に伝達される。本システムでは、スレーブロボットの速度vs(t) は、次式のようなダンピング制御則に基づいて決定するものとし、スレーブロボットには外力に対する柔軟性を持たせている。
【0081】
【数3】

【0082】
ここで、feはスレーブロボットの手先(部位)が環境に加える接触力/モーメントを表すベクトルである。Bはスレーブロボットの外力に対する応答を規定するためのアドミッタンス行列である。
【0083】
式(1)(2)(3) より、非拘束時にはfe= 0 となるため、スレーブロボットは速度指令値vsdの通りに運動する。また、スレーブロボットが一旦環境に拘束されると、vs=0となり、オペレータの操作力fhとスレーブロボット12Aの手先が環境に加える接触力feは次式の関係を満たす。
【0084】
【数4】

【0085】
作業に応じてK、A、Bを適宜調整することで、操作力と接触力の比例関係を適切に設計することが可能である。さらに、ロボットの座標系やアドミッタンス行列を作業に応じて適切に設計することで、半自律的にオペレータの作業支援を行う特性をもたせることも可能である。
【0086】
また、図3に示すように、スレーブロボットコントローラ12は、スレーブロボット12Aの手先(部位)が環境に加える接触力をfeとすると、スレーブロボット12Aの手先が環境から受ける接触力(-fe)と、上記のアドミッタンス係数Bとを乗算する乗算器12aと、乗算器16bからの出力である速度指令値vsdと、乗算器12aの出力とを加算する加算器12bと、後述するKp乗算器12gの出力と、加算器12Bの出力とを加算する加算器12cと、スレーブロボット速度サーボ12dと、を備えている。
【0087】
また、スレーブロボットコントローラ12は、乗算器16bからの出力である速度指令値vsdを積分する積分器12eと、積分器12eの出力からスレーブロボット速度サーボ12dの出力を減算する減算器12fと、減算器12fの出力に、所定の補償定数であるKpを乗算する乗算器12gと、を備えている。なお、これらの素子は、予測モデル26と実際のスレーブロボット12Aの挙動を一致させるための付加的な補償要素である。
【0088】
一方、予測モデル26は、スレーブロボット12Aの手先が環境から受ける接触力(-fe)と上記のアドミッタンス係数Bとを乗算する乗算器26aと、乗算器26aの出力と乗算器16bからの出力である速度指令値vsdとを加算する加算器26bと、加算器26bの出力を積分する積分器26cと、を備えている。
【0089】
このように、本実施の形態では、環境のモデルを持たず、スレーブロボット12Aの仮想モデルのみを構築し、オペレータ側に配置している。
【0090】
スレーブロボット12Aの手先の予測される速度をvmodelとすると、速度vmodelは、
【0091】
【数5】

【0092】
ここで、通常の重ね合わせ型の場合には、スレーブロボット12Aの手先が環境に拘束される拘束状態では、予測呈示は想定しないのが普通である。しかし、本実施の形態では、スレーブロボット12A側で検出された接触力を図2、図3に示すように、ロボットの予測モデル26に伝達する形をとっている。予測モデル26はオペレータ側に置かれており、スレーブロボットの接触力/モーメントfe は通信時間分だけ遅れて伝達されるため、予測モデル26への入力はvsd(t) 及びfe(t- T) となる。
【0093】
予測呈示画像生成システム24では、この式(5) を用いて運動予測画像が三次元グラフィックスとして生成され、モニタ18で、スレーブロボット側の実画像に重ね合わせてオペレータに呈示される。
【0094】
ところで、前述のような構成で通常の運動予測画像の重ね合わせのみを行った場合にシステムがどのような挙動を示すのかを調べるため、グラフィックシミュレータを構築し、通信遅れ存在下でのシステムの挙動の確認を行った。図4、図5は、拘束状態でのスレーブロボットの実際の状態と予測された状態を示す。図4、図5中、ワイヤフレームで表示されているものが、予測モデル26から計算されたスレーブロボット12Aの運動予測画像PGである。その他の部分はスレーブロボット側から通信経路を介して送られてきた実画像(モニタ用カメラ20による画像)であり、予測画像PGと実画像とをスーパーインポーズしてモニタ18で呈示を行った。
【0095】
この実験の結果、スレーブロボット12Aの手先が環境ENVに拘束されていない自由状態では、オペレータの入力履歴を利用して、図4(a)、図5(a)に示すように、実画像に遅れなくリアルタイムに運動予測画像を呈示することができた、即ち、通信遅れによる操作性の劣化を抑えることができることを確認できた。
【0096】
しかし、スレーブロボット12Aの手先が環境ENVに拘束された拘束状態においては、通信遅れが存在すると、図4(b)、図5(b)に示すように、スレーブロボット12Aの運動予測画像PGが環境ENV内へあたかもめり込んだような状態で拘束されてしまう現象が生じることがわかった。これは次の理由による。
【0097】
即ち、システムはロボットの予測モデル26のみで環境モデルを持たないため、伝達される力情報でしか拘束状況を判断できない。しかし、接触情報は通信経路を介して遅れて伝達されるため、実際のスレーブロボットが環境ENVに拘束されたとしても、運動予測画像PGであるスレーブロボットは運動を続けてしまう。そして、運動予測画像PGであるスレーブロボットは、遅れて伝達された力情報により拘束され停止するが、既に運動予測画像中におけるスレーブロボットとオペレータに呈示される実画像内のスレーブロボットの位置・姿勢には誤差が生じているため、運動予測画像PGであるスレーブロボットはあたかも環境にめり込んだような状態で拘束されてしまう。
【0098】
このような現象は、本来であればあまり望ましくないが、本実施の形態ではこれを「めり込み現象」と呼び、逆に拘束状態における予測呈示に積極的に利用することを考えた。
【0099】
以下、システムの拘束状態での挙動を調べ「めり込み現象」についての解析を行う。
【0100】
ここでは、簡単のため、まずシステムの1 次元モデルで記述を行う。モニタ18の画面内で、実画像として遅れてオペレータに呈示される見かけのスレーブロボットの運動速度vappは、次のように表される。
【0101】
【数6】

【0102】
そのため、マスタスレーブロボット系全体の特性は式(3)、式(5)、式(6)により規定されることになる。これらを、時間の関数をラプラス変換して得られるs-領域で表すと、実際のスレーブロボット12Aの手先の速度Vs(s)、予測モデルにおけるスレーブロボット12Aの手先の速度Vmodel、遅延画像上での見かけのスレーブロボットの手先の速度Vapp(s)は、それぞれ、
【0103】
【数7】

【0104】
となる。
【0105】
ここで、初期状態を零とし、実際のスレーブロボット12Aの手先の位置/姿勢Xs、予測モデルにおけるスレーブロボット12Aの手先の位置/姿勢Xmodel、遅延画像上での見かけのスレーブロボットの手先の手先の位置/姿勢Xappは、それぞれ、
【0106】
【数8】

【0107】
となる。
【0108】
そして、環境に対するめり込み量(ずれ量)Dは、予測モデルにおけるスレーブロボットの手先の位置/姿勢Xmodelとオペレータに呈示される見かけのスレーブロボットの手先位置/姿勢Xappとの間の誤差であると考えられるため、以下のように計算できる。
【0109】
【数9】

【0110】
一方、s-領域ではなく、時間領域(t 領域)では、めり込み量d(t)は、
【0111】
【数10】

【0112】
となる。この結果より、誤差量(めり込み量d(t))は速度指令値vsd の2T秒間(遅れ時間の2倍の時間)の積分値となることがわかる。
【0113】
ここで、式(3) を使って式(14) をスレーブロボット12Aの拘束力との関係に書き直すと、
【0114】
【数11】

【0115】
となる。
【0116】
以上の解析は3次元空間にもそのまま適用できる。拘束超平面に対して垂直な、めり込み量の法線方向成分
【0117】
【数12】

【0118】
を考えれば、式(15)は、
【0119】
【数13】

【0120】
もしくは、
【0121】
【数14】

【0122】
のように表される。スレーブロボットが完全に環境に拘束された状態
【0123】
【数15】

【0124】
では、式(3) より、
【0125】
【数16】

【0126】
となり、オペレータからの指令値が定常となれば、式(16)(18)より、
【0127】
【数17】

【0128】
の関係式が得られ、T秒後の拘束力とめり込み量とが比例関係にあることが分かる。つまり、めり込み量を用いると、この式によってスレーブロボットがT秒後に発生する力やモーメント(力の作用状態)を予測できることを示している。
【0129】
また、スレーブロボットを拘束させたままの状態でオペレータが指令値を変化させ、力feが変化するような過渡的な状態まで考えると、拘束されている間は式(17) の第1項は第2項に比べて小さいと仮定すれば、めり込み量は近似的に、
【0130】
【数18】

【0131】
と表せる。ここで、定常状態と同じ式(19) を用いて予測を行ったとすると、力の予測値
【0132】
【数19】

【0133】
は、式(20) を(19) に代入して、
【0134】
【数20】

【0135】
となり、2T秒間の力予測値の移動平均を算出していることになる。これは、力が平滑化されて予測されることを意味しており、通信遅れに比べ高い周波数領域の特性は鈍化してしまうが、オペレータの操作帯域が平滑化の接点周波数以下であれば、過渡的な状態についても式(19) を用いて力の予測が可能であることを示している。このように、めり込み量を利用することにより拘束状態での予測呈示が可能となる。
【0136】
次に、拘束状態での予測情報を効果的にオペレータに呈示する方法について説明する。
【0137】
上記のように、拘束状態で生じるめり込みの量には、オペレータの入力履歴を反映した力やモーメントの予測情報が含まれ、オペレータ側に配置したロボットの予測モデルに基づいて予測情報を生成すれば、自由状態、拘束状態を問わず連続的に予測情報の呈示が可能であることがわかった。
【0138】
ここでは、この結果を踏まえ、めり込み量をうまく利用して拘束状態での力/モーメントの予測情報をオペレータに効果的に呈示する方法について考える。
【0139】
本システムの予測画像生成器28では、自由状態においては予測モデルに基づいて生成したスレーブロボットの運動予測画像を実画像に重ねあわせて呈示を行っている。しかし、拘束状態でそのまま同様の表示を行ったのでは図4(b)、図5(b) のように、運動予測画像PGのみが環境ENVにめり込んだ状態となり、実際のロボットの状態と全く異なる状態で実画像に重ね合わされてしまうため、作業を行う際の視認性が低下してしまうことが考えられる。
【0140】
そのため、スレーブロボット側から伝送された力情報fe(t−T) がある閾値を超え、実際のスレーブロボットが環境へ接触したと判断した場合には、予測画像生成器28では、運動予測画像の代わりに、力/モーメントの予測情報を、図6、図7に示すように、「予測力矢印」及び「予測モーメント矢印」という二種類の「予測支援矢印」(力の作用状態)として視覚化し、オペレータに直感的に呈示する。
【0141】
以下、これらの予測支援矢印について説明する。
【0142】
「予測力矢印」
拘束状態における力と運動の並進成分に関する予測情報を視覚化するため、本実施の形態では「予測力矢印」と呼ばれる矢印を定義し、実画像に重ね合わせて呈示を行う。
【0143】
予測力矢印は、図6のように、実画像内の実際のスレーブロボットの手先から予測モデルにおけるスレーブロボットモデルPGの手先の方向へと伸びる、位置めり込み量(めり込み量の並進成分)に相当する矢印で、拘束状態では、運動予測画像を表示する代わりに図7に示されるように、矢印のみがオペレータに呈示される。
【0144】
予測力矢印FAの拘束面に対する法線方向成分は、解析結果からわかるようにスレーブロボット12AがT秒後に発生する拘束力を予測的に呈示するフォースディスプレイとしての役割を担う。それと同時に、予測力矢印の接線方向成分は、ロボットの非拘束方向への運動を予測的に呈示する役割を果たす。オペレータの操作は矢印先端(予測モデルにおけるスレーブロボットの手先に対応)の動きに遅れ無く反映され、実画像内のロボットはそれに追従する(牽引される)ように動作を行う。そのため、オペレータは拘束状態においても接触力と運動を同時に予測的に認識しながら操作することが可能となる。矢印の先端は、方向を三次元的に認識しやすくするために円錐形状とし、さらに支援矢印の変化が分かりやすいよう、その大きさによって呈示の色を変化させる。
「予測モーメント矢印」
上記予測力矢印と同様に、回転成分に関する予測情報を視角化するため「予測モーメント矢印」を定義し、図7に示すように、拘束状態において運動予測画像の代わりにオペレータに呈示する。
【0145】
予測モーメント矢印MAは、実画像内の実際のスレーブロボットの手先姿勢に対する予測モデルにおけるスレーブロボットの手先姿勢の誤差を表し、姿勢めり込み量に相当する円弧状の回転矢印で、力の場合と同様に回転力に関する予測呈示の機能を担っている。
【0146】
一般には、作業内容やカメラ配置などに応じて、X-Y-Z固定角、オイラー角、等価回転軸や等価回転角など、様々な表記法の中から適したものを選択して使用することが可能である(図8(a)、図8(b))。なお、図8(a)は、X-Y-Z空間において矢印を表示した例を示し、図8(b)は、等価回転軸空間おいて矢印を表示した例を示した図である。
【0147】
なお、矢印先端の形状や色変化については、円錐形状とし、その大きさによって呈示の色を変化させる等、予測力矢印と同様である。
【0148】
これら二つの予測支援矢印FA、MAにより、拘束状態においても予測情報をオペレータに呈示することができるため、通信遅れ存在下での操作性の向上を図ることが可能となる。尚、予測支援矢印の生成にあたっては、図3に一点鎖線で示すように、実画像を撮影した時点でのスレーブロボットの手先の位置・姿勢の情報を画像データとともに送信し、予測画像生成器28で利用している。また、実用面を考えて、めり込み量を定数倍して予測支援矢印の表示スケールを調整する機能を持たせている。
【0149】
次に、予測画像生成器24の処理を、図9に示した処理プログラムを参照して説明する。
【0150】
予測画像生成器24の図示しないスタートボタンがオン等されると、ステップ102で、予測モデル26により予測された運動予測画像と、モニタ用カメラ20により環境が撮影して得られた実画像とを重ねてモニタ18に表示する。
【0151】
ステップ104(判断手段)で、スレーブロボットコントローラ12から出力された、スレーブロボット12Aの手先が環境から受ける力(-fe)の絶対値が、所定の閾値fth以上か否かを判断し、所定の閾値fth未満の場合には、スレーブロボット12Aの手先は自由状態にあると判断して、ステップ102に戻る。
【0152】
一方、スレーブロボット12Aの手先が環境から受ける力(-fe)の絶対値が、所定の閾値fth以上と判断された場合には、スレーブロボット12Aの手先は環境に拘束された拘束状態にあると判断して、ステップ106(算出手段)で、上記めり込み量を、上記式(16)から算出する。
【0153】
ステップ108(推定手段)で、スレーブロボット12Aの手先が環境に加える接触力及びモーメントを、上記式(19)から予測する。
【0154】
ステップ110で、図7に示すように、予測された接触力及びモーメントに基づいて、予測力矢印FA及び予測モーメント矢印MAを、運度予測画像に代えて、実画像に重ねてモニタ18で表示し、ステップ104に戻る。
【0155】
以上説明したように本実施の形態では、通信遅れが存在して操作情報(ジョイスティックマスタ側からスレーブロボット側への操作指令)や応答情報(スレーブロボット側からジョイスティックマスタ側への制御結果)が双方向に遅れて伝達されてしまう状況下でも、スレーブロボットの応答を予測的に計算し、遠隔ロボットの作業状況を映し出すモニタ用の動画像に重ね合わせる(スーパーインポーズする)形で操作者にリアルタイムに呈示している。
【0156】
そして、自由状態(非拘束状態)ではスレーブロボットの運動を、拘束状態(ロボットが環境に拘束された状態)では力と運動の応答を、環境モデルを用いることなく、実際のロボットが動作する前に予測的に操作者に呈示することができる。そのため、操作者は遅れに惑わされることなくロボットを円滑に遠隔操作することができ、通信遅れによる情報遅延が操作に与える影響を大幅に低減できる。
【0157】
また、本実施の形態では、環境モデルを用いず、ロボットの予測モデルのみ用いているため、汎用的かつ簡便な設置・運用が可能である。
【0158】
また、対象が生体の場合など、環境のモデル化が困難な場合や実画像そのものに意味のある場合(実画像を見ながら操作を行う必要がある場合)などにも有効に利用できる。
【0159】
スレーブロボットの予測モデルはそれを提供する側で十分な精度で構築しておくことが可能であるため、ロボットと一緒にその予測モデルを提供する形をとる事により、様々なロボットシステムの中からユーザが必要なものを選択して自由に配置して使用できるようになるため、インターネットなどの通信網を利用して遠隔体験や遠隔福祉、遠隔コミュニケーションなどの身近な領域へと遠隔操作システムの応用分野の拡大を図ることができる。
【0160】
次に、本実施の形態の具体的実験結果を説明する。
【0161】
上記実施の形態の有効性を確認するため、テレマニピュレーションシステムを構築して遠隔操作実験を行った。図10にロボット遠隔操作システムの実験装置の構成を示す概略図を示す。
【0162】
操作側では、オペレータは入力デバイスとして力フィードバック型のジョイスティック(Microsoft Sidewinder Force Feedback2)16を操作し、スレーブロボット12Aへの指令値(速度指令ベクトル)を生成した。
【0163】
モニタ18の画面には、遅れて伝達されたスレーブロボット側のモニタ用カメラ20の映像に対し、自由状態ではスレーブロボットの運動予測画像を、拘束状態では予測支援矢印を、図13のように、それぞれ重ね合わせて操作支援画像を呈示した。その際、スレーブロボットの運動予測画像及び予測支援矢印は、OpenGLライブラリを用いて三次元グラフィックスで表現し、カメラ画像とのキャリブレーションを行った上で画像処理によって重ね合わせを行った。
【0164】
今回の実験では、スレーブロボット12Aとして平面3リンクマニピュレータを使用した。マニピュレータの各関節はDCサーボモータによって駆動し、手首部に搭載した6軸の力/トルクセンサにより環境との間の接触力を測定して制御に使用した。
【0165】
マスタスレーブロボット間の通信については、様々な通信遅れの条件下でシステムの特性を検討できるようここでは共有メモリボードを用いて行い、遅れはプログラムで仮想的に生成し、遅れ時間を任意に設定できるようにした。
【0166】
また、通信データ量を減らすため、カメラ画像は予測支援矢印付近の注視点領域を考慮に入れた圧縮処理を行ってオペレータに伝達した。
【0167】
今回の実験では、まず、予測支援矢印の動作確認を行い(実験1)、部品の組み付け作業(実験2)とL字型壁面の倣い作業(実験3)との二種類の遠隔作業を行ってシステムの有効性を確認した。尚、制御パラメータは、位置成分についてはA = 2.0、B =0.006、K = 200、姿勢成分についてはA = 0.2、B = 1.0、K = 0.3と設定した。
[実験1:予測支援矢印の動作確認]
予測力矢印が解析した通りに正確に機能するかを確認するため、スレーブロボットの手先を壁面に押し付け、予測力矢印を見ながら速度指令値を変化させることで、環境への接触力を変化させた。
【0168】
図11(a)〜図11(c)は、片道あたりの通信遅れT = 0.38[s]の条件での力の予測値と実際の接触力との関係を示す図であり、図11(a)は、速度指令ベクトルを、図11(b)は、実際の位置を、図11(c)は、力の予測値と実際の接触力との関係を示す図である(グラフは比較のため通信遅れ分シフトしてある)。
【0169】
開始3秒付近でスレーブロボット12Aの手先が壁面に接触し拘束状態となったが、オペレータの指令に応じて接触力が変動する様子が予測できていることがわかる。次に、スレーブロボット12Aの手先を環境に拘束した状態で姿勢の速度指令値を変化させて環境にモーメントを加え、予測モーメント矢印の動作確認を行った。同様に予測が想定どおりに行われていることが確認できた(図12)。
[実験2:組み付け作業]
遠隔作業の例として、片道あたりの通信遅れ、T = 0.18[s]、 T =0.28[s]、 T = 0.38[s] の各条件下で、図13のようにスレーブ先端のT字型の部品を環境の窪みに挿入する作業を行った。図13は、作業中オペレータに呈示された操作画面を示しており、(a)は自由状態、(b)は拘束状態での呈示の様子を示している。図13(b) で手先付近に表示されている矢印が予測力支援矢印及び予測モーメント矢印である。オペレータからの操作指令は、ジョイスティックマスタの左右・前後・ひねりの3自由度をそれぞれ図のx軸(並進)、 y軸(並進)、 α軸(回転)に対応するように設定した。また、図15に示すように部品先端部にはRCCのような半自律的な特性を持つように式(3) を構成する座標系及び制御パラメータを設定して実験を行った。点P は設定した回転中心である。
【0170】
図14は、T = 0.38[s] の場合について、y軸方向(拘束方向)とα軸周りに関する実験時のスレーブの応答を示したものである。図14(a)、図14(c) は、各々、作業中のy軸方向の手先位置と接触力の変化を示す。図14(b)、図14(d) は、各々、α 軸周りの手先姿勢とモーメントの変化の様子を示している。作業過程は図15のようであった。オペレータの操作によって、部品は約11 秒時点で環境に接触し、数秒後に挿入が完了した。往復の通信遅れがあるにもかかわらず、オペレータは予測力矢印と予測モーメント矢印の支援を受けてスレーブの挙動を予測的に認識でき、スレーブの半自律的な特性の助けも借りながら、容易に作業を行うことが可能であった。
【0171】
[実験3:L字型壁面の倣い作業]
次に、ペン型のエンドエフェクタを使用して図16(a)、図16(b)のようなL字壁面の倣い作業を行った。図16(a)、図16(b)は、実験中オペレータに実際に呈示された画面の様子である。この作業の目的は、予測支援矢印の助けを借りながら、拘束面に垂直な方向に対して力を加えながら連続的にL字壁面を倣うことである。この実験ではペン型のエンドエフェクタ(環境とは点接触)の先端に制御則(3)の座標系の回転中心を設定して、環境からはモーメントが働かないようにし、エンドエフェクタの接触姿勢はオペレータが自由に操作できるように設定した。通信遅れは実験2と同様T = 0.18[s]、 T = 0.28[s]、 T = 0.38[s]で行った。
【0172】
図17は、T = 0.18[s] における作業中の予測接触矢印の軌跡を示す。破線はペン型エンドエフェクタの先端の軌跡を、実線で描かれた線分及び矢印は予測力矢印の表示軌跡を表している。予測矢印の軌跡は0.5 秒毎に描画し、見難くなるためそれらの一部のみ矢印形状で示した。これらの結果から、通信遅れが存在するにもかかわらず、オペレータの操作により壁面の倣い作業が連続的に行われたことがわかる。特に図中に円で囲んだ部分に着目すると、オペレータが予測支援矢印の支援を受けながら、連続的に拘束方向を変化させている様子が確認できる。予測支援矢印は拘束面に対する法線方向の接触力と接線方向のすべり運動を同時に予測呈示しているため、オペレータは前もって状況を認識して適切な入力を効果的に生成することができ、手法の有効性が確認できた。
【0173】
次に、上記実施の形態及び上記実験におけるモニタ用カメラ20について説明する。
【0174】
モニタ用カメラ20の画像および支援画像の視点は、作業内容や使用環境に合わせて、ロボット外から俯瞰的に観測を行う「固定座標系」や、ロボットの手先などに取り付けてロボットの運動とともに刻々と視点を変化させながら環境に対して相対運動を行う「移動座標系」など、座標変換により適切なものを使用することができる(図18、図19)。
【0175】
俯瞰的な視点では作業環境も含めた全体像がつかみやすく、手先カメラなどの移動カメラ視点では環境との間の相対的な運動が把握しやすい。このため、両方の視点で支援表示を行い、操作者が適宜必要な視点の情報を見ながら操作できるシステムを構築するのが望ましい。支援画像には、指令を与える際のロボットの参照座標系を重ねて表示しておくことで、方向の把握を容易にすることができる(図18、図19)。
【0176】
次に、モニタ用カメラ20による画像と、運動予測画像とのキャリブレーションについて説明する。
【0177】
モニタ用カメラ20で撮影される実作業空間(環境)の実画像に運動予測画像や予測支援矢印を正確に重ね合わせて呈示する必要がある。しかし、手動でこれらの位置合わせを行うのは困難であるため、なるべく簡単に正確な重ね合わせを行えることが望ましい。ただし、三次元測定器やステレオカメラを用いたのではシステムが複雑になるため、身近で簡便に使用することを考え、安価で入手も容易な市販の雲台付き監視カメラを用いて、マーカを利用した画像計測によって、単眼カメラシステムでも容易に実作業空間と予測モデル空間の位置合わせが可能な簡易キャリブレーション手法の開発を行った。以下に開発した手法の特長を示す。尚、今回はパン・チルト・ズーム機能を搭載したCanon 製単眼監視用カメラを用いた。
【0178】
開発した手法では、図20(a)のような円状マーカを環境(スレーブロボット)に設置し、キャリブレーションを行う際には、マーカの中心がカメラの撮影領域の中心と一致するように予め調整を行った。このような二つの条件により、どの方向から撮影した場合でも、カメラの視線に垂直な平面内にマーカの直径成分が常に現れるため、カメラとロボットとの間の座標変換を簡単化することができ、単眼でも図21のような手順でカメラの画角やマーカ円の直径、静止画像内での傾きや比率から座標変換パラメータを順に分離して計測可能となる。また、それと同時に推定パラメータを減らすことで精度の悪化を防ぐ効果もある。尚、使用するカメラのパラメータは予め調べられているものとする。
【0179】
作業や環境が変わりカメラとロボットの位置関係が変更された場合には、以下の半自動キャリブレーション作業を行う。
【0180】
キャリブレーションを行う際には、まず、図20(a)のように円状マーカの中心を撮影領域の中心と合わせるようにカメラの方向を調整する。そして、作成した画像解析プログラムを利用して、簡単な画像処理とオペレータによる数回の画面クリック(図20(b):画像取り込み、図20(c):長軸成分の自動検出、図20(d):画像回転による長軸成分の確認・確定、図20(e):距離L と回転角ψ(図21(e)参照)の自動算出、図20(f):マーカの基準点の入力 回転角φとθの自動算出)によってマーカとカメラの位置関係を導き出す。
【0181】
オペレータには上記図20(d)、図20(f)の一部において補佐的に介入をさせ、人間の持つ高い判断能力を利用して、画像処理の簡単化とパラメータ算出精度の向上を図っている。
【0182】
図22は実際に多自由度汎用マニピュレータPA10 にマーカを取り付け、それをズームアップしてキャリブレーションを行った結果である。実際のマーカの画像にOpenGL で作成したマーカモデルが正確に重なっている様子がわかる。また、その状態でカメラのズーム倍率を変化させたり、パン角・チルト角を変更したりした場合でも、それをモデルの描画に反映させることにより、実際のロボットにモデル(ワイヤーフレーム表示)が正確に重なることが確認できる(図23(a)、図23(b))。
【0183】
次に、他の実験について説明する。
【0184】
ユーザの要求に応じて自由度の多いスレーブロボットや入力装置を用いた場合でも汎用的に利用できることを確認した実験について説明する。
【0185】
まず、今回の実験に用いた多自由度ネットワークオペレーションシステムについて説明する。
【0186】
汎用マスタ入力デバイス
多自由度の指令情報をなるべく直感的な操作で生成できるよう卓上型汎用マスタ入力デバイス16Bを設計・製作した(図24)。本実験装置は6自由度を有し、手先に取り付けられた6軸力覚センサの力情報を用いてインピーダンス制御される。本体は小型化し、オフィスの机の上などに簡単に設置できるような設計とした。今回の実験ではグリップ先端の位置・姿勢の変位をスレーブロボットへの速度指令値とするような多自由度ジョイスティックとして用いた。
【0187】
実験用スレーブロボット
スレーブロボット12Bとしては6自由度汎用マニピュレータPA10 を用いた(図25)。マスタと同様、手首部には6軸力覚センサが取り付けられており、ダンピング制御により外力に対して手先に柔軟な特性を持たせた。
【0188】
カメラシステム
俯瞰画像を撮影する雲台付カメラに加え、スレーブロボットの手先には、移動カメラシステムとして、ロボットと共に運動する手先カメラ20Bを取り付けた(図26)。なお、一方は、先端に物をつかむことができるハンドを取り付けたものであり(図26(a))、他方は、ロボット先端に円柱状のツールがついたものであり(図26(b))、本実施の形態では何れでもよい。
【0189】
通信システム
通信頻度に限界があることからくる予測モデルにおけるスレーブロボットと実際のスレーブロボットとの運動のズレをバッファリングによって補償し、インターネットを介した遠隔操作実験の環境を整えた。ここでの通信にはLAN環境を用いており、様々な通信条件で実験が出来るよう、遅れはコンピュータで模擬した。
【0190】
上記のように6自由度のように、システムの多自由度化に伴い、オペレータに呈示する支援情報が増加するため、三次元情報を直感的に呈示する方法が必要となる。自由状態では、前述のキャリブレーションによって予測モデルにおけるスレーブロボットを実画像に正確に重ね合わせることで多自由度の場合でも問題なく運動の予測支援が行える。
【0191】
しかし、拘束状態においては支援矢印によって呈示しなければならない力やモーメントの情報が増加してしまうため、効果的な表示が行えるよう、その表示法について検討を行った。並進力に関しては、例えば、三次元ベクトルとして立体的に表示をする方法や各座標軸成分に分けて表示する方法、モーメントに関しては、オイラー角などの各回転軸成分に分けて回転矢印を表示する方法や、等価回転軸とその軸周りの回転矢印の組として表示する方法などが代表的なものとして考えられる。
【0192】
例として、図27(a)に、力を三次元ベクトルで、モーメントを等価回転軸と回転矢印で呈示した場合を、図27(b)に、力とモーメントを各軸成分に分けて表示した場合を示す。なお、図28には、スレーブロボットに配置したモニタ用カメラからの画像を表示している。
【0193】
検討の結果、三次元ベクトルや等価回転軸での表現は、対象物に加える力やモーメントを直感的にイメージしやすい反面、各軸方向の成分の把握ができず、力やモーメントの作用線の微妙な方向の変化が認識しづらいという欠点があることが分かった。また、各軸成分で表示した場合には、その逆で各々の作用線の方向はわかり易いが、トータルでどのような力やモーメントが働いているかを直感的にイメージしづらく、また、表示される矢印の数が多くなってしまい、実画像に重ねて表示すると見づらくなることが分かった。そこで、図27(a)のような合成矢印を実画像上に重ねて表示し、さらに、図27(b)のような各軸矢印を同時に表示させることにより、両者の欠点を補うことができた。
【0194】
次に、モニタ用カメラ20Bを、スレーブロボット12Aにとりつけた場合の移動座標系について説明する。
【0195】
多自由度化に伴う空間情報の増加により、定点カメラ(モニタ用カメラ20B)からの俯瞰画像だけでは細かい状況が認識し難い場合もあり、手先カメラなどのロボットと共に運動する移動カメラシステムを設置したいという要求も出てくる。ここでは、移動カメラなどの移動座標系においても効果的な予測呈示が行えるよう手法の拡張を行う。固定座標系のみに基づいて設計すると、ロボット上に固定された移動座標系に対して制御系を記述し直す必要がある。そこで、指令値の生成部に座標変換行列を挿入して移動座標系に変換してスレーブロボットに伝達し、スレーブロボットの制御系も、運動と力の座標系をそれぞれ内部で変換することで移動座標系に構成し直す。座標変換によりめり込み量の解析には変更を生じないため、移動座標系を用いても同様に力の予測が可能である。更に、移動座標系での使用に合わせて、呈示法もそれに適したものに拡張する必要がある。
【0196】
手先カメラは、ロボットの動きと連動して基準座標系に対して視点・視線を時々刻々と変化させていくため、この映像の上にロボットの予測モデルにおけるスレーブロボットを重ねて表示するためには、画像を撮影した時点のカメラ座標系から見た予測モデルにおけるスレーブロボットの相対的な運動を算出して逐次描画しなければならない。
【0197】
そこで、自由状態においてはスレーブロボット側から画像取り込み時のロボットの手先位置姿勢の情報を送信させ、その情報を基にカメラの座標系を算出し、その座標系から見た運動予測画像を実画像に重ねて相対的に表示することにした(図28)。また、拘束状態においては、同様にしてカメラ座標系を算出し、ロボット手先に手先座標系で表した支援矢印を描くことにした(図27)。
【0198】
そして、予測呈示の効果を検討するため、いくつかの作業実験を行った。ここでは、平面に描かれた折れ線上をほぼ一定の接触力で倣うという作業目的を与えた拘束状態での作業実験の結果を示す。
【0199】
今回は、スレーブロボットの手先は環境と点接触をするものとし、オペレータには並進力の呈示だけを行って並進力の呈示の仕方による操作性の違いを比較した。実験はCase1:支援矢印を全く表示しない。Case2:実画像に重ねて合成成分を、画像外に各軸成分を表示(図29(a))、Case3:実画像上に作業平面に平行な成分を表示し、奥行き成分をその矢印の色で表示。
【0200】
更に画像外に奥行き成分を棒グラフで表示(図29(b))して作業に合わせた改良を行った物の3パターンで行った。オペレータ側とスレーブロボット側の間の情報伝達は、実際のインターネット回線を使用した。
【0201】
今回は、LANの環境での通信を行い、通信遅れは片道0.6 秒で大幅な変動はないものとした。実験は4人の被験者に対して行った。図30(a)〜図30(c)に被験者の倣い作業の軌跡を示す。また、図31に示す表にはCase1 を1 とした時の作業に要した時間(4人の平均値)を示した。
【0202】
これらの結果より、Case1 とその他二つを比較すると、支援矢印を表示することで目標軌跡との誤差も小さくなり作業時間も短くなっていることから、作業精度や作業効率が明らかに向上していることが見て取れる。また、Case2とCase3 を比較すると、Case3 の方が明らかに作業しやすい印象があり、全体的に見て作業時間が短く精度も向上する傾向にあることが分かった。
【0203】
提案する予測呈示手法では、力支援矢印のうち、拘束面に垂直な方向成分が予測接触力を表し、接線方向成分が拘束面に平行なすべり運動を表していることから、Case3 では平面への接触力とすべり運動の情報が分離され、それらを同時にうまく調整できたことが要因であると考えられる。
【0204】
以上より、予測呈示を行うことによって操作性を向上させることが可能である。作業の情報がある程度分かっていれば、それに応じて表示法を工夫することで、より適した支援が行えることが分かった。また、手先カメラなどの移動カメラシステムを用いると、ロボットの動きと連動して視点が変化していくため、環境との相対関係がつかみ易く、あたかも移動体を操縦しているかのような感覚で操作できる利点があることも分かった。
[第2の実施の形態]
次に、本発明の第2の実施の形態を説明する。本実施の形態は、前述した第1の実施の形態と同様の構成を有するので、同一の部分には同一の符号を付してその説明を省力し、異なる部分を説明する。なお、詳細は後述するが、第1の実施の形態は、上記のように、スレーブロボット12Aの指令された動作として、速度指令ベクトルを送信するようにしているが、本実施の形態では、位置及び姿勢の指令値を送信するものである点で大きく相違する。
【0205】
図32に示すように、本実施の形態では、ジョイスティックマスタでもよいが、これに代えて、マスタマニピュレータ66を備えている。マスタマニピュレータ66は、スレーブロボット12Aの動作を指令するためオペレータにより加わった力を、スレーブロボット12Aの位置及び姿勢xmに変換して出力する。
【0206】
マスタマニピュレータ66からのスレーブロボット12Aの位置及び姿勢xmは、直接予測モデル56に出力されると共に、通信回線22を介して、スレーブロボットコントローラ60に出力される。
【0207】
スレーブロボットコントローラ60は、マスタマニピュレータ66からのスレーブロボット12Aの位置及び姿勢xmから後述するスレーブロボット速度サーボ60eの出力を減算する減算器60aと、減算器60aの出力に、後述する比例ゲインKxを乗算する乗算器60bと、スレーブロボット12Aの手先が環境から受ける接触力(-fe)と上記のアドミッタンス係数Bとを乗算する乗算器60cと、乗算器60b及び乗算器60cの出力を加算する加算器60dと、加算器60dの出力を積分するスレーブロボット速度サーボ60eと、を備えている。
【0208】
そして、予測モデル56は、マスタマニピュレータ66からのスレーブロボット12Aの位置及び姿勢xmから、後述する積分器56cの出力を減算する減算器56aと、減算器56aの出力に比例ゲインKxを乗算する乗算器56bと、乗算器56bの出力を積分して予測画像生成器28に出力する積分器56cと、を備えている。
【0209】
上記のように、マスタマニピュレータ66は、スレーブロボット12Aの動作を指令するためオペレータにより操作がなされると、マスタマニピュレータ66における位置・姿勢を計測し、スレーブロボットの指令値を生成することとする。その際、一般には次式のようにマスタスレーブロボット間での適当なスケール変換を行う。
【0210】
【数21】

【0211】
ここで、は運動の変換を行うためのスケーリング行列である。
【0212】
スレーブロボット12Aの速度は例えば次式のようなダンピング制御を拡張した制御則によって決定し、外力に対する力制御系を構成する。
【0213】
【数22】

【0214】
ここで、Tは通信時間遅れ、Kxは自由状態においてマスタスレーブロボット間の運動を一致させるための比例ゲイン、Bはスレーブロボットの外力に対する逃げを規定するアドミッタンス行列である。
【0215】
スレーブロボット12Aの手先が完全に環境に拘束された場合には、
【0216】
【数23】

【0217】
より、
【0218】
【数24】

【0219】
が成り立ち、
【0220】
【数25】

【0221】
のように操作者の指令入力とスレーブロボットとの間の位置・姿勢のずれが、環境への接触力と比例関係になる。これらの関係はKxとBの値を調整することで規定でき、スレーブロボットに所望の特性をもたせることができる。
【0222】
また、速度指令モードと同様、力制御に用いる座標系やアドミッタンス行列を適切に設計することで、スレーブロボットには作業に合わせ合わせた自律的な特性を持たせることも可能である。
【0223】
なお、環境との間の法線方向の接触力及びスレーブロボットの拘束位置・姿勢が定常になるまでの過渡的な応答は、指令値xsdを入力として環境の動特性を含む形で決まるが、Kx、Bを適切に設計すれば容易に系を安定化できるため振動せず速やかに定常状態に向かうように特性を規定できる。一般には、力制御においては剛性の高い環境に対してはロボットの逃げの効果を大きく、剛性の低い柔らかい環境に対してはロボット側を硬くして当たるのが良いとされており、Bの値をレバーなどの付加的な操作器で調整できるようにしても良い。
【0224】
予測モデルにおけるスレーブロボットは、位置・姿勢の指令値xsd (t)をそのまま描画用いても良いし、スレーブロボットの運動特性をモデル化して指令値xsd (t)に対する応答をモデルとして表示しても良い。
【0225】
スレーブロボットの運動特性を含めた形のモデルを使用すると、特に自由状態において動特性による応答遅れを踏まえた形でスレーブロボットの応答を操作者に予測的に把握させることができる。速度指令モードの上記第1の実施の形態では、スレーブロボットのモデルに外力に対する逃げの項(力制御に関する項)を含め、遠隔側から遅れて伝達された環境との接触力を入力することで、モデルと見かけのロボットの間にズレを作り出し予測呈示が行なわれた。これは、一般に速度指令モードでは、位置・姿勢に無関係に、力と速度との関係から拘束状態が決まるため、力が伝達されるタイミングの違いによってモデルと実際のスレーブロボットの間の拘束位置・姿勢にズレを生じさせることが可能であるためである。
【0226】
しかし、位置指令モードにおける本実施の形態では、位置・姿勢と力との関係から最終的な拘束状態が決まるため、力情報を予測モデルに伝達してしまうと、応答のタイミングがずれるだけで、予測モデルにおけるスレーブロボットと実際のスレーブロボットの位置・姿勢は定常状態では一致してしまう。そのため、本実施の形態では、例えば、
【0227】
【数26】

【0228】
即ち、操作者が入力した指令値(目標値)をモデルとして表示する場合や、もしくは、
【0229】
【数27】

【0230】
即ち、スレーブロボットの運動特性も含める場合の一例等のようにスレーブロボットの力制御項を含まない形のモデルを用いている。このようにすることで、モデルの位置・姿勢xmodelと実際のスレーブロボット(遅延画像上での見かけのスレーブロボット)の位置・姿勢の間には、拘束方向に対しては環境との間に作用する外力に相当するずれを、非拘束方向には運動のズレを生じさせることができる。速度指令モードと同様に、スレーブロボットの予測モデルには操作者の操作履歴が遅れなく反映され、それに基づいて実際のスレーブロボットの拘束状態が決定されるため、前述のズレを予測支援矢印として表示することで操作者に対してスレーブロボットの拘束状態の予測を促すことができる。
【0231】
なお、予測支援矢印は速度指令モードと同様、過渡状態では非拘束方向への運動の予測値を含むが、スレーブロボットが完全に拘束されれば、純粋にスレーブロボットが発生する力・モーメントを示すことになる。
【0232】
予測支援矢印を用いた手法では、操作者は矢印の先端を自由にリアルタイムに操作できるため、拘束状態を実画面で確認しながら、拘束力を調整することも容易である。速度指令モード・位置指令モードともに、その操作感はあたかもロボットの先端に取り付けられた輪ゴム(ワイヤーバンド)を引っ張ってロボットを誘導するような形となる。(拘束方向にワイヤを伸ばせば拘束力が増し、非拘束方向成分を与えればロボットはすべり運動をする、というイメージとなる(図33)。
[第3の実施の形態]
次に、本発明の第3の実施の形態を説明する。本実施の形態は、前述した第1の実施の形態及び第2の実施の形態と同様の構成を有するので、同一の部分には同一の符号を付してその説明を省力し、異なる部分を説明する。なお、詳細は後述するが、第1の実施の形態は、上記のように、スレーブロボット12Aの指令された動作として、速度指令ベクトルを送信し、第2の実施の形態では、位置及び姿勢を送信するものであるが、本実施の形態では、速度指令ベクトルを送信するのか、位置及び姿勢を送信するのかをオペレータが選択可能にした点で大きく相違する。
【0233】
図34に示すように、本実施の形態のマスタ操作デバイスは、速度指令モードマスタ制御系16及び位置指令モードマスタ制御系66を備え、選択デバイス70により選択可能に構成されている。なお、速度指令モードマスタ制御系16は、第1の実施の形態におけるジョイスティックマスタ16(図3参照)と同様の構成であり、位置指令モードマスタ制御系66は、第2の実施の形態におけるマスタマニピュレータ66(図32参照)と同様の構成である。
【0234】
また、本実施の形態のスレーブロボットは、速度指令モードスレーブロボット制御系12及び位置指令モードスレーブロボット制御系60を備え、選択デバイス70により選択可能に構成されている。なお、速度指令モードスレーブロボット制御系12は、第1の実施の形態におけるスレーブロボットコントローラ12(図3参照)と同様の構成であり、位置指令モードスレーブロボット制御系60は、第2の実施の形態におけるスレーブロボットコントローラ60(図32参照)と同様の構成である。
【0235】
そして、本実施の形態における予測モデルは、速度指令モードロボットモデル26及び位置指令モードロボットモデル56を備え、選択デバイス70により選択可能に構成されている。なお、速度指令モードロボットモデル26は、第1の実施の形態における予測モデル26(図3参照)と同様の構成であり、位置指令モードロボットモデル56は、第2の実施の形態における予測モデル56(図32参照)と同様の構成である。
【0236】
オペレータは、作業内容や作業局面に合わせて、速度指令モードか位置指令モードかを適宜選択して作業支援に利用する。
[第4の実施の形態]
次に、本発明の第4の実施の形態を説明する。本実施の形態は、前述した第1の実施の形態〜第3の実施の形態の各々に適用可能であるが、以下、第1の実施の形態に適用した場合を説明する。
【0237】
本実施の形態では、拘束状態において、予測支援矢印の逆向きの力・モーメントをマスタ(ジョイスティックマスタ)16にフィードバックし、物理的に力として操作者に情報を知覚させるものである。
【0238】
このため、本実施の形態では、図35に示すように、マスタにバネによるセンタリング特性を持たせる代わりに、予測画像生成器28から、予測支援矢印の逆向きの力・モーメントをマスタ(ジョイスティックマスタ)16にフィードバックするように構成されている。
【0239】
通常、遅れて伝達された力をそのまま操作者にフィードバックすると操作ループに遅れが入り込み操作が不安定になりやすいことが知られるが、予測支援矢印はスレーブロボットの予測的な応答を反映したもので、操作者はこの呈示情報を見ながら常に操作を行うため、これに基づいてフィードバックする力覚情報を生成することで制御ループを不安定化するような位相の遅れが発生せず、安定な力フィードバックが可能である。
【0240】
予測支援矢印は運動と力の両方の予測情報を有しているため、スレーブロボットが環境に拘束を受けながら運動している間はその両方の予測情報を知覚でき、スレーブロボットが完全に拘束されて停止した準定常状態では、ロボットが環境に加える力覚情報が正確に伝えられることになる。
[変形例]
次に、種々の変形例を説明する。
【0241】
前述した第1の実施の形態における、速度指令モードにおいて、スレーブロボット12Aの手先近傍に配置したモニタ用カメラ20(移動カメラ視点)を用いる場合には、支援画像だけでなく、指令値についても合わせて逐次座標変換を行うことにより、モニタ画面に写っているロボットの手先座標系を基準とした相対指令値として入力することができるという利点がある。この場合には、現在の画面の状態を基準として、画面のロボット視点に対して、左右、上下、前後、回転といったように相対的に動作指示を与えられるため、環境に対するロボットの位置・姿勢を微調整したい時などにも非常に有効である。
【0242】
前述した第1の実施の形態のおける、速度指令モードにおいては、スレーブロボットの相対的な運動を指令するためロボット位置の微調整を行う場合などに有効である。しかし、自由度が高くなると、操作時の各自由度の指令値の分離が難しくなるため、スイッチ等により必要な自由度のみに限定して指令を入力できるようにすることで、操作精度を向上と操作の負担軽減を実現できる。
【0243】
また、予測支援矢印は三次元的な情報呈示手段であるため、予測力矢印及び予測モーメント矢印の表示法を状況に応じて切り換えできるのが望ましい。スイッチ等による選択式にすれば、各軸分離表示や合成ベクトル表示、回転矢印の等価回転軸・等価回転角度表示などを適宜切り換えて使用できる。また、スイッチでの切り換えにより、実際のスレーブロボットの手先や立体マーカなどをグラフィックで立体表示したものを、実画像に追加で重ね描きしてもよい。それにより、予測支援矢印などの三次元情報をスレーブロボットや立体マーカと対比して捕らえることができ、情報の奥行き感・方向感を増大させることが可能となる。
【0244】
更に、雲台やズーム機能付きのカメラを使用する場合には、モニタ画像の視点やズーム倍率をオペレータ側で変更することも可能である。
【0245】
また、前述した種々の実施の形態では、遅延画像内のスレーブロボットの手先を基点として予測支援矢印を描いている。そのため、スレーブロボットの動作周波数帯域に比べて通信遅れが大きい場合には、遅延画像からではスレーブロボットの状態把握が難しくなることがある。その場合には、速度指令モードにおいては速度指令のゲインを落とすことで、位置指令モードにおいてはマスタに粘性等を追加することで、操作周波数帯域を下げるようにする。
【0246】
更に、移動カメラ視点は通信を介して移動ロボットの遠隔操作を行う際の支援にも応用が可能である。移動カメラ視点では、常にロボットを起点としてその後の相対的な運動を呈示するため、マニピュレータタイプのロボットだけでなく、移動ロボットなどの相対的な移動指令を基本とするタイプのロボットともマッチングが良い。
【0247】
例えば、超音波や光などを利用した測距センサから得た壁面との間の距離情報からポテンシャル場を生成し、壁面から離れる方向に仮想的な反力を発生させることで、制御系内部でロボットと環境と間の物理的な拘束力と同等の扱いができることから、障害物回避を行いながら走行する移動ロボットの遠隔操作に対する予測呈示システムとして、効果的に応用することが可能である。
【0248】
一般に、移動ロボットの場合には指令が移動速度及び旋回速度となるため、速度指令モードを用いるのが都合が良い。また、支援情報だけでなく指令値についても前述のように座標変換によって移動カメラ座標系で入力できるようにすることで、あたかも移動ロボット上で操縦しているかのような相対的な指令入力が行える。
【0249】
移動ロボットでは一般に走行距離が長くなるとデッドレコニングの誤差が蓄積し、自己位置の認識にズレが生じてしまうという問題があるため、操作履歴を使用して移動ロボットの運動予測モデルの計算を行う際には注意が必要であるが、本手法では、ロボットを起点として往復の通信遅れ分だけの積算でロボットの未来の位置を生成するため、移動ロボットの速度が極端に速くなければ、予測に関して問題は生じない。
【図面の簡単な説明】
【0250】
【図1】ロボット遠隔操作システムを示す概略図である。
【図2】ロボット遠隔操作システムの構成図である。
【図3】ロボット遠隔操作システムのブロック図である。
【図4】(a)は、非拘束状態でのスレーブロボットの実際の状態と予測された状態を示し、(b)は、拘束状態でのスレーブロボットの実際の状態と予測された状態を示す図である。
【図5】(a)は、非拘束状態でのスレーブロボットの実際の状態と予測された状態を示し、(b)は、拘束状態でのスレーブロボットの実際の状態と予測された状態を示す他の図である。
【図6】実画像内の実際のスレーブロボットの手先からスレーブロボットの予測モデルの手先の方向へと伸びる、位置めり込み量(めり込み量の並進成分)に相当する矢印で、拘束状態では、運動予測モデルを表示した図である。
【図7】実画像内の実際のスレーブロボットの手先から矢印のみを表示した図である。
【図8】(a)は、X-Y-Z空間において矢印を表示した例を示し、(b)は、等価回転軸空間おいて矢印を表示した例を示した図である。
【図9】予測画像生成器の処理プログラムを示したフローチャートである。
【図10】ロボット遠隔操作システムの実験装置の構成を示す概略図である。
【図11】(a)〜(c)は、力の予測値と実際の接触力との関係を示す図であり、(a)は、速度指令ベクトルを、(b)は、実際の位置(y軸上)を、(c)は、力の予測値と実際の接触力との関係を示す図である。
【図12】(a)〜(c)は、力の予測値と実際の接触力との関係を示す図であり、(a)は、速度指令ベクトルを、(b)は、実際の位置(回転角)を、(c)は、力の予測値と実際の接触力との関係を示す図である。
【図13】作業中オペレータに呈示される操作画面を示す図である。
【図14】T = 0.38[s] における実験結果であり、(a)、(c) は、各々、作業中の手先位置とy軸方向の接触力を示し、(b)、(d) は、各々、手先姿勢と回転軸(α 軸)周りのモーメントを示す図である。
【図15】作業過程を示す図である。
【図16】オペレータに呈示されるモニタの予測呈示画像を示す図である。
【図17】T = 0.18[s] における作業中の予測接触矢印の軌跡を示す図である。
【図18】固定座標系での予測呈示例を示す図である。
【図19】(a)は、移動カメラシステムを示し、(b)は、非拘束状態における予測呈示例を示し、(c)は、拘束状態における予測呈示例を示す図である。
【図20】半自動キャリブレーションの作用の様子を説明する説明図である。
【図21】マーカの基準点の入力から回転角φとθを自動算出する原理を説明する説明図である。
【図22】実際に多自由度汎用マニピュレータPA10 にマーカを取り付け、それをズームアップしてキャリブレーションを行った結果を示す図である。
【図23】実際のロボットにモデル(ワイヤーフレーム表示)が正確に重なることが確認できたことを示す図である。
【図24】卓上型汎用マスタ入力デバイスを示す図である。
【図25】実験用スレーブロボットスレーブロボットとしての6自由度汎用マニピュレータPA10を示す図である。
【図26】6自由度汎用マニピュレータPA10に取り付け手先カメラを示した図であり、(a)は、先端に物をつかむことができるハンドを取り付けたものを、(b)は、ロボット先端に円柱状のツールがついたものを示している。
【図27】(a)は、力を三次元ベクトルで、モーメントを等価回転軸と回転矢印で呈示し、(b)は、力とモーメントを各軸成分に分けて表示した場合を示す図である。
【図28】運動予測モデルを示した図である。
【図29】(a)は、実画像に重ねて合成成分を、画像外に各軸成分を表示した例を示し、(b)は、実画像上に作業平面に平行な成分を表示し、奥行き成分をその矢印の色で表示。更に画像外に奥行き成分を棒グラフで表示した図である。
【図30】被験者の倣い作業の軌跡を示す図である。
【図31】実験結果を示す表である。
【図32】第2の実施の形態にかかるロボット遠隔操作システムの構成図である。
【図33】速度指令モード・位置指令モードがともに、その操作感はあたかもロボットの先端に取り付けられた輪ゴム(ワイヤーバンド)を引っ張ってロボットを誘導するような形となることを説明する説明図である。
【図34】第3の実施の形態にかかるロボット遠隔操作システムの構成図である。
【図35】第4の実施の形態にかかるロボット遠隔操作システムの構成図である。
【符号の説明】
【0251】
12 スレーブロボットコントローラ
12A スレーブロボット
14 ロボット遠隔制御装置
16 ジョイスティックマスタ
18 モニタ
20 モニタ用カメラ
24 予測情報呈示システム
26 予測モデル
28 予測画像生成器
16a 除算器
16b 乗算器
12a 乗算器
12b 加算器
12c 加算器
12d スレーブロボット速度サーボ
12e 積分器
12f 減算器
12g 乗算器
26a 乗算器
26b 加算器
26c 積分器
66 マスタマニピュレータ
60a 減算器
60b 乗算器
60c 乗算器
60d 加算器
60e スレーブロボット速度サーボ
56a 減算器
56b 乗算器
56c 積分器
16 速度指令モードマスタ制御系
66 位置指令モードマスタ制御系
12 速度指令モードスレーブロボット制御系
60 位置指令モードスレーブロボット制御系
26 速度指令モードロボットモデル
56 位置指令モードロボットモデル
70 選択デバイス

【特許請求の範囲】
【請求項1】
環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示装置であって、
環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、速度指令ベクトルを通信回線を介して送信する送信手段と、
前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信する受信手段と、
前記受信手段により受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断する判断手段と、
前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記速度指令ベクトルの履歴と前記通信回線を介して受信された力の情報及び遠隔作業ロボットの予測モデルに基づき、通信遅れ時間後に速度指令ベクトルが遠隔作業ロボットに到達するであろう時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢と、前記受信手段により受信された遠隔作業ロボットの位置・姿勢情報に基づく、前記通信回線を介して情報を通信することにより生ずる遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出する算出手段と、
前記算出手段により算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定する推定手段と、
前記推定された力の作用状態を呈示する呈示手段と、
を備えたロボット環境間力作用状態呈示装置。
【請求項2】
環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示装置であって、
環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、位置及び姿勢を通信回線を介して送信する送信手段と、
前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信する受信手段と、
前記受信手段により受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断する判断手段と、
前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記位置及び姿勢の指令値に基づき、通信遅れ時間後に該指令値が遠隔作業ロボットに到達するであろう時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢と、前記受信手段により受信された遠隔作業ロボットの位置・姿勢情報に基づく、前記通信回線を介して情報を通信することにより生ずる遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出する算出手段と、
前記算出手段により算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定する推定手段と、
前記推定された力の作用状態を呈示する呈示手段と、
を備えたロボット環境間力作用状態呈示装置。
【請求項3】
環境モデルを用いずに遠隔作業ロボットと環境との間の力の作用状態を呈示するロボット環境間力作用状態呈示装置であって、
環境との間に作用する力を検出すると共に、環境に作用するための部位の位置・姿勢を表す位置・姿勢情報及び該検出された力の情報を送信する遠隔作業ロボットへの動作指令値として、所定情報を通信回線を介して送信する送信手段と、
前記部位の位置・姿勢情報及び前記検出された力の情報を、通信回線を介して受信する受信手段と、
前記受信手段により受信された力の情報に基づいて、前記遠隔作業ロボットが環境に拘束されたか否かを判断する判断手段と、
前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、通信遅れ時間後に前記所定情報が遠隔作業ロボットに到達するであろう時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢と、前記受信手段により受信された遠隔作業ロボットの位置・姿勢情報に基づく、前記通信回線を介して情報を通信することにより生ずる遅れ時間だけ遅れて操作側に伝達された実際の遠隔作業ロボットの前記部位の第2の位置・姿勢と、のずれ量を算出する算出手段と、
前記算出手段により算出されたずれ量に基づいて、前記部位と環境との間に作用する現在時刻から前記遅れ時間後の力の作用状態を推定する推定手段と、
前記推定された力の作用状態を呈示する呈示手段と、
を備え、
前記送信手段は、速度指令ベクトルを送信する第1のモードと、位置及び姿勢を送信する第2のモードと、を有し、
前記算出手段は、前記速度指令ベクトルの履歴と前記通信回線を介して受信された力の情報及び遠隔作業ロボットの予測モデルに基づき、通信遅れ時間後に速度指令ベクトルが遠隔作業ロボットに到達するであろう時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢を用いる第1のモードと、前記位置及び姿勢の指令値に基づき、通信遅れ時間後に指令値が遠隔作業ロボットに到達するであろう時刻における前記遠隔作業ロボットの前記部位の状態を予測した第1の位置・姿勢を用いる第2のモードと、を有し、
前記第1のモード及び第2のモードを切り替える切り替え手段を備えた
ことを特徴とするロボット環境間力作用状態呈示装置。
【請求項4】
前記算出手段は、前記速度ベクトルを前記遅れ時間の2倍の時間積分することにより、前記ずれ量を算出することを特徴とする請求項1又は請求項3記載のロボット環境間力作用状態呈示装置
【請求項5】
前記受信手段は、前記環境を撮影する撮影手段からの環境の撮影情報を受信し、
前記呈示手段は、前記受信手段により受信された撮影情報に基づいて、前記環境を更に呈示する請求項1乃至請求項4の何れか1項に記載のロボット環境間力作用状態呈示装置。
【請求項6】
前記呈示手段は、前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断されない場合には、少なくとも前記第1の位置を含む前記遠隔作業ロボットの所定領域と前記環境とを対応して呈示し、前記判断手段により前記遠隔作業ロボットが環境に拘束されたと判断された場合、前記力の作用状態と前記環境とを対応して呈示する請求項5記載のロボット環境間力作用状態呈示装置。
【請求項7】
前記撮影手段は、前記環境に対して固定された第1の撮影手段及び前記遠隔作業ロボットに対して固定された第2の撮影手段の少なくとも一方を備えている請求項5又は請求項6の何れか1項に記載のロボット環境間力作用状態呈示装置。
【請求項8】
前記撮影手段が前記第1の撮影手段及び前記第2の撮影手段を備えており、
前記呈示手段は、前記第1の撮影手段及び前記第2の撮影手段からの双方の撮影情報に基づいて、前記環境を呈示する請求項7記載のロボット環境間力作用状態呈示装置。
【請求項9】
前記力の作用状態は、力の方向とモーメントの少なくとも一方である請求項1乃至請求項8の何れか1項に記載のロボット環境間力作用状態呈示装置。
【請求項10】
力を加えることにより前記遠隔作業ロボットの動作を指令するための指令手段と、
前記推定手段により推定された力の作用状態に基づいて、該力の作用状態とは逆の作用状態を前記指令手段に作用させる作用手段と、
を備えた請求項1乃至請求項9の何れか1項に記載のロボット環境間力作用状態呈示装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate

【図31】
image rotate

【図32】
image rotate

【図33】
image rotate

【図34】
image rotate

【図35】
image rotate


【公開番号】特開2006−977(P2006−977A)
【公開日】平成18年1月5日(2006.1.5)
【国際特許分類】
【出願番号】特願2004−180270(P2004−180270)
【出願日】平成16年6月17日(2004.6.17)
【新規性喪失の例外の表示】特許法第30条第1項適用申請有り 2004年3月8日 ロボティクスシンポジア運営委員会 第9回ロボティクスシンポジア実行委員会発行の「第9回 ロボティクスシンポジア予稿集」に発表
【出願人】(304023318)国立大学法人静岡大学 (416)
【Fターム(参考)】