説明

遠隔操作支援装置

【課題】対象物の位置や姿勢が事前に判らない場合においても、対象物の動作シーケンスを指示して、最適な動作シーケンスを決定する。
【解決手段】三次元測定機で測定した点群データに基づいて対象物を三次元認識し、当該対象物の形状と位置と姿勢と4を特定する三次元認識部と、特定した対象物の位置と形状と姿勢とが反映された対象物モデル表現を生成する対象物モデル表現部と、生成した対象物モデル表現を表示する表示部と、外部からの指示情報に基づいて、前記表示部で表示されている対象物モデルからロボットで操作する操作対象モデルを特定し、さらに当該操作対象モデルのロボットによる動作シーケンスを生成するロボット動作シーケンス指示部と、指示した動作シーケンスに基づいて前記ロボットの最適な動作シーケンスを決定し、決定した動作シーケンスを前記表示部に出力するロボット動作シーケンス決定部を備えている。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は遠隔操作支援装置に関し、特に、原子力設備の原子炉内などのように人間が容易に立ち入ることができない環境下に配置された作業用ロボットを遠隔操作する方法に適用して好適なものである。
【背景技術】
【0002】
ロボットは、自動車製造や電気・電子機器製造を中心とした製造業において、広く利用されている。しかし、こうした製造用のロボットは、予め、決められた連続作業、例えば、同一部品の把持、移動、組立を主とした用途に限定されて利用されている。
一方、原子力発電所等の人間が立ち入ることができない環境では、形状や大きさの異なる部品の組立作業等を行うために、熟練者が、複数のカメラ映像を利用して、部品の位置及び姿勢を把握しながら、ロボットを遠隔操作しているのが現状である。
【0003】
一方、定期的に行われる同一作業であっても、前回存在しなかった障害物が存在したり、保守対象である装置の一部が壊れているなど予期せぬ状況の発生にも対処できるようにするために、例えば、特許文献1には、作業環境中の物体の位置姿勢やロボットの操作に必要な位置決めに関する情報を環境モデルとして記憶し、カメラが捉えた映像と環境モデルから得られる位置決めに関する情報を図形化して表示した画像とを合成した合成画像を表示することで、手動操作を誘導できるようにする方法が開示されている。
【特許文献1】特開2003−311661号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に開示された従来例の方法では、作業環境中の物体の位置姿勢やロボットの操作に必要な位置決めに関する情報を環境モデルとして用意する必要があるため、遠隔操作される対象の配置が事前に判っている必要があるだけでなく、対象物が環境モデルに登録された所定の位置に存在していることが前提となっており、遠隔操作される対象の状態が操作時にも同様に保たれている必要がある。
【0005】
このため、特許文献1に開示された従来例の方法では、対象物の位置が初期の位置と異なっていたり、操作時に対象物の位置が変わったりすると、対象物の遠隔操作ができなくなる上に、対象物自体が新しいものである場合や対象物を移動させる動作シーケンスが決定されていない場合には適用することができないという未解決の課題がある。
そこで、本発明は上記従来例の未解決の課題に着目してなされたものであり、対象物の位置や姿勢が事前に判らない場合においても、対象物の動作シーケンスを指示して、最適な動作シーケンスを決定することが可能な遠隔操作支援装置を提供することを目的としている。
【課題を解決するための手段】
【0006】
上記目的を達成するために、請求項1に係る遠隔操作支援装置は、三次元測定機で測定した点群データに基づいて対象物を三次元認識し、当該対象物の形状と位置と姿勢とを特定する三次元認識部と、該三次元認識部で特定した対象物の形状と位置と姿勢とが反映された対象物モデル表現を生成する対象物モデル表現部と、該対象物モデル表現部で生成した対象物モデル表現を表示する表示部と、外部からの指示情報に基づいて、前記表示部で表示されている対象物モデルからロボットで操作する操作対象モデルを特定し、さらに当該操作対象モデルのロボットによる動作シーケンスを生成するロボット動作シーケンス指示部と、該ロボット動作シーケンス指示部で指示した動作シーケンスに基づいて障害物を回避する前記ロボットの動作シーケンスを決定し、決定した動作シーケンスを前記表示部に出力するロボット動作シーケンス決定部とを備えたことを特徴としている。
【0007】
また、請求項2に係る遠隔操作支援装置は、請求項1に係る発明において、前記ロボット動作シーケンス決定部は、前記三次元認識部で認識した対象物の形状と位置と姿勢とに基づいて前記生成された動作シーケンスの移動軌跡上の障害物を探索し、探索した障害物を回避する動作シーケンスを決定するように構成されていることを特徴としている。
また、請求項3に係る遠隔操作支援装置は、請求項1又は2に係る発明において、ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現部と、三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を前記表示部の同一画面上に三次元的に表示させる三次元画像生成部とを備えることを特徴としている。
【0008】
また、請求項4に係る遠隔操作支援装置は、請求項1乃至3のいずれか1項に係る発明において、前記三次元認識部で認識された前記対象物モデル表現上の対象物座標系における点を、基準座標系の三次元座標に変換する対象物座標変換部と、前記ロボットの各軸の状態を観測することにより得られた前記ロボットモデル表現上のロボット座標系における点を、前記基準座標系の三次元座標に変換するロボット座標変換部と、基準座標系における前記対象物モデル表現上の点の三次元座標および前記ロボットモデル表現上の点の三次元座標に基づいて、前記対象物と前記ロボットとの近接状態を判定する近接状態判定部とを備え、ロボット動作シーケンス決定部は、前記近接状態判定部の判定結果に基づき障害物を回避する動作シーケンスを決定することを特徴としている。
【発明の効果】
【0009】
本発明によれば、対象物の現在の状態即ち位置及び姿勢が反映された三次元的なモデルを生成し、そのモデルを表示部の同一画面上に表示させることが可能となる。このため、表示部に表示されたモデルに基づいてロボットで操作する操作対象モデルを特定し、オペレータが指示した動作シーケンスに基づいてロボットの動作シーケンスを決定するので、熟練者を要することなく、最適な動作シーケンスを決定することができるという効果が得られる。
【0010】
また、ロボット動作シーケンス決定部で、三次元認識部で認識した三次元データに基づいて指示された動作シーケンスの移動軌跡上の障害物を探索し、探索した障害物を回避する動作シーケンスを決定することにより、オペレータが障害物を回避する複雑な動作シーケンスを指示する必要がなく、熟練者でなくともロボットの遠隔操作を容易に行うことができる。
【発明を実施するための最良の形態】
【0011】
以下、本発明の実施形態に係る遠隔操作支援装置について図面を参照しながら説明する。
図1は、本発明の第1実施形態に係る遠隔操作支援装置の概略構成を示すシステム構成図である。
図1において、保守や点検などの作業が行われる三次元空間の作業エリアには、対象物11を操作するロボット12およびロボット12にて操作される対象物11が配置されている。なお、対象物11およびロボット12が配置されている作業エリアは、放射線環境下や宇宙環境下などの人間が容易に立ち入ることができない場所に設置することができる。また、ロボット12とは、マニュピュレータなどを含めた遠隔操作で使用される機械装置全般を言う。
【0012】
ここで、ロボット12には、対象物11を把持するグリッパを設け、そのグリッパを三次元空間の任意の位置に移動させたり、任意の方向に回転させたりするアームに連結されている。そして、アームは関節点を介して互いに連結され、各アームはX軸、Y軸およびZ軸を中心として回転自在に構成されている。そして、各アームには軸を設定し、各軸には三次元座標系を設定し、各軸の状態を観測することで、各アームの位置を特定することができる。
【0013】
一方、ロボット12にオペレータが指令を出すエリアには、ロボット12の遠隔操作を支援する遠隔操作支援装置21が設置されている。
なお、作業環境に設定される三次元座標系を基準座標系、ロボットに設定されるロボット基準の三次元座標系をロボット座標系、それぞれの対象物に設定される対象物基準の三次元座標系を対象物座標系として、以下説明する。
【0014】
ここで、遠隔操作支援装置21には、三次元認識部21a、対象物モデル表現部21b、ロボットモデル表現部21c、ロボット動作シーケンス指示部21d、ロボット動作シーケンス決定部21e、対象物座標変換部21f、ロボット座標変換部21g、近接状態判定部21h、三次元画像生成部21iおよびロボット制御部21jが設けられるとともに、対象物11の形状を三次元的に測定するレーザスキャナ13、対象物11の形状、位置および姿勢を認識するための情報である対象物情報が格納された三次元認識データベース16、ロボット12の各軸の状態を検出する状態検出部19、対象物11やロボット12の現在の状態などを表示する表示部としての表示装置22、環境データ格納部23、対象物座標格納部24、ロボット座標格納部25、対象物変換行列格納部26およびロボット変換行列格納部27が接続されている。以下、各部について詳細に説明する。
【0015】
三次元認識部21aは、レーザスキャナ13を操作してレーザ光にて対象物11を走査することにより、対象物11上の点群データを読込み、点群データを基準座標系の三次元座標に変換し、環境データP1として環境データ格納部23に格納する。環境データ格納部23に格納された環境データP1に基づき、三次元認識データベース16に格納された対象物情報を参照し、対象物11の特徴点等から対象物11の形状、位置及び姿勢を特定する。特定された対象物11の基準座標系における特徴点の三次元座標と、三次元認識データベース16に格納されている対象物11の特徴点における対象物座標系の三次元座標と、を用いて対象物11を対象物座標系から基準座標系へ変換する座標変換行列を算出する。そして、算出した座標変換行列を対象物変換行列格納部26に格納する。なお、三次元認識データベース16には、対象物座標系による対象物モデル表現や、対象物座標系による対象物モデル表現上の点の三次元座標等が、対象物情報として格納されている。
【0016】
三次元認識部21aにより算出された座標変換行列は、回転変換要素と並行移動要素からなる4×4の変換行列に対応させることができ、例えば、三次元認識データベース16に格納されている対象物座標系に予め配置された対象物11の対象物モデル表現を基準座標系の対象物11の位置や姿勢に合わせることができる。図2は、三次元認識部21aによって求められた変換行列を用いた対象物上の点の変換結果を示す図である。図2において、対象物変換行列格納部26に格納される変換行列には、回転変換要素R00〜R22と並行移動要素TX、TY、TZを設定することができる。そして、三次元認識データベース16に格納されている対象物11の対象物座標系における三次元座標に変換行列を乗算することで、対象物11を基準座標系の三次元座標に変換することができる。
【0017】
対象物モデル表現部21bは、三次元認識部21aで特定した対象物11の形状と位置と姿勢、対象物変換行列格納部26に格納されている変換行列、三次元認識データベース16に格納されている対象物情報を用いて、対象物11の形状と位置と姿勢とが反映された対象物モデル表現を生成し、生成した対象物モデル表現の画像情報を表示装置22に送出する。なお、対象物モデル表現には、例えば、コンピュータグラフィクスにて一般的に使用されるサーフィスモデルなどを用いることができる。
【0018】
ロボットモデル表現部21cは、ロボット状態検出部19で検出したロボット12の各軸の状態検出データに基づいてロボット12の動作状態が反映されたロボットモデル表現を生成する。
具体的には、ロボットモデル表現を生成するために必要なアームなどのロボット12の構成要素の寸法を遠隔操作支援装置21に予め登録しておき、ロボット12の各軸の状態を状態検出部19で取得し、ロボット12の各軸1、2、・・・ごとに各軸座標系の変換行列を求め、ロボット変換行列格納部27に格納する。さらに、ロボット12の移動しない台座等の3点以上の三次元座標をレーザスキャナ13で計測し、その計測点の基準座標系における三次元座標とロボット座標系における三次元座標とを用いて座標変換行列を算出し、ロボット座標系と基準座標系との変換行列もロボット変換行列格納部27に格納する。なお、ロボット12の各軸の状態検出部19としては、ロボット12の各軸の角度を用いることができ、定期的にロボット12の各軸の現在の軸角度を読み出し、各軸座標系の変換行列(軸1の変換行列、軸2の変換行列、・・・、先端の変換行列)に変換して保存することができる。そして、ロボット12の状態検出部19の状態検出データおよびロボット12の構成要素寸法に基づいて、ロボット12の実際の動きが反映されたロボット12と同様な形状を構築することにより、ロボット12の動作状態が反映されたロボット座標系におけるロボットモデル表現と基準座標系におけるロボットモデル表現とを生成する。
【0019】
図3は、遠隔操作支援装置に適用されるロボット座標系の一例を示す図である。
図3において、ロボット12の三次元座標系は、ロボット12の各軸1、2、・・・ごとに設けることができる。例えば、ロボット12の基準座標系であるロボット座標系はX0・Y0・Z0座標系、軸1の座標系はX1・Y1・Z1座標系、軸2の座標系はX2・Y2・Z2座標系、・・・、先端の座標系はX5・Y5・Z5座標系とすることができる。そして、ロボット12の各軸間の距離d1、d2、・・・を設定することができる。なお、ロボットモデル表現には、例えば、コンピュータグラフィクスにて一般的に使用されるサーフィスモデルなどを用いることができる。
【0020】
ロボット動作シーケンス指示部21dは、マウス、キーボード等の図示しないデータ入力部24を使用して入力される指示情報に基づいて、後述する三次元画像生成手段21iにより表示装置22に表示されている対象物11からロボット12で操作する操作対象モデルを特定し、特定した操作対象モデルの動作シーケンスを生成する。
図4は、ロボット動作シーケンス指示部21dの動作シーケンス指示処理のフローチャートである。この動作シーケンス指示処理は、先ず、ステップS11で、対象物モデル表現部21bで生成した対象物モデル表現の表示情報を後述する三次元画像生成手段21iにて表示装置22に出力して、三次元認識された全ての対象物モデル表現を表示装置22に表示する。
【0021】
次いで、ステップS12に移行して、例えばマウスのドラッグアンドドロップ操作において、カーソルが合わせられドラッグ操作がなされた対象物モデル表現を操作対象となる対象物モデル表現と特定し、ドロップ操作によって移動が完了した対象物モデル表現の位置を操作対象物モデル表現の移動位置と特定する旨のガイダンス情報を表示装置22に出力する。
【0022】
次いで、ステップS13に移行して、操作対象モデル表現が特定されたか否かを判定する。この判定は、例えばマウスによってカーソルが所望の対象物モデル表現の表示位置に合わされ、当該対象物モデル表現がドラッグされた場合には、当該対象物モデルが操作対象物モデル表現として特定されたと判定する。
このステップS13の判定結果が、操作対象モデル表現が特定されていない場合にはステップS12に戻り、操作対象モデル表現が特定されている場合にはステップS14に移行して、操作対象物モデル表現の移動位置が入力されたか否かを判定する。この判定は、例えばマウスによってドラッグ操作された操作対象物モデル表現がドロップ操作された場合には、操作対象物モデル表現の移動位置が入力されたと判定する。
【0023】
前記ステップS14の判定結果が、移動位置が入力されていない場合には前記ステップS12に戻り、移動位置が入力されているときにはステップS15に移行する。ステップS15では、操作対象物モデル表現がステップS11にて表示されていた位置に基づき始点位置を、操作対象物モデル表現がステップS14にて入力された移動位置に基づき終点位置を求め、求めた始点位置および終点位置から操作対象物モデル表現の移動軌跡を生成する。例えば、ロボット12のグリッパによる対象物の把持位置が既定されている場合には、ステップS11にて表示されていた操作対象物モデル表現上の把持位置を始点位置とし、ステップS14にて入力された移動位置にある操作対象物モデル表現上の把持位置を終点位置として求め、その始点位置および終点位置を結ぶ直線を移動軌跡として生成する。また、操作対象物モデルの把持位置は、マウスによるカーソルが合わせられ、クリックされた位置を把持位置と設定できるようにしても良い。なお、生成する移動軌跡は直線に限定されず、例えば円弧や円弧と直線の組合せとしても良いし、操作対象物モデル表現の移動位置を特定するためのドラッグ操作の軌跡をそのまま移動軌跡として生成しても良い。
【0024】
次いで、ステップS16に移行し、例えば矢印でなる移動軌跡表示情報を操作画面の表示情報に書込み、次いでステップS17に移行して、操作画面の表示情報を表示装置22に出力してから処理を終了する。
ロボット動作シーケンス決定部21eは、ロボット動作シーケンス指示部21dで指示された操作対象モデルの動作シーケンスに基づいて操作対象モデルを障害物の回避動作を行いながら移動させる最適な動作シーケンスを決定する。
【0025】
図5は、ロボット動作シーケンス決定部21eの動作シーケンス決定処理のフローチャートである。この動作シーケンス決定処理は、先ず、ステップS21で、前述した動作シーケンス指示処理で生成した移動軌跡の点データを読み込む。
次いで、ステップS24に移行して、読み込んだ移動軌跡の始点位置を最初のチェック位置に設定し、次いでステップS25に移行して、後述する近接状態判定部21hの判定結果が、チェック位置において対象物が近接状態であるか否かを判定し、近接状態であるときには、ステップS26に移行して、現在チェック位置の下方向に障害物が存在するか否かを判定し、下方向に障害物が存在する場合にはステップS27に移行して、作業環境の最高高さ位置に到達しているか否かを判定し、最高高さ位置に達していないときにはステップS28に移行して、現在チェック位置より上側に仮チェック位置を設定してから後述するステップS43に移行する。
【0026】
また、前記ステップS26の判定結果が、下方向に障害物が存在しない場合であるとき及び前記ステップS27の判定結果が、最高高さ位置に達した場合であるときには、ステップS29に移行する。このステップS29では、現在チェック位置の上方向に障害物が存在するか否かを判定し、上方向に障害物が存在する場合には、ステップS30に移行して、作業環境の最低高さ位置に到達したか否かを判定し、最低高さ位置に到達していない場合にはステップS31に移行して、現在のチェック位置の下側に仮チェック位置を設定してから後述するステップS43に移行する。
【0027】
さらに、前記ステップS29の判定結果が、上方向に障害物が存在する場合であるとき及びステップS30の判定結果が最低高さ位置に到達した場合であるときにはステップS32に移行する。このステップS32では、現在チェック位置の左方向に障害物が存在するか否かを判定し、左方向に障害物が存在する場合にはステップS33に移行して、現在チェック位置の右側に仮チェック位置を設定してから後述するステップS43に移行する。
【0028】
また、前記ステップS32の判定結果が、左方向に障害物が存在しない場合にはステップS34に移行して、現在チェック位置の左側に仮チェック位置を設定してから後述するステップS43に移行する。
さらに、前記ステップS25の判定結果が、近接状態ではないときには、ステップS35に移行し、現在のチェック位置が実移動軌跡上であるか否かを判定し、実移動軌跡上ではないときにはステップS36に移行する。このステップS36では、現在チェック位置の下方向に障害物が存在するか否かを判定し、下方向に障害物が存在する場合にはステップS37に移行して、現在チェック位置から実移動軌跡と平行な直線上の終点側に仮チェック位置を設定してから後述するステップS43に移行する。
【0029】
また、前記ステップS36の判定結果が、下方向に障害物が存在しない場合にはステップS38に移行して、現在チェック位置の上方向に障害物が存在するか否かを判定し、上方向に障害物が存在する場合には前記ステップS37に移行し、上方向に障害物が存在しない場合にはステップS39に移行する。
このステップS39では、現在チェック位置の右方向に障害物が存在するか否かを判定し、右方向に障害物が存在する場合には前記ステップS37に移行し、右方向に障害物が存在しない場合にはステップS40に移行する。
【0030】
このステップS40では、現在チェック位置の左方向に障害物が存在するか否かを判定し、左方向に障害物が存在する場合には前記ステップS37に移行し、左方向に障害物が存在しない場合にはステップS41に移行し、現在チェック位置から実移動軌跡への垂線の実移動軌跡に近い側に仮チェック位置を設定してから後述するステップS43に移行する。
【0031】
また、前記ステップS35の判定結果が、現在チェック位置が実移動軌跡上であるときには、ステップS42に移行して、現在チェック位置より終点よりに仮チェック位置を設定してからステップS43に移行する。
ステップS43では、ステップS28、S31、S33、S34、S37、S41及びS42で設定した仮チェック位置をチェック位置に設定してからステップS44に移行し、設定されたチェック位置が終点位置であるか否かを判定し、終点位置ではないときには前記ステップS25に戻り、終点位置であるときにはステップS45に移行して、設定されたチェック位置を結んで動作シーケンスを決定してRAM等のメモリに記憶し、決定された動作シーケンスの表示情報を操作画面の画像情報に書込んで表示装置22に表示してから動作シーケンス決定処理を終了する。
【0032】
対象物座標変換部21fは、三次元認識データベース16に格納されている対象物モデル上の対象物座標系における各点の三次元座標を、対象物変換行列格納部26に格納されている座標変換行列を用いることにより、基準座標系の三次元座標に変換し、対象物座標格納部24に格納する。たとえば、対象物座標格納部24は、対象物11上の各点についての基準座標系の三次元座標A2、B2、C2、・・・が格納されることとなる。
【0033】
ロボット座標変換部21gは、ロボットモデル表現部21cにて生成されたロボットモデル上のロボット座標系における各点の三次元座標を、ロボット変換行列格納部25に格納された変換行列を用いて、基準座標系の三次元座標に変換し、ロボット座標格納部25に格納する。例えば、ロボット座標格納部25には、ロボット12上の各点についての基準座標系の三次元座標A1、B1、C1、D1、・・・が格納されることとなる。
【0034】
例えば、図3における軸1の座標系の点cは、以下の(1)式にて基準座標系の三次元座標に変換することができる。
[点cの基準座標系の三次元座標]=(ロボット12のロボット座標系の変換行列)×(軸1の座標系の変換行列)×(軸1上の点cの座標) ・・・(1)
また、例えば、軸2の座標系の点bは、以下の(2)式にて基準座標系の三次元座標に変換することができる。
【0035】
[点bの基準座標系の三次元座標]=(ロボット12のロボット座標系の変換行列)×(軸1の座標系の変換行列)×(軸2の座標系の変換行列)×(軸2上の点bの座標)
・・・(2)
また、例えば、先端の座標系の点aは、以下の(3)式にて基準座標系の三次元座標に変換することができる。
【0036】
[点aの基準座標系の三次元座標]=(ロボット12のロボット座標系の変換行列)×(軸1の座標系の変換行列)×(軸2の座標系の変換行列)×(軸3の座標系の変換行列)×(軸4の座標系の変換行列)×(先端の座標系の変換行列)×(軸5上の点aの座標) ・・・(3)
近接状態判定部21hは、対象物11の基準座標系における三次元座標およびロボット12の基準座標系における三次元座標に基づいて、対象物11とロボット12との近接状態を判定することができる。
【0037】
図6は、本発明の一実施形態に係るロボットと対象物との近接状態の判定処理を示すフローチャートである。近接状態判定部21hは、ロボット12上の点の三次元座標をロボット座標格納部25から取得するとともに(ステップS51)、対象物11上の点の三次元座標を対象物座標格納部24から取得する(ステップS52)。そして、近接状態判定部21hは、ロボット12上の座標点と対象物11上の座標点とのすべての組み合わせについて、ロボット12上の座標点と対象物11上の座標点との間の距離を算出し(ステップS53)、ロボット12上の座標点と対象物11上の座標点との間の距離が最小距離Lsより小さいか否かを判断する(ステップS54)。なお、最小距離Lsの初期値は、充分大きな値が与えられているものとする。
【0038】
そして、ロボット12上の座標点と対象物11上の座標点との間の距離が最小距離Lsより小さいときにはその距離を新たな最小距離Lsとして記憶し、さらに係る場合の座標点の位置を記憶し(ステップS55)、次いで座標点のすべての組み合わせをチェックしたか否かを判定し(ステップS56)、ロボット12上の座標点と対象物11上の座標点との間の距離が最小距離Lsより大きいときには直接座標点のすべての組み合わせをチェックしたか否かを判定する(ステップS56)。
【0039】
そして、チェックしていない座標点の組み合わせが存在するときには前記ステップS51に戻り、座標点のすべての組み合わせのチェックを完了したときには記憶されている最小距離Lsが予め設定された近接判定閾値Lth以下であるか否かを判定する(ステップS57)。
この判定結果が、Ls>Lthであるときには、ロボット12が対象物11に近接していないと判断し(ステップS58)、Ls≦Lthであるときには、最短対象物11上の座標点との間で最小の距離となるロボット12上の座標点が先端に位置するかどうかを判断する(ステップS59)。
【0040】
そして、近接状態判定部21hは、対象物11上の座標点との間で最小の距離となるロボット12上の座標点が先端に位置しない場合、ロボット12が対象物11と衝突する可能性があると判断し(ステップS60)、対象物11上の座標点との間で最小の距離となるロボット12上の座標点が先端に位置する場合、ロボット12が対象物11に近接していると判断する(ステップS61)。
【0041】
なお、ロボット12と対象物11とが接近または衝突する可能性があると近接状態判定部21hにて判断された場合、遠隔操作支援装置21は、対象物11とロボット12との近接状態を表示装置36に表示させることもできる。
三次元画像生成部21iは、対象物モデル表現部21bにて基準座標系における対象物モデル表現およびロボットモデル表現部21cにて基準座標系におけるロボットモデル表現が生成されると、三次元空間の指定された視点から見た対象物モデル表現およびロボットモデル表現を三次元的に示す二次元画像を生成し、表示装置22の同一画面上に重ねて表示させる。なお、対象物モデル表現およびロボットモデル表現を表示装置22に表示させる場合、OpenGLなどのグラフィックスソフトウェアを利用することで、任意の視点から見た対象物モデル表現およびロボットモデル表現を同一画面上に重ねて表示させることができる。
【0042】
この三次元画像生成部21iは、図7に示す画像生成処理を実行する。この画像生成処理は、先ず、ステップS1で、前記対象物モデル表現部21bで認識した最初の対象物モデル表現データを読込み、次いでステップS2に移行して、読込んだ対象物モデル表現データを表示装置22に表示する操作表示画面の表示情報に書込む表示データ書込処理を行い、次いでステップS3に移行して、表示データ書込処理を行なっていない対象物モデル表現が存在するか否かを判定し、表示データ書込処理を行なっていない対象物モデル表現が存在する場合には、ステップS4に移行して、該当する対象物モデル表現の1つを読込んでから前記ステップS2に移行し、表示データ書込処理を行なっていない対象物モデル表現が存在しない場合には、ステップS5に移行して、操作表示画面の表示情報を表示装置22に出力してからステップS8に移行する。
【0043】
ステップS8では、ロボットモデル表現部21cで生成した基準座標系におけるロボットモデル表現を操作表示画面の表示情報に書込む表示データ書込処理を行ない、次いでステップS9に移行して、操作表示画面の表示情報を表示装置22に出力してから処理を終了する。
また、ロボット制御部21jは、図8に示すロボット制御処理を実行する。このロボット実行処理は、先ずステップS71で、前述した動作シーケンス決定処理で決定された動作シーケンスの基準座標系における三次元座標値をロボット12のロボット座標系の座標値に変換するための変換行列を生成する。この変換行列は、予め算出されたロボット12のロボット座標系を基準座標系に位置合わせするための変換行列の逆行列である。この逆行列を算出することで、基準座標系の座標値をロボット12のロボット座標系に位置合わせする変換行列を生成できる。
【0044】
次いで、ステップS72に移行して、前述した動作シーケンス決定処理で設定された動作シーケンスの各チェック位置の基準座標系における三次元座標値を読込み、次いでステップS73に移行して、読込んだ各チェック位置の三次元座標値にステップS71で算出した変換行列を乗算することにより、ロボット12のロボット座標系の座標値を算出してからステップS74に移行する。
【0045】
このステップS74では、上記ステップS73で変換したロボット12のロボット座標系における三次元座標値に基づいて動作シーケンスに沿った操作指令をロボット12に送信してからロボット制御処理を終了する。
なお、三次元認識部21a、対象物モデル表現部21b、ロボットモデル表現部21c、ロボット動作シーケンス指定部21d、ロボット動作シーケンス決定部21e、対象物座標変換部21f、ロボット座標変換部21g、近接状態判定部21h、三次元画像生成手段21iおよびロボット制御部21jは、これらで実行される処理を遂行させる命令が記述されたプログラムをコンピュータに実行させることにより実現することができる。
【0046】
そして、このプログラムをCD−ROMなどの記憶媒体に記憶しておけば、遠隔操作支援装置21のコンピュータに記憶媒体を装着し、そのプログラムをコンピュータにインストールすることにより、三次元認識部21a、対象物モデル表現部21b、ロボットモデル表現部21c、ロボット動作シーケンス指定部21d、ロボット動作シーケンス決定部21e、対象物座標変換部21f、ロボット座標変換部21g、近接状態判定部21h、三次元画像生成手段21iおよびロボット制御部21jで行われる処理を実現することができる。
【0047】
また、三次元認識部21a、対象物モデル表現部21b、ロボットモデル表現部21c、ロボット動作シーケンス指定部21d、ロボット動作シーケンス決定部21e、対象物座標変換部21f、ロボット座標変換部21g、近接状態判定部21h、三次元画像生成手段21iおよびロボット制御部21jで行われる処理を遂行させる命令が記述されたプログラムをコンピュータに実行させる場合、スタンドアロン型コンピュータで実行させるようにしてもよく、ネットワークに接続された複数のコンピュータに分散処理させるようにしてもよい。
【0048】
次に、上記実施形態の動作を説明する。
先ず、オペレータは、遠隔操作支援装置21の電源を投入することにより、三次元認識部21aで、レーザスキャナ13を作動させて、レーザ光で対象物11を走査することにより、対象物11上の点群データを読込み、この点群データを三次元計測処理して対象物三次元環境データを生成し、生成した三次元環境データを環境データ格納部23に格納するとともに、生成した三次元環境データと三次元認識データベース16に格納された対象物情報を参照して、対象物11の形状、位置および姿勢を特定する。
【0049】
そして、対象物モデル表現部21bで、三次元認識部21aで認識された各対象物11のモデル表現が生成される。
一方、ロボットモデル表現部21cでは、ロボット12の状態検出部19の状態検出データに基づいて、ロボット12の実際の動きが反映されたロボット12と同様な形状を構築することにより、ロボット12の動作状態が反映されたロボットモデル表現が生成される。
【0050】
そして、三次元画像生成部21iは、対象物モデル表現およびロボットモデル表現が生成されると、三次元空間の指定された視点から見た対象物モデル表現およびロボットモデル表現を三次元的に示す二次元画像を生成し、表示装置22の同一画面上に重ねて表示させる。
このため、表示装置22には、三次元画像生成部21iによって、図9〜図12に示す環境画像を表示する。
【0051】
すなわち、図9は、本発明の一実施形態に係る環境データの表示例を示す図である。
図9において、図1のレーザスキャナ13にて計測された環境データ17が遠隔操作支援装置21にて取得され、その環境データが表示装置22に表示される。
図10は本発明の一実施形態に係る環境データおよび対象物のモデル表現の表示例を示す図である。
【0052】
図10において、対象物11の形状、位置および姿勢が反映された対象物モデル表現18が遠隔操作支援装置21にて生成されると、その対象物モデル表現18が環境データ17に重なるようにして表示装置22に表示される。
図11は、本発明の一実施形態に係る環境データ17、対象物のモデル表現18およびロボットのモデル表現20の表示例を示す図である。
【0053】
図11において、対象物11の形状、位置および姿勢が反映された対象物モデル表現18およびロボット12の実際の動きが反映されたロボットモデル表現20が遠隔操作支援装置21にて生成されると、それらの対象物モデル表現18およびロボットモデル表現20が環境データ17に重なるようにして表示装置22に表示される。
図12は、本発明の一実施形態に係るグリッパを視点とした対象物のモデル表現の表示例を示す図である。
【0054】
図12において、対象物モデル表現18およびロボットモデル表現20を三次元的に示す画像の視点を任意に切り替えることにより、例えば、ロボット12のグリッパを視点とした画像が表示装置22に表示される。
また、ロボット12の動作シーケンスを指示したい場合には、ロボット動作シーケンス指示部21dを起動して、図4に示す動作シーケンス指示処理を実行する。この動作シーケンス指示処理では、図13に示すように、例えばロボット操作環境に配置された複数の対象物11すなわち棒状部材11aとこの棒状部材11aの右側に配置された円筒部材11bとこの円筒部材11bの右側に配置された棒状部材11aを装着する穴部11cを有する棒状部材被装着部材11dとが、三次元画像生成部21iによって表示装置22に、操作画面として表示される(ステップS11)。
【0055】
この状態で、対象物モデル表現をマウスのドラッグアンドドロップ操作を行うことで、操作対象モデルを特定し、特定された操作対象モデルの移動位置を指示する旨のガイダンス情報が例えば画面下側に表示され(ステップS12)、これに基づいて例えばマウスを操作して、カーソルを操作対象物としての棒状部材11aの所望位置に移動させ、この状態でマウスをドラッグ状態としてカーソルを棒状部材被装着部材11dの穴部11cに移動させてドロップすることにより、操作対象モデル表現の移動開始位置と移動終了位置が確定する(ステップS13,ステップS14)。操作対象モデル表現の移動開始位置と移動終了位置とから、それぞれロボット12のアーム先端の始点座標と終点座標を求め、さらに、アーム先端の移動軌跡を生成する(ステップS15)。生成された移動軌跡は、表示装置22の操作画面に棒状部材11aの移動軌跡15として表示されて、ロボット動作シーケンスが指示される(ステップS16,ステップS17)。このとき、ロボット12のアーム先端の始点座標から終点座標までの移動軌跡データがRAM等の記憶部に記憶される。
【0056】
このロボット動作シーケンス指示部21dによるロボット動作シーケンスの指示が完了すると、ロボット動作シーケンス決定部21eが起動され、図5の動作シーケンス決定処理が実行される。この動作シーケンス決定処理では、先ず、ロボット動作シーケンス指示部21dで生成された移動軌跡15の移動軌跡データを読み込む(ステップS21)。
この状態で、先ず、移動軌跡の始点位置を最初のチェック位置に設定し(ステップS24)、次いで近接状態判定部21hの判定結果が近接状態であるか否かを判定する(ステップS25)。このとき、円筒部材11bに達する迄の間では、対象物が存在しないので、近接状態判定部21hで算出されるロボット12の座標点と対象物11の座標点間の最小距離Lsが近接判定閾値Lthより大きな値となることにより、図6の近接状態判定処理で、ステップS57からステップS58に移行して、ロボット12が対象物に近接していないと判断される。
【0057】
このため、ステップS25からステップS35に移行し、実移動軌跡上をチェック位置が終点側に移動することにより、ステップS42に移行して、現在チェック位置より指定地終点側位置に仮チェック位置を設定し、次いで、ステップS43に移行して、仮チェック位置をチェック位置に設定してから前記ステップS25に戻ることを繰り返すことにより、終点側に向けてチェック位置が順次移動される。
【0058】
そして、チェック位置が円筒部材11bに近づくことにより、近接状態判定部21hで算出されるロボット12の座標点と対象物11の座標点間の最小距離Lsが小さくなり、Ls≦Lthとなると、図6の近接状態判定処理でステップS57からステップS59に移行し、ロボット12側の最小距離Lsとなった位置が先端であるか否かによって、対象物に近接していると判断したり、対象物と衝突したりすると判断される。
【0059】
何れにしても、実際にロボット12が移動しているわけではないので、対象物に近接又は衝突と判断されたときにはステップS25からステップS26に移行して、障害物回避処理が行なわれる。
この障害物回避処理では、先ず、棒状部材11aを把持したロボット12のチェック位置が実移動軌跡17上を移動していたので、棒状部材11aを把持したロボット12が障害物となる円筒部材11bに近接したときに、上下方向には障害物が存在せず、しかも左右方向にも障害物が存在しないので、ステップS26、ステップS29及びステップS32を経てステップS34に移行し、現在のチック位置の左側に所定距離離れた仮チック位置を設定する。そして、仮チェック位置がチェック位置に更新される(ステップS43)。
【0060】
この新たなチェック位置では、図14に示すように、棒状部材11aを把持したロボット12が円筒部材11bから離間することになり、近接状態判定部21hで算出される最小距離Lsが近接判定用閾値Lthより大きくなる。
このため、図5の動作シーケンス決定処理では、ステップS25からステップS35に移行し、実移動軌跡17から外れているので、ステップS36に移行し、下方向には障害物が存在しないので、ステップS38に移行し、上方向にも障害物が存在しないので、ステップS39に移行し、前回の処理で右方向に円筒部材11bが存在するので、ステップS37に移行して、現在のチェック位置から実移動軌跡17に平行な直線上の終点側に仮チェック位置を設定する。
【0061】
その後、円筒部材11bには近接しないが右側に円筒部材11bが存在することにより、実移動軌跡17と平行な直線上を終点側にチェック位置が順次移動し、右側に円筒部材11bが存在しない状態となると、左側にも障害物が存在しないので、ステップS39からステップS40に移行して、現在のチェック位置から実移動軌跡17への垂線上に所定距離離れた仮チェック位置を設定する。
【0062】
この仮チェック位置がチェック位置に設定されると、この状態では実移動軌跡17上に復帰しているので、以後、回りに障害物が存在しないことにより、実移動軌跡17上をチック位置が順次移動して、チェック位置が最終位置に達すると、ステップS44からステップS45に移行して、設定されたチェック位置を結んで動作シーケンスを決定してRAM等のメモリに記憶し、次いでステップS45に移行して、決定された動作シーケンスの表示情報を操作画面の画像情報に書込んで表示装置22に表示してから動作シーケンス決定処理を終了する。このため、表示装置22に図14に示すように、決定されたロボット動作シーケンスが表示される。
【0063】
このようにロボット動作シーケンス決定部21でロボット動作シーケンスが決定されると、このロボット動作シーケンスがロボット制御部21jに入力されることにより、このロボット制御部21jで、図8のロボット制御処理を実行する。
なお、図5の動作シーケンス決定処理で、棒状部材11aを把持したロボット12が下側の障害物に近接する状態となった場合には、現在のチェック位置より上方側に所定距離離れた位置に仮チェック位置が設定され、同様に、上側の障害物に近接する状態となった場合には、現在のチェック位置より下方側に所定距離離れた位置に仮チェック位置が設定される。このため、下方又は上方に障害物が存在する場合には、その逆方向すなわち上方又は下方にチェック位置が移動する障害物回避処理が行なわれ、最高高さ位置又は最低高さ位置に到達した場合には、左右方向の回避処理が行なわれる。
【0064】
このようにロボット動作シーケンス決定部21eでロボット動作シーケンスが決定されると、このロボット動作シーケンスがロボット制御部21jに入力されることにより、このロボット制御部21jで、図8のロボット制御処理を実行する。
このロボット制御処理では、動作シーケンス決定処理で決定された各チェック位置の位置座標を読込み、これにロボット12の三次元座標系の座標値に変換するための逆行列を乗算することにより、ロボット12の三次元座標値に変換し、変換した各チェック位置の三次元座標値に基づいてロボット12を駆動制御することにより、棒状部材11aを円筒部材11bを避けながら棒状部材被装着部材11dの穴部11cに装着することができる。
【0065】
このように、上記実施形態によると、ロボット動作シーケンス指示部21dで、オペレータが表示装置22に表示された対象物を表示した操作画面を見ながらマウスを操作して、操作対象物とその動作シーケンスを指示することにより、ロボット動作シーケンス決定部21eで、操作対象物を、障害物を避けながら目的位置に移動させるロボット動作シーケンスを決定することができる。このため、熟練を要することなく、ロボット動作シーケンスを決定して、操作対象物を目的位置に正確に移動させることができる。
【0066】
また、対象物モデル表現およびロボットモデル表現を三次元的に示す画像が表示装置22上に表示されると、遠隔操作しやすいように視点を切り替えながら、ロボット12を操作することができる。
これにより、対象物11およびロボット12の現在の状態がそれぞれ反映された三次元的な対象物モデル表現およびロボットモデル表現を生成し、その対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させることが可能となる。このため、対象物11の位置や姿勢が変化する場合においても、対象物11およびロボット12の現在の状態を精度よく表示させることが可能となるとともに、対象物11およびロボット12を三次元的にモデル化することにより、複数のカメラを設置することなく、任意の視点からの画像に切り替えることが可能となり、人間が容易に立ち入ることができない放射線環境下や宇宙環境下などであっても、ロボット12による対象物11の遠隔操作を円滑に行うことが可能となる。
【図面の簡単な説明】
【0067】
【図1】本発明の第1実施形態に係る遠隔操作支援装置の概略構成および処理の流れを示すブロック図である。
【図2】本発明の一実施形態に係る変換行列を用いた対象物上の点の変換結果を示す図である。
【図3】本発明の一実施形態に係る遠隔操作支援装置に適用されるロボット座標系の一例を示す図である。
【図4】ロボット動作シーケンス指示部で実行する動作シーケンス指示処理手順の一例を示すフローチャートである。
【図5】ロボット動作シーケンス決定部で実行する動作シーケンス決定処理手順の一例を示すフローチャートである。
【図6】本発明の一実施形態に係るロボットと対象物との近接状態の判定方法を示すフローチャートである。
【図7】三次元画像生成部で実行する画像生成処理手順の一例を示すフローチャートである。
【図8】ロボット制御部で実行するロボット制御処理手順の一例を示すフローチャートである。
【図9】本発明の一実施形態に係る環境データの表示例を示す図である。
【図10】本発明の一実施形態に係る環境データおよび対象物のモデル表現の表示例を示す図である。
【図11】本発明の一実施形態に係る環境データ、対象物のモデル表現およびロボットのモデル表現の表示例を示す図である。
【図12】本発明の一実施形態に係るグリッパを視点とした対象物のモデル表現の表示例を示す図である。
【図13】動作シーケンス指示例を示す図である。
【図14】動作シーケンス決定例を示す図である。
【符号の説明】
【0068】
11 対象物
12 ロボット
13 レーザスキャナ
15 移動軌跡
16 三次元認識データベース
17 実移動軌跡
18 対象物のモデル表現
19 各軸の状態検出部
20 ロボットのモデル表現
21、35 遠隔操作支援装置
21a 三次元認識部
21b 対象物モデル表現部
21c ロボットモデル表現部
21d ロボット動作シーケンス指示部
21e ロボット動作シーケンス決定部
21f 対象物座標変換部
21g ロボット座標変換部
21h 近接状態判定部
21i 三次元画像生成部
21j ロボット制御部
22 表示装置
23 環境データ格納部
24 対象物座標格納部
25 ロボット座標格納部
26 対象物変換行列格納部
27 ロボット変換行列格納部

【特許請求の範囲】
【請求項1】
三次元測定機で測定した点群データに基づいて対象物を三次元認識し、当該対象物の形状と位置と姿勢とを特定する三次元認識部と、
該三次元認識部で特定した対象物の形状と位置と姿勢とが反映された対象物モデル表現を生成する対象物モデル表現部と、
該対象物モデル表現部で生成した対象物モデル表現を表示する表示部と、
外部からの指示情報に基づいて、前記表示部で表示されている対象物モデルからロボットで操作する操作対象モデルを特定し、さらに当該操作対象モデルのロボットによる動作シーケンスを生成するロボット動作シーケンス指示部と、
該ロボット動作シーケンス指示部で指示した動作シーケンスに基づいて障害物を回避する前記ロボットの動作シーケンスを決定し、決定した動作シーケンスを前記表示部に出力するロボット動作シーケンス決定部とを備えたことを特徴とする遠隔操作支援装置。
【請求項2】
前記ロボット動作シーケンス決定部は、前記三次元認識部で認識した対象物の形状と位置と姿勢とに基づいて前記生成された動作シーケンスの移動軌跡上の障害物を探索し、探索した障害物を回避する動作シーケンスを決定するように構成されていることを特徴とする請求項1に記載の遠隔操作支援装置。
【請求項3】
ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現部と、
三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を前記表示部の同一画面上に三次元的に表示させる三次元画像生成部とを備えることを特徴とする請求項1又は2に記載の遠隔操作支援装置。
【請求項4】
前記三次元認識部で認識された前記対象物モデル表現上の対象物座標系における点を、基準座標系の三次元座標に変換する対象物座標変換部と、
前記ロボットの各軸の状態を観測することにより得られた前記ロボットモデル表現上のロボット座標系における点を、前記基準座標系の三次元座標に変換するロボット座標変換部と、
基準座標系における前記対象物モデル表現上の点の三次元座標および前記ロボットモデル表現上の点の三次元座標に基づいて、前記対象物と前記ロボットとの近接状態を判定する近接状態判定部とを備え、
ロボット動作シーケンス決定部は、前記近接状態判定部の判定結果に基づき障害物を回避する動作シーケンスを決定することを特徴とする請求項1乃至3のいずれか1項に記載の遠隔操作支援装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2010−94777(P2010−94777A)
【公開日】平成22年4月30日(2010.4.30)
【国際特許分類】
【出願番号】特願2008−267816(P2008−267816)
【出願日】平成20年10月16日(2008.10.16)
【出願人】(591083244)富士電機システムズ株式会社 (1,717)
【Fターム(参考)】