操作訓練装置
【構成】ロボット20は、教師側ジョイスティック12bの操作に対応する動きを示す。かかるロボット20のリアルタイム画像は、生徒ST用のモニタ14c上の或るウィンドウに表示される。教師側ジョイスティック12bの姿勢と生徒側ジョイスティック14bの姿勢とを示すガイド情報は、ロボット20のリアルタイム画像の表示処理に関連して、モニタ14c上の別のウィンドウに表示される。生徒STの習熟度は、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの姿勢の相違に基づいて算出される。算出された習熟度Mは、モニタ14cに表示されるとともに、教師TC側の通信端末12に向けて送信される。
【効果】生徒の操作能力を客観的かつ正確に評価することができる。
【効果】生徒の操作能力を客観的かつ正確に評価することができる。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、操作訓練装置に関し、特にたとえば多数の自由度を有するロボットの操作を訓練する、操作訓練装置に関する。
【背景技術】
【0002】
従来のこの種の装置の一例が、特許文献1に開示されている。この従来技術によれば、第1のハンドルは医療器具を移動させるべく指導者によって制御され、第2のハンドルは同じ器具を制御するべく生徒によって動かされる。指導者によるハンドルの移動と生徒によるハンドルの移動の間の逸脱は、生徒と指導者のハンドルへの力フィードバックとして提供される。生徒の手は、この力フィードバックにより、指導者の手の動きに一致するよう強要される。
【特許文献1】特表2005−515012号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
しかし、従来技術では、生徒の操作技能の習熟度を如何にして算出するかについて何ら開示していない。
【0004】
それゆえに、この発明の主たる目的は、生徒の習熟度を客観的かつ正確に評価することができる、操作訓練装置を提供することである。
【課題を解決するための手段】
【0005】
請求項1の発明に従う操作訓練装置(14)は、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力手段(S5)、実操作器の操作状態と模擬操作器の操作状態とを示すガイド情報を第1情報出力手段の出力処理に関連して生徒に向けて出力する第2情報出力手段(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出手段(S15, S17, S19, S25, S31)、および算出手段によって算出された習熟度を出力する習熟度出力手段(S33)を備える。
【0006】
対象物は、教師による実操作器の操作に応答する。かかる対象物の制御状態を示す制御状態情報は、模擬操作器を操作する生徒に向けて、第1情報出力手段によって出力される。第2情報出力手段は、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を、第1情報出力手段の出力処理に関連して生徒に向けて出力する。生徒の習熟度は、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて、算出手段によって算出される。算出された習熟度は、習熟度出力手段によって出力される。
【0007】
習熟度は、第1情報出力手段および第2情報出力手段によってそれぞれ出力される制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。
【0008】
請求項2の発明に従う操作訓練装置は、請求項1に従属し、対象物はロボットである。
【0009】
請求項3の発明に従う操作訓練装置は、請求項1または2に従属し、実操作器および模擬操作器の各々の操作状態は傾斜方向および傾斜量によって規定され、算出手段は、実操作器と模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段(S17)、判別手段の判別結果が肯定的であるとき実操作器と模擬操作器との間での傾斜量の差分を算出する差分算出手段(S19)、判別手段の判別結果が否定的である回数を計数する計数手段(S25)、および差分算出手段の算出結果と計数手段の計数結果とに基づいて習熟度を算出する習熟度算出手段(S31)を含む。
【0010】
差分算出手段および計数手段は、傾斜方向の相違に基づいて選択的に能動化される。習熟度は、かかる差分算出手段の算出結果および計数手段の計数結果に基づいて求められる。こうして、生徒の操作能力が客観的かつ正確に評価される。
【0011】
請求項4の発明に従う操作訓練装置は、請求項3に従属し、判別手段の判別結果が肯定的であるとき模擬操作器の操作状態を実操作器の操作状態に合わせるべく模擬操作器に外力を付加する付加手段(S23)をさらに備える。付加手段による外力の付加によって、生徒による的確な操作が支援される。
【0012】
請求項5の発明に従う操作訓練装置は、請求項4に従属し、付加手段によって付加される外力は差分算出手段によって算出された差分の大きさに応じて異なる。これによって、生徒の操作性が向上する。
【0013】
請求項6の発明に従う操作訓練プログラムは、操作訓練装置(14)のプロセサ(14f)に、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力ステップ(S5)、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を第1情報出力ステップの出力処理に関連して生徒に向けて出力する第2情報出力ステップ(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出ステップ(S15, S17, S19, S25, S31)、および算出ステップによって算出された習熟度を出力する習熟度出力ステップ(S33)を実行させるための操作訓練プログラムである。
【0014】
請求項7の発明に従う操作訓練方法は、(a)教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力し、(b)実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報をステップ(a)の出力処理に関連して生徒に向けて出力し、(c)実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出し、そして(d)ステップ(c)によって算出された習熟度を出力する、操作訓練方法である。
【発明の効果】
【0015】
この発明によれば、習熟度は、制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。
【0016】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【発明を実施するための最良の形態】
【0017】
図1を参照して、この実施例のトレーニングシステム10は、教師TCのために準備される通信端末12と、複数の生徒ST,ST,…のためにそれぞれ準備される複数の通信端末14,14,…とを含む。これらの通信端末12,14,14,…のいずれも、公衆インターネット網16に接続される。公衆インターネット網16にはまた、サーバ18,ロボット20およびカメラ22が接続される。
【0018】
なお、たとえばサーバ18およびロボット20はこのトレーニングサービスを提供する会社の中に設置され、通信端末12,14,14,…は学校に設置される。ここで、教師TC用の通信端末12は、生徒ST用の通信端末14と同じ部屋に設置してもよいし、別の部屋に設置してもよい。また、サーバ18の機能はロボット20に統合するようにしてもよい。
【0019】
教師TC用の通信端末12は、図2に示すように、スピーカ/マイク12a,教師側ジョイスティック12b,モニタ12c,キーボード12d,メモリ12e,CPU12fおよびI/F12gによって構成される。生徒ST用の通信端末14もまた、図3に示すように、スピーカ/マイク14a,生徒側ジョイスティック14b,モニタ14c,キーボード14d,メモリ14e,CPU14fおよびI/F14gによって構成される。サーバ18は、図4に示すように、メモリ18a,CPU18bおよびI/F18cによって構成される。
【0020】
教師側ジョイスティック12bまたは生徒側ジョイスティック14bの外観を図5(A)および図5(B)に示す。基板BSの上面中央に装着されたスティックSTKは、上下左右に自在に傾斜する。傾斜方向は、右方向,上方向,左方向および下方向をそれぞれ0°,90°,180°および270°とする平面(図5(A)参照)上で、角度によって表される。傾斜量は、基板上面に直交する軸を0°とし、基板上面に平行な軸を90°とする平面上(図5(B)参照)で、角度によって表される。スティックSTKの姿勢すなわち教師側ジョイスティック12bまたは生徒側ジョイスティック14bの姿勢は、このような傾斜方向および傾斜量によって特定される。
【0021】
なお、教師側ジョイスティック12bがロボット20を操作するための正規の操縦桿であり、生徒側ジョイスティック14bは訓練のための模擬的な操縦桿である。また、教師側ジョイスティック12bおよび生徒側ジョイスティック14bとしては、マイクロソフト社のSideWinder Force Feedback 2が用いられる。
【0022】
上述の図1〜図5と、通信端末12,サーバ18および通信端末14の間でのやり取りを示す図6とを参照して、ロボット20はカメラ22によって撮影され、撮影されたロボット22の画像データ(制御状態情報)は、公衆インターネット網16を介してサーバ18に与えられる。サーバ18のCPU18bは、与えられた画像データをI/F18cから取り込み、取り込まれた画像データをメモリ18aに書き込む。CPU18bはまた、メモリ18aに格納された画像データをI/F18cおよび公衆インターネット網16を介して各通信端末12,14,14,…に配信する。
【0023】
教師TC側の通信端末12において、CPU12fは、与えられた画像データをI/F12gから取り込み、取り込まれた画像データをメモリ12eに書き込む。CPU12fはまた、メモリ12eに格納された画像データをモニタ12cに与える。この結果、ロボット22の画像がモニタ12cに表示される。
【0024】
生徒ST側の通信端末14において、CPU14fは、与えられた画像データをI/F14gから取り込み、取り込まれた画像データをメモリ14eに書き込む。CPU14fはまた、メモリ14eに格納された画像データをモニタ14cに与える。この結果、ロボット22のリアルタイム画像が表示されたウィンドウW1が、図7に示す要領で画面上に形成される。
【0025】
教師TC用の通信端末12のCPU12fは、教師TCによって操作される教師側ジョイスティック12bの姿勢を示す姿勢情報(操作状態情報)を、I/F12gおよび公衆インターネット網16を介してサーバ18に繰り返し送信する。
【0026】
サーバ18のCPU18bは、教師TC用の通信端末12から送信された姿勢情報をI/F18cを介して取り込み、これに対応する制御データを作成する。作成された制御データは、I/F18cおよび公衆インターネット網16を介してロボット20に与えられる。ロボット20は、制御データに対応する動きを示す。つまり、ロボット20の制御状態は、教師TCによる教師側ジョイスティック12bの操作に応答して変化する。
【0027】
サーバ18のCPU18bはまた、教師TC用の通信端末12から与えられた姿勢情報をI/F18cおよび公衆インターネット網16を介して生徒ST用の各通信端末14,14,…に配信され、姿勢情報は、I/F14gを介してメモリ14eに取り込まれる。CPU14fは、取り込まれた姿勢情報に基づいて教師側ジョイスティック12bの姿勢を示すキャラクタCtをモニタ14cに表示する。CPU14fはまた、生徒側ジョイスティック14bの姿勢を示すキャラクタCsをモニタ14cに表示する。
【0028】
教師側ジョイスティック12bが或る角度だけ上方向に傾けられ、生徒側ジョイスティック14bが教師側ジョイスティック12bの角度よりも小さい角度だけ上方向に傾けられている場合、キャラクタCtおよびCsは、図7に示す要領で画面上のウィンドウW2に表示される。
【0029】
CPU14fは続いて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を検出し、検出された相違が許容範囲(たとえば±10°)内であるか否かを判別する。許容範囲内であれば、CPU14fは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出し、算出された差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。外力は、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と一致するように付加される。また、算出された差分の絶対値を示す差分情報Dが、メモリ14eに蓄積される。一方、傾斜方向の相違が許容範囲外であれば、CPU14fは、この判別結果が得られた回数を示す変数Kをインクリメントし、生徒側ジョイスティック14bへの外力の付加を解除する。
【0030】
上述の処理は、教師TC側から姿勢情報が取り込まれる毎に繰り返し実行される。この結果、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間の操作方向の相違に応じて、差分情報Dがメモリ14eに蓄積され、あるいは変数Kがインクリメントされる。
【0031】
なお、教師側ジョイスティック12bの傾斜量と生徒側ジョイスティック14bの傾斜量とが図8に示す要領で変化した場合(傾斜方向は一致)、差分情報Dは図8に示すように繰り返し検出され、メモリ14eに蓄積される。
【0032】
訓練が終了すると、CPU14fは、メモリ14eに蓄積された差分情報Dおよび変数Kに基づいて、生徒STの操作の習熟度Mを算出する。具体的には、数1に従う演算を実行する。
[数1]
M=α−β(ΣD+γK)
α,β,γ:定数
数1によれば、差分情報Dの積算値と変数Kに定数γを掛け算した掛け算値とが互いに加算され、加算値と定数βとの掛け算値が定数αから引き算される。習熟度Mは、このような減点法によって求められる。したがって、傾斜方向の相違が許容範囲を外れる回数が少ないほど、さらには傾斜量の差分が小さいほど、習熟度Mは高い数値を示す。CPU14fは、こうして算出された習熟度Mをモニタ14cに表示するとともに、教師TCの通信端末12に向けて送信する。習熟度Mは通信端末12のモニタ12cにも表示され、教師TCは表示された習熟度Mによって生徒STの習熟度を認識することができる。
【0033】
なお、訓練の開始/終了は、スピーカ/マイク12aおよび14aを用いた通話によって伝達される。
【0034】
CPU14fは、図9および図10に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、メモリ14eに記憶される。
【0035】
ステップS1では変数Kを“0”に設定し、続くステップS3ではロボット20の画像データをサーバ18から取り込む。ステップS5では、取り込まれた画像データに基づくロボット20のリアルタイム画像をモニタ14cに形成されたウィンドウW1に表示する。
【0036】
ステップS7では、教師TC用の教師側ジョイスティック12bの姿勢を示す姿勢情報をサーバ18から取り込み、ステップS9では、生徒側ジョイスティック14bの姿勢を検出する。ステップS11では、ステップS7で取り込まれた姿勢情報に基づいて、教師側ジョイスティック12bの姿勢を表すキャラクタCtを、モニタ14cに形成されたウィンドウW2に表示する。ステップS13では、ステップS9で検出された生徒側ジョイスティック14bの姿勢を表すキャラクタCsを、モニタ14cに形成されたウィンドウW2に表示する。
【0037】
ステップS15では、ステップS7で取り込まれた姿勢情報とステップS9で検出された姿勢とに基づいて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を算出する。ステップS17では算出された相違が許容範囲内であるか否かを判別し、YESであればステップS19〜S23の処理を経てステップS29に進む一方、NOであればステップS25〜27を経てステップS29に進む。
【0038】
ステップS19では、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出する。ステップS21では算出された差分の絶対値を示す差分情報Dをメモリ12eに蓄積する。ステップS23では、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢に合わせられるように、算出された傾斜量の差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。付加される外力は、傾斜量の差分が大きいほど大きくされる。
【0039】
一方、ステップS25では変数Kをインクリメントし、ステップS27では生徒側ジョイスティック14bへの外力の付加を解除する。外力の付加を解除することで、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と大きく相違する状態での外力の付加に起因する生徒側ジョイスティック14bの破損が防止される。また、変数Kのインクリメントによって、上述のような誤操作が習熟度Mに反映される。なお、ステップS17でNOと判断されたときに訓練を強制的に終了するようにしてもよい。
【0040】
ステップS29では、訓練が終了したか否かを判別し、NOであればステップS3に戻る一方、YESであればステップS31に進む。ステップS31では、メモリ14eに蓄積された差分情報Dと変数Kとに基づいて、上述の数1に従って習熟度Mを算出する。ステップS33では、算出された習熟度Mをモニタ12cに表示するとともに、教師TC側の通信端末12に向けて送信する。その後、処理を終了する。
【0041】
以上の説明から分かるように、ロボット20は、教師側ジョイスティック(実操作器)12bの操作に対応する動きを示す。かかるロボット20のリアルタイム画像(制御状態情報)は、モニタ14c上のウィンドウW1に表示される(S5)。教師側ジョイスティック12bの姿勢(操作状態)と生徒側ジョイスティック14b(模擬操作器)の姿勢(操作状態)とをそれぞれ示すキャラクタCtおよびCs(操作ガイド情報)は、ロボット20のリアルタイム画像の表示処理に関連して、モニタ14c上のウィンドウW2に表示される。ウィンドウW1およびW2のいずれも、生徒STに向けて表示される。生徒STの習熟度Mは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの姿勢の相違に基づいて算出される(S31)。算出された習熟度Mは、モニタ14cから出力される(S33)。
【0042】
習熟度Mは、ウィンドウW1に表示されるロボット20のリアルタイム画像とウィンドウW2に表示されるキャラクタCtおよびCsとを手掛かりとして生徒側ジョイスティック14bを操作する生徒STの技能を反映する。これによって、生徒STの操作能力を客観的かつ正確に評価することができる。
【0043】
なお、この実施例では、制御状態情報として、カメラ22によって捉えられたロボット20の画像(外観)を想定している。しかし、制御状態情報としては、ロボットの目線で捉えた周囲の画像や、ロボットに設けられたスイッチ類(タッチスイッチなど)の反応や、ロボットから発せられた音声なども考えられる。
【0044】
また、この実施例では、習熟度の算出にあたって上述の数1を用いている。しかし、これに代えて下記の数2を用いてもよい。つまり、教師と生徒の操作の差を利用して習熟度を算出する限り、あらゆる数式が考えられる。
[数2]
M=α/(α+ΣKD)
さらに、この実施例では、ロボットを操作する操作器としてジョイスティックを用いているが、ジョイスティックに代えてマウスやキーボードを用いるようにしてもよい。ただし、この場合は、ボタンの押し間違えや適正なボタンを押すまでの遅れ時間に基づいて習熟度を算出する必要がある。
【図面の簡単な説明】
【0045】
【図1】この発明の一実施例の構成を示す図解図である。
【図2】図1実施例に適用される教師用の通信端末の構成の一例を示すブロック図である。
【図3】図1実施例に適用される生徒用の通信端末の構成の一例を示すブロック図である。
【図4】図1実施例に適用されるサーバの構成の一例を示すブロック図である。
【図5】(A)は図2実施例または図3実施例に適用されるジョイスティックの外観を示す上面図であり、(B)は図2実施例または図3実施例に適用されるジョイスティックの外観を示す側面図である。
【図6】図1実施例の動作の一部を示す図解図である。
【図7】図3実施例に適用されるモニタに表示される画像の一例を示す図解図である。
【図8】図1実施例の動作の一部を示すグラフである。
【図9】図3実施例に適用されるCPUの動作の一部を示すフロー図である。
【図10】図3実施例に適用されるCPUの動作の他の一部を示すフロー図である。
【符号の説明】
【0046】
10 …トレーニングシステム
12,14 …通信端末
18 …サーバ
20 …ロボット
22 …カメラ
【技術分野】
【0001】
この発明は、操作訓練装置に関し、特にたとえば多数の自由度を有するロボットの操作を訓練する、操作訓練装置に関する。
【背景技術】
【0002】
従来のこの種の装置の一例が、特許文献1に開示されている。この従来技術によれば、第1のハンドルは医療器具を移動させるべく指導者によって制御され、第2のハンドルは同じ器具を制御するべく生徒によって動かされる。指導者によるハンドルの移動と生徒によるハンドルの移動の間の逸脱は、生徒と指導者のハンドルへの力フィードバックとして提供される。生徒の手は、この力フィードバックにより、指導者の手の動きに一致するよう強要される。
【特許文献1】特表2005−515012号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
しかし、従来技術では、生徒の操作技能の習熟度を如何にして算出するかについて何ら開示していない。
【0004】
それゆえに、この発明の主たる目的は、生徒の習熟度を客観的かつ正確に評価することができる、操作訓練装置を提供することである。
【課題を解決するための手段】
【0005】
請求項1の発明に従う操作訓練装置(14)は、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力手段(S5)、実操作器の操作状態と模擬操作器の操作状態とを示すガイド情報を第1情報出力手段の出力処理に関連して生徒に向けて出力する第2情報出力手段(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出手段(S15, S17, S19, S25, S31)、および算出手段によって算出された習熟度を出力する習熟度出力手段(S33)を備える。
【0006】
対象物は、教師による実操作器の操作に応答する。かかる対象物の制御状態を示す制御状態情報は、模擬操作器を操作する生徒に向けて、第1情報出力手段によって出力される。第2情報出力手段は、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を、第1情報出力手段の出力処理に関連して生徒に向けて出力する。生徒の習熟度は、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて、算出手段によって算出される。算出された習熟度は、習熟度出力手段によって出力される。
【0007】
習熟度は、第1情報出力手段および第2情報出力手段によってそれぞれ出力される制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。
【0008】
請求項2の発明に従う操作訓練装置は、請求項1に従属し、対象物はロボットである。
【0009】
請求項3の発明に従う操作訓練装置は、請求項1または2に従属し、実操作器および模擬操作器の各々の操作状態は傾斜方向および傾斜量によって規定され、算出手段は、実操作器と模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段(S17)、判別手段の判別結果が肯定的であるとき実操作器と模擬操作器との間での傾斜量の差分を算出する差分算出手段(S19)、判別手段の判別結果が否定的である回数を計数する計数手段(S25)、および差分算出手段の算出結果と計数手段の計数結果とに基づいて習熟度を算出する習熟度算出手段(S31)を含む。
【0010】
差分算出手段および計数手段は、傾斜方向の相違に基づいて選択的に能動化される。習熟度は、かかる差分算出手段の算出結果および計数手段の計数結果に基づいて求められる。こうして、生徒の操作能力が客観的かつ正確に評価される。
【0011】
請求項4の発明に従う操作訓練装置は、請求項3に従属し、判別手段の判別結果が肯定的であるとき模擬操作器の操作状態を実操作器の操作状態に合わせるべく模擬操作器に外力を付加する付加手段(S23)をさらに備える。付加手段による外力の付加によって、生徒による的確な操作が支援される。
【0012】
請求項5の発明に従う操作訓練装置は、請求項4に従属し、付加手段によって付加される外力は差分算出手段によって算出された差分の大きさに応じて異なる。これによって、生徒の操作性が向上する。
【0013】
請求項6の発明に従う操作訓練プログラムは、操作訓練装置(14)のプロセサ(14f)に、教師による実操作器(12b)の操作に応答する対象物(20)の制御状態を示す制御状態情報を模擬操作器(14b)を操作する生徒に向けて出力する第1情報出力ステップ(S5)、実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報を第1情報出力ステップの出力処理に関連して生徒に向けて出力する第2情報出力ステップ(S11, S13)、実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出する算出ステップ(S15, S17, S19, S25, S31)、および算出ステップによって算出された習熟度を出力する習熟度出力ステップ(S33)を実行させるための操作訓練プログラムである。
【0014】
請求項7の発明に従う操作訓練方法は、(a)教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力し、(b)実操作器の操作状態と模擬操作器の操作状態とを示す操作ガイド情報をステップ(a)の出力処理に関連して生徒に向けて出力し、(c)実操作器の操作状態と模擬操作器の操作状態との相違に基づいて生徒の習熟度を算出し、そして(d)ステップ(c)によって算出された習熟度を出力する、操作訓練方法である。
【発明の効果】
【0015】
この発明によれば、習熟度は、制御状態情報および操作ガイド情報を手掛かりとして模擬操作器を操作する生徒の技能を反映する。これによって、生徒の操作能力を客観的かつ正確に評価することができる。
【0016】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【発明を実施するための最良の形態】
【0017】
図1を参照して、この実施例のトレーニングシステム10は、教師TCのために準備される通信端末12と、複数の生徒ST,ST,…のためにそれぞれ準備される複数の通信端末14,14,…とを含む。これらの通信端末12,14,14,…のいずれも、公衆インターネット網16に接続される。公衆インターネット網16にはまた、サーバ18,ロボット20およびカメラ22が接続される。
【0018】
なお、たとえばサーバ18およびロボット20はこのトレーニングサービスを提供する会社の中に設置され、通信端末12,14,14,…は学校に設置される。ここで、教師TC用の通信端末12は、生徒ST用の通信端末14と同じ部屋に設置してもよいし、別の部屋に設置してもよい。また、サーバ18の機能はロボット20に統合するようにしてもよい。
【0019】
教師TC用の通信端末12は、図2に示すように、スピーカ/マイク12a,教師側ジョイスティック12b,モニタ12c,キーボード12d,メモリ12e,CPU12fおよびI/F12gによって構成される。生徒ST用の通信端末14もまた、図3に示すように、スピーカ/マイク14a,生徒側ジョイスティック14b,モニタ14c,キーボード14d,メモリ14e,CPU14fおよびI/F14gによって構成される。サーバ18は、図4に示すように、メモリ18a,CPU18bおよびI/F18cによって構成される。
【0020】
教師側ジョイスティック12bまたは生徒側ジョイスティック14bの外観を図5(A)および図5(B)に示す。基板BSの上面中央に装着されたスティックSTKは、上下左右に自在に傾斜する。傾斜方向は、右方向,上方向,左方向および下方向をそれぞれ0°,90°,180°および270°とする平面(図5(A)参照)上で、角度によって表される。傾斜量は、基板上面に直交する軸を0°とし、基板上面に平行な軸を90°とする平面上(図5(B)参照)で、角度によって表される。スティックSTKの姿勢すなわち教師側ジョイスティック12bまたは生徒側ジョイスティック14bの姿勢は、このような傾斜方向および傾斜量によって特定される。
【0021】
なお、教師側ジョイスティック12bがロボット20を操作するための正規の操縦桿であり、生徒側ジョイスティック14bは訓練のための模擬的な操縦桿である。また、教師側ジョイスティック12bおよび生徒側ジョイスティック14bとしては、マイクロソフト社のSideWinder Force Feedback 2が用いられる。
【0022】
上述の図1〜図5と、通信端末12,サーバ18および通信端末14の間でのやり取りを示す図6とを参照して、ロボット20はカメラ22によって撮影され、撮影されたロボット22の画像データ(制御状態情報)は、公衆インターネット網16を介してサーバ18に与えられる。サーバ18のCPU18bは、与えられた画像データをI/F18cから取り込み、取り込まれた画像データをメモリ18aに書き込む。CPU18bはまた、メモリ18aに格納された画像データをI/F18cおよび公衆インターネット網16を介して各通信端末12,14,14,…に配信する。
【0023】
教師TC側の通信端末12において、CPU12fは、与えられた画像データをI/F12gから取り込み、取り込まれた画像データをメモリ12eに書き込む。CPU12fはまた、メモリ12eに格納された画像データをモニタ12cに与える。この結果、ロボット22の画像がモニタ12cに表示される。
【0024】
生徒ST側の通信端末14において、CPU14fは、与えられた画像データをI/F14gから取り込み、取り込まれた画像データをメモリ14eに書き込む。CPU14fはまた、メモリ14eに格納された画像データをモニタ14cに与える。この結果、ロボット22のリアルタイム画像が表示されたウィンドウW1が、図7に示す要領で画面上に形成される。
【0025】
教師TC用の通信端末12のCPU12fは、教師TCによって操作される教師側ジョイスティック12bの姿勢を示す姿勢情報(操作状態情報)を、I/F12gおよび公衆インターネット網16を介してサーバ18に繰り返し送信する。
【0026】
サーバ18のCPU18bは、教師TC用の通信端末12から送信された姿勢情報をI/F18cを介して取り込み、これに対応する制御データを作成する。作成された制御データは、I/F18cおよび公衆インターネット網16を介してロボット20に与えられる。ロボット20は、制御データに対応する動きを示す。つまり、ロボット20の制御状態は、教師TCによる教師側ジョイスティック12bの操作に応答して変化する。
【0027】
サーバ18のCPU18bはまた、教師TC用の通信端末12から与えられた姿勢情報をI/F18cおよび公衆インターネット網16を介して生徒ST用の各通信端末14,14,…に配信され、姿勢情報は、I/F14gを介してメモリ14eに取り込まれる。CPU14fは、取り込まれた姿勢情報に基づいて教師側ジョイスティック12bの姿勢を示すキャラクタCtをモニタ14cに表示する。CPU14fはまた、生徒側ジョイスティック14bの姿勢を示すキャラクタCsをモニタ14cに表示する。
【0028】
教師側ジョイスティック12bが或る角度だけ上方向に傾けられ、生徒側ジョイスティック14bが教師側ジョイスティック12bの角度よりも小さい角度だけ上方向に傾けられている場合、キャラクタCtおよびCsは、図7に示す要領で画面上のウィンドウW2に表示される。
【0029】
CPU14fは続いて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を検出し、検出された相違が許容範囲(たとえば±10°)内であるか否かを判別する。許容範囲内であれば、CPU14fは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出し、算出された差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。外力は、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と一致するように付加される。また、算出された差分の絶対値を示す差分情報Dが、メモリ14eに蓄積される。一方、傾斜方向の相違が許容範囲外であれば、CPU14fは、この判別結果が得られた回数を示す変数Kをインクリメントし、生徒側ジョイスティック14bへの外力の付加を解除する。
【0030】
上述の処理は、教師TC側から姿勢情報が取り込まれる毎に繰り返し実行される。この結果、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間の操作方向の相違に応じて、差分情報Dがメモリ14eに蓄積され、あるいは変数Kがインクリメントされる。
【0031】
なお、教師側ジョイスティック12bの傾斜量と生徒側ジョイスティック14bの傾斜量とが図8に示す要領で変化した場合(傾斜方向は一致)、差分情報Dは図8に示すように繰り返し検出され、メモリ14eに蓄積される。
【0032】
訓練が終了すると、CPU14fは、メモリ14eに蓄積された差分情報Dおよび変数Kに基づいて、生徒STの操作の習熟度Mを算出する。具体的には、数1に従う演算を実行する。
[数1]
M=α−β(ΣD+γK)
α,β,γ:定数
数1によれば、差分情報Dの積算値と変数Kに定数γを掛け算した掛け算値とが互いに加算され、加算値と定数βとの掛け算値が定数αから引き算される。習熟度Mは、このような減点法によって求められる。したがって、傾斜方向の相違が許容範囲を外れる回数が少ないほど、さらには傾斜量の差分が小さいほど、習熟度Mは高い数値を示す。CPU14fは、こうして算出された習熟度Mをモニタ14cに表示するとともに、教師TCの通信端末12に向けて送信する。習熟度Mは通信端末12のモニタ12cにも表示され、教師TCは表示された習熟度Mによって生徒STの習熟度を認識することができる。
【0033】
なお、訓練の開始/終了は、スピーカ/マイク12aおよび14aを用いた通話によって伝達される。
【0034】
CPU14fは、図9および図10に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、メモリ14eに記憶される。
【0035】
ステップS1では変数Kを“0”に設定し、続くステップS3ではロボット20の画像データをサーバ18から取り込む。ステップS5では、取り込まれた画像データに基づくロボット20のリアルタイム画像をモニタ14cに形成されたウィンドウW1に表示する。
【0036】
ステップS7では、教師TC用の教師側ジョイスティック12bの姿勢を示す姿勢情報をサーバ18から取り込み、ステップS9では、生徒側ジョイスティック14bの姿勢を検出する。ステップS11では、ステップS7で取り込まれた姿勢情報に基づいて、教師側ジョイスティック12bの姿勢を表すキャラクタCtを、モニタ14cに形成されたウィンドウW2に表示する。ステップS13では、ステップS9で検出された生徒側ジョイスティック14bの姿勢を表すキャラクタCsを、モニタ14cに形成されたウィンドウW2に表示する。
【0037】
ステップS15では、ステップS7で取り込まれた姿勢情報とステップS9で検出された姿勢とに基づいて、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜方向の相違を算出する。ステップS17では算出された相違が許容範囲内であるか否かを判別し、YESであればステップS19〜S23の処理を経てステップS29に進む一方、NOであればステップS25〜27を経てステップS29に進む。
【0038】
ステップS19では、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの間での傾斜量の差分を算出する。ステップS21では算出された差分の絶対値を示す差分情報Dをメモリ12eに蓄積する。ステップS23では、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢に合わせられるように、算出された傾斜量の差分に対応する大きさの外力を生徒側ジョイスティック14bに付加する。付加される外力は、傾斜量の差分が大きいほど大きくされる。
【0039】
一方、ステップS25では変数Kをインクリメントし、ステップS27では生徒側ジョイスティック14bへの外力の付加を解除する。外力の付加を解除することで、生徒側ジョイスティック14bの姿勢が教師側ジョイスティック12bの姿勢と大きく相違する状態での外力の付加に起因する生徒側ジョイスティック14bの破損が防止される。また、変数Kのインクリメントによって、上述のような誤操作が習熟度Mに反映される。なお、ステップS17でNOと判断されたときに訓練を強制的に終了するようにしてもよい。
【0040】
ステップS29では、訓練が終了したか否かを判別し、NOであればステップS3に戻る一方、YESであればステップS31に進む。ステップS31では、メモリ14eに蓄積された差分情報Dと変数Kとに基づいて、上述の数1に従って習熟度Mを算出する。ステップS33では、算出された習熟度Mをモニタ12cに表示するとともに、教師TC側の通信端末12に向けて送信する。その後、処理を終了する。
【0041】
以上の説明から分かるように、ロボット20は、教師側ジョイスティック(実操作器)12bの操作に対応する動きを示す。かかるロボット20のリアルタイム画像(制御状態情報)は、モニタ14c上のウィンドウW1に表示される(S5)。教師側ジョイスティック12bの姿勢(操作状態)と生徒側ジョイスティック14b(模擬操作器)の姿勢(操作状態)とをそれぞれ示すキャラクタCtおよびCs(操作ガイド情報)は、ロボット20のリアルタイム画像の表示処理に関連して、モニタ14c上のウィンドウW2に表示される。ウィンドウW1およびW2のいずれも、生徒STに向けて表示される。生徒STの習熟度Mは、教師側ジョイスティック12bおよび生徒側ジョイスティック14bの姿勢の相違に基づいて算出される(S31)。算出された習熟度Mは、モニタ14cから出力される(S33)。
【0042】
習熟度Mは、ウィンドウW1に表示されるロボット20のリアルタイム画像とウィンドウW2に表示されるキャラクタCtおよびCsとを手掛かりとして生徒側ジョイスティック14bを操作する生徒STの技能を反映する。これによって、生徒STの操作能力を客観的かつ正確に評価することができる。
【0043】
なお、この実施例では、制御状態情報として、カメラ22によって捉えられたロボット20の画像(外観)を想定している。しかし、制御状態情報としては、ロボットの目線で捉えた周囲の画像や、ロボットに設けられたスイッチ類(タッチスイッチなど)の反応や、ロボットから発せられた音声なども考えられる。
【0044】
また、この実施例では、習熟度の算出にあたって上述の数1を用いている。しかし、これに代えて下記の数2を用いてもよい。つまり、教師と生徒の操作の差を利用して習熟度を算出する限り、あらゆる数式が考えられる。
[数2]
M=α/(α+ΣKD)
さらに、この実施例では、ロボットを操作する操作器としてジョイスティックを用いているが、ジョイスティックに代えてマウスやキーボードを用いるようにしてもよい。ただし、この場合は、ボタンの押し間違えや適正なボタンを押すまでの遅れ時間に基づいて習熟度を算出する必要がある。
【図面の簡単な説明】
【0045】
【図1】この発明の一実施例の構成を示す図解図である。
【図2】図1実施例に適用される教師用の通信端末の構成の一例を示すブロック図である。
【図3】図1実施例に適用される生徒用の通信端末の構成の一例を示すブロック図である。
【図4】図1実施例に適用されるサーバの構成の一例を示すブロック図である。
【図5】(A)は図2実施例または図3実施例に適用されるジョイスティックの外観を示す上面図であり、(B)は図2実施例または図3実施例に適用されるジョイスティックの外観を示す側面図である。
【図6】図1実施例の動作の一部を示す図解図である。
【図7】図3実施例に適用されるモニタに表示される画像の一例を示す図解図である。
【図8】図1実施例の動作の一部を示すグラフである。
【図9】図3実施例に適用されるCPUの動作の一部を示すフロー図である。
【図10】図3実施例に適用されるCPUの動作の他の一部を示すフロー図である。
【符号の説明】
【0046】
10 …トレーニングシステム
12,14 …通信端末
18 …サーバ
20 …ロボット
22 …カメラ
【特許請求の範囲】
【請求項1】
教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力する第1情報出力手段、
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力手段の出力処理に関連して前記生徒に向けて出力する第2情報出力手段、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出手段、および
前記算出手段によって算出された習熟度を出力する習熟度出力手段を備える、操作訓練装置。
【請求項2】
前記対象物はロボットである、請求項1記載の操作訓練装置。
【請求項3】
前記実操作器および前記模擬操作器の各々の操作状態は傾斜方向および傾斜量によって規定され、
前記算出手段は、前記実操作器と前記模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段、前記判別手段の判別結果が肯定的であるとき前記実操作器と前記模擬操作器との間での傾斜量の差分を算出する差分算出手段、前記判別手段の判別結果が否定的である回数を計数する計数手段、および前記差分算出手段の算出結果と前記計数手段の計数結果とに基づいて前記習熟度を算出する習熟度算出手段を含む、請求項1または2記載の操作訓練装置。
【請求項4】
前記判別手段の判別結果が肯定的であるとき前記模擬操作器の操作状態を前記実操作器の操作状態に合わせるべく前記模擬操作器に外力を付加する付加手段をさらに備える、請求項3記載の操作訓練装置。
【請求項5】
前記付加手段によって付加される外力は前記差分算出手段によって算出された差分の大きさに応じて異なる、請求項4記載の操作訓練装置。
【請求項6】
操作訓練装置のプロセサに、
教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力する第1情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力ステップの出力処理に関連して前記生徒に向けて出力する第2情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出ステップ、および
前記算出ステップによって算出された習熟度を出力する習熟度出力ステップを実行させるための操作訓練プログラム。
【請求項7】
(a) 教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力し、
(b) 前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記ステップ(a)の出力処理に関連して前記生徒に向けて出力し、
(c) 前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出し、そして
(d) 前記ステップ(c)によって算出された習熟度を出力する、操作訓練方法。
【請求項1】
教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力する第1情報出力手段、
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力手段の出力処理に関連して前記生徒に向けて出力する第2情報出力手段、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出手段、および
前記算出手段によって算出された習熟度を出力する習熟度出力手段を備える、操作訓練装置。
【請求項2】
前記対象物はロボットである、請求項1記載の操作訓練装置。
【請求項3】
前記実操作器および前記模擬操作器の各々の操作状態は傾斜方向および傾斜量によって規定され、
前記算出手段は、前記実操作器と前記模擬操作器との間での傾斜方向の相違が許容範囲内であるか否かを判別する判別手段、前記判別手段の判別結果が肯定的であるとき前記実操作器と前記模擬操作器との間での傾斜量の差分を算出する差分算出手段、前記判別手段の判別結果が否定的である回数を計数する計数手段、および前記差分算出手段の算出結果と前記計数手段の計数結果とに基づいて前記習熟度を算出する習熟度算出手段を含む、請求項1または2記載の操作訓練装置。
【請求項4】
前記判別手段の判別結果が肯定的であるとき前記模擬操作器の操作状態を前記実操作器の操作状態に合わせるべく前記模擬操作器に外力を付加する付加手段をさらに備える、請求項3記載の操作訓練装置。
【請求項5】
前記付加手段によって付加される外力は前記差分算出手段によって算出された差分の大きさに応じて異なる、請求項4記載の操作訓練装置。
【請求項6】
操作訓練装置のプロセサに、
教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力する第1情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記第1情報出力ステップの出力処理に関連して前記生徒に向けて出力する第2情報出力ステップ、
前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出する算出ステップ、および
前記算出ステップによって算出された習熟度を出力する習熟度出力ステップを実行させるための操作訓練プログラム。
【請求項7】
(a) 教師による実操作器の操作に応答する対象物の制御状態を示す制御状態情報を模擬操作器を操作する生徒に向けて出力し、
(b) 前記実操作器の操作状態と前記模擬操作器の操作状態とを示す操作ガイド情報を前記ステップ(a)の出力処理に関連して前記生徒に向けて出力し、
(c) 前記実操作器の操作状態と前記模擬操作器の操作状態との相違に基づいて前記生徒の習熟度を算出し、そして
(d) 前記ステップ(c)によって算出された習熟度を出力する、操作訓練方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【公開番号】特開2007−183332(P2007−183332A)
【公開日】平成19年7月19日(2007.7.19)
【国際特許分類】
【出願番号】特願2006−498(P2006−498)
【出願日】平成18年1月5日(2006.1.5)
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成17年4月1日付け、支出負担行為担当官 総務省大臣官房会計課企画官、研究テーマ「ネットワーク・ヒューマン・インターフェースの総合的な研究開発(ネットワークロボットの技術)」に関する委託研究、産業活力再生特別措置法第30条の適用を受ける特許出願
【出願人】(393031586)株式会社国際電気通信基礎技術研究所 (905)
【Fターム(参考)】
【公開日】平成19年7月19日(2007.7.19)
【国際特許分類】
【出願日】平成18年1月5日(2006.1.5)
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成17年4月1日付け、支出負担行為担当官 総務省大臣官房会計課企画官、研究テーマ「ネットワーク・ヒューマン・インターフェースの総合的な研究開発(ネットワークロボットの技術)」に関する委託研究、産業活力再生特別措置法第30条の適用を受ける特許出願
【出願人】(393031586)株式会社国際電気通信基礎技術研究所 (905)
【Fターム(参考)】
[ Back to top ]