信号通信システム
【課題】娯楽装置と同様に患者のリハビリテーション運動のためのプラットフォームを提供する。
【解決手段】ロボット装置のアクチュエータと通信する動作センサであって、人間に取り付けられており、この人間の動作を測定する動作センサを具え、前記動作センサが電源と送受信機と通信し、前記送受信機が前記ロボット装置の中央処理ユニットと通信し、前記中央処理ユニットがセンサ信号を受信して処理し、前記センサが検出した入力を前記アクチュエータに通信し、前記人間による位置、速度、加速度および力の入力を検出し、前記ロボット装置の動きを前記人間の測定した動作に対応させる。
【解決手段】ロボット装置のアクチュエータと通信する動作センサであって、人間に取り付けられており、この人間の動作を測定する動作センサを具え、前記動作センサが電源と送受信機と通信し、前記送受信機が前記ロボット装置の中央処理ユニットと通信し、前記中央処理ユニットがセンサ信号を受信して処理し、前記センサが検出した入力を前記アクチュエータに通信し、前記人間による位置、速度、加速度および力の入力を検出し、前記ロボット装置の動きを前記人間の測定した動作に対応させる。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願に対する相互参照
これは、非暫定的な実用特許出願である2001年2月27日の米国仮出願番号60/271,765、タイトルが「INTERACTIVE ELECTRONIC SYSTEM」の出願日の利益を要求した。
【0002】
本発明は信号通信システムに関する。特に、本発明は、ロボットとの通信において、センサーとアクチュエータ間が離れている通信を可能にするための装置に関する。
【背景技術】
【0003】
発明の背景
従来技術の説明
リハビリテーション治療は、一般的には、身体的なもの、会話−言語によるもの、および/または作業療法に分類される。治療のこれらの形式は、傷から回復する人、または慢性病および/または障害者のために一般的に指導される。ヘルスケアの専門家は、適切なリハビリテーション治療が大きな傷を著しく癒し、健康と回復の促進を援助するかもしれないことを認識している。
【0004】
リハビリテーションの治療には様々な形式がある。それぞれの個人のために適当な治療法を見つけることは、それらの障害および/または損傷に影響を及ぼしている状況に依存する。適切なリハビリテーションのプログラムを確認する部分は、慢性か一時的かどうか、様々な現存する障害を考慮して個人の能力を評価することである。しかしながら、評価の他の重要な点は、選択された治療に対する忍耐強い動機付けの適切なレベルを維持するか、または治療が忍耐強い動機付けの適切なレベルを維持するために変更されることを可能にする能力である。
【0005】
リハビリテーション装置およびシステムに関連した技術の一つの形態は、バイオフィードバックである。これは、いくつかの身体機能に対する認識の損失を持っている患者の治療技術である。生体自己制御装置は、患者が知覚の損失に苦しんでおり、特定の身体機能の変化に応じて患者に視覚または聴覚の信号を供給するために、特定の身体機能をモニタする。バイオフィードバックの種類は、筋電計(EMG)のバイオフィードバック装置およびシステムである。EMGシステムは、リハビリテーションを必要とする筋肉を使用する方法を患者に教示することを意図する。EMGシステムは、一般に、患者に視覚および/または音声信号の形でフィードバックを提供する。EMGバイオフィードバック装置の最近の発達は、エンハンスド モビリティ テクノロジー(Enhanced Mobility Technologies)に与えられたアメリカ特許出願No.09/361,753に示されるように、運動に関係している身体部位と通信するセンサーを含んでいる。本出願において、センサーは特定のリハビリテーション運動に関係している身体の部位に取り付けられ、また、それらのセンサーは、患者の進行を記録し評価するために、それら自身がコンピュータと通信する。したがって、EMG装置およびシステムは、練習が実施したリハビリテーションからみて患者の発展を決定するための評価ツールを包含するまで進んだ。
【0006】
しかしながら、EMG装置は、患者の身体の特定のエリアが動作したことを示すためにバイオフィードバックするだけの装置である。EMG装置は、患者が特定の運動機能を維持するための動機付け与えるための対話型コンポーネントを含まない。したがって、望ましいことは、バイオフィードバックを提供し、装置上で患者の注意と焦点を維持する対話装置である。
【発明の開示】
【0007】
本発明は、前記装置の視覚的な動きの形態、または動的な対話を通して、装置のユーザーにフィードバックを提供するために、無線センサーまたはコンソールを経て制御されるロボット装置を含む。
【0008】
本発明の第1態様は、ユーザーと通信するセンサーを含む。このセンサーは、ユーザーの入力を感知して、センサー信号をロボットに伝達する。このロボットのアクチュエータは、信号を受けて、ユーザー入力がしきい値を上回るときにユーザー入力に応答してロボットの部分を動かすように適応する。このユーザー入力は、身体運動または音声のような物理的なものであり得る。センサーおよびアクチュエータは、無線通信によるものである。さらに、センサーはユーザーに固定されることができ、またはユーザーとロボットアクチュエーターの両方と離れたコンソールに固定されることができる。この装置はまた、センサーデータを蓄積するためにコンピュータを含むようにしてもよい。このコンピュータは、ロボットに内蔵されたり、センサーに内蔵されたり、またロボットの外部に置かれたりする。この装置はまた、ロボットの構成を修正し、ロボットとユーザー間の操作の対話モードを選択し、およびオペレータがユーザー入力を評価することができるように、オペレータインタフェースを含む。加えて、このオペレータインタフェースは、オペレータがロボットとユーザーとの動作の特有な対話モードをプログラムすることができるものであってもよい。このオペレータインタフェースは、ロボットおよびユーザーと離れた場所からアクセスすることができる。ロボットは物理的な装置であることができ、また、仮想的なものであってもよい。
すなわち本発明は、入力を感知してアクチュエータを動作させるために前記アクチュエータと通信し、かつ、処理ユニットに備えられたトランシーバーと通信し、電源を備えたセンサーと、前記センサーと前記アクチュエータとの間で一つ以上の信号を送信して、前記センサーからのフィードバックに応じて前記アクチュエータの制御を可能にする動的制御システムと、を有し、前記処理ユニットは、前記センサーからの信号を受信して処理する信号処理プロセッサーと通信し、かつ、前記センサーの感知した入力を前記アクチュエータに伝え、前記アクチュエータから受信された信号を前記センサーへ伝えるものであり、前記センサーは生物測定センサーであって、その入力が位置、速度、加速度、力、音、温度、電気、赤外線、超音波、ビデオ、圧力、電磁放射である信号通信システムである。
また、本発明の第2態様は、アクチュエータによって動作するロボット装置であって、センサーから前記アクチュエータへの信号を処理するためのコントローラと、入力を感知するためのセンサーを備えて、前記センサーの信号をアクチュエータに通信する動的制御システムと、を有し、前記アクチュエータは、前記動的制御システムからの前記信号を受け取って、定義されたしきい値を超える前記入力に対応してロボット各部を作動させるものであり、前記センサーは生物測定センサーであって、その入力が位置、速度、加速度、力、音であるロボット装置である。ここで前記信号は、無線信号でありうる。
【0009】
本発明の変形形態としては、ロボット装置を制御するための方法である。この方法は、ロボットと通信してセンサーデータを読み込み、センサーデータ処理し、センサーからロボットと通信しているレシーバまで無線接続によりセンサーデータを送信し、センサーデータを解析し、および解析されたデータに応答してロボットのアクチュエータを作動させる、ステップを含む。センサーデータを処理するステップは、モニタしているセンサーからの物理的入力信号を処理し、アナログからデジタルへの変換、圧縮、マッピング、しきい値との比較(thresholding)、フィルタリング、またはパターン認識からなる群から選択された機能を含むことができる。この方法は、ロボットのアクチュエータをリアルタイムで制御するためにロボットにセンサーデータを直接送信するステップを含むことができる。データを解析するステップは、アナログからデジタルへの変換、解凍、復号、マッピング、しきい値との比較、フィルタリング、またはパターン認識からなる群から選択された機能を包含することができる。加えて、この方法は、後から再検討するためにセンサーデータを記録すること、または、後からロボット装置にセンサーデータを実行させることを含むことができる。この記録データは、評価目的のために離れた場所からアクセスされることができ、または、データをロボット装置と連動させて実行することができる。この方法はまた、センサーとロボット間の対話型通信を提供することを含むことができる。加えて、この方法はまた、ロボットまたは離れたコンソールと通信して、近くでまたはネットワーク化されたコンピュータを通して離れたところから、オペレータインタフェースを通してロボットの構成を修正することを可能にすることができる。
【0010】
また、他の本発明の変形形態としては、コンピュータ読み込み可能な信号関係媒体を含んでいる物品である。この媒体は、無線接続上のデータ送信のための手段、離れたロボット装置の信号の起動を伝達するための手段、センサーとロボット装置のアクチュエータとの構成パラメータを遠隔で設定するための手段、およびロボット装置と通信してロボット装置とユーザー間の動的な対話を提供するための手段を含む。この手段は、記録可能なデータ記憶媒体、調整されたキャリア信号、またはそれらの組み合わせから選択することができる。信号の起動を伝達するための手段は通信プロトコルである。構成パラメータを遠隔で設定するための手段は、グラフィカルユーザーインタフェースを含む。加えて、この物品はまた、信号データの評価をリアルタイムで行う処理を含むことができ、同様に、オペレータとロボット装置との間の離れたところからの対話をリアルタイムで実施する処理を含むことができる。このアクチュエータ起動データは、媒体に保存して記録することができる。この保存されたデータは、それから、媒体中においてロボット装置から離れたコンピュータに送信することができる。
【0011】
本発明の他の特徴および効果は、本発明の添付の図面と共に後述する好ましい実施例の詳細な説明から明らかになる。
【発明を実施するための最良の形態】
【0012】
好適な実施例の説明
概要
図1は、対話型ロボット装置の要素を例示しているブロック図である。その基礎形態において、ロボット10およびインタフェース20を含む。ロボット10は複数の部分を有する。そして、好ましい実施例のそれは人間の格好の典型である。インタフェース20は、センサー、好ましくは複数のセンサーを含む。各々のセンサーは、異なる場所に配置され、インタフェース20からロボットへ動作信号を送信するように機能することができる。一実施例において、インタフェースは一組のウェアラブルセンサーと同義である。異なるセンサーは、ユーザーの身体の異なる場所に沿って配置されることができる。例えば、ユーザーは、腕センサー、および足センサーを着用することができ、それらは、それぞれロボット10の腕アセンブリおよび足アセンブリと通信するためにマップされる。したがって、各々のセンサーはインタフェースユニット20の一部であり、好ましくはロボット10の対応しているアセンブリと通信するためにマップされる。
【0013】
可動部位に対応するロボット10の各々のサブアセンブリは、インタフェース20の対応しているセンサーと通信するアクチュエータを含む。ロボットは、インタフェースユニット20からの信号を受信して、受信した信号を適当なアクチュエータのために変換するためのコントローラを含む。ロボット10のアクチュエータの各セットは、ロボットのアセンブリと関連していた一致するアクチュエータの動きを制御する。例えば、腕アセンブリは、インタフェース20の腕センサーから受信した信号に応答してロボットの腕の動きを制御する複数のアクチュエータを含む。ユーザーは、ロボット10の対応しているボディ部分の動きを制御するために、身体の特定の部位にインタフェース20のセンサーを着用することができる。インタフェースのセンサーはコントローラに信号を送信し、それは信号を受信してロボット10の対応しているボディ部分の動作を制御する。したがって、ロボットは、受信した信号に応答してロボット10の対応している部位を動かす形でユーザーにフィードバックを提供する。
【0014】
技術的な詳細
ロボット装置
ロボット10は、様々な形態になることができる。ロボット10の一つの実施例は、図2に示される。ロボット10は、ボディ50と、目32および口34を含む顔部材を持つヘッド30を含む。顔部材に加えて、ロボットは腕40、およびロボット10の物理的移動を可能にするための足シャシー60を含む。付加的な物理的部材が、付加的な運動を可能にするためにロボット10に取り付けることができるが、ロボット10の特徴を制限するものであると考えられてはならない。したがって、図2において例示される部材は、単に、ロボットにおいて提供される動作の例を図示するだけである。
【0015】
図2に示すように、ロボット10は、ボディアセンブリ50、腕アセンブリ40、足シャシー60、およびヘッドアセンブリ30を含む。腕アセンブリ40は、ロボット10の腕が垂直および水平方向に移動できるように設計されている。足シャシーは、平面上で前進後退運動可能なように、同様に時計回りまたは反時計回りに回転運動可能なようにドライブトレインアセンブリを含む。ヘッドアセンブリは、ヘッドの傾き回動運動を可能にし、同様に時計回りのまたは反時計回り方向のヘッドアセンブリの回転運動を可能にする。保護シェル15は、アセンブリの外部材を囲み、ロボットに異なる外観を呈するのを可能にするために装飾的なデザイン部材を含むことができる。したがって、図2において例示されるアセンブリは、ロボットの物理的部分の図示であり、各々図示されたアセンブリと通信してセンサーに応答する。
【0016】
腕アセンブリ40、足シャシー60、およびヘッドアセンブリ30は、各々ロボット10のボディ50の異なる部分に接続されている。図3は、ロボットのボディ50およびボディの異なる部分に対する上記のアセンブリ30、40、50および60に関連する接続を例示している線図である。ボディ50とヘッドアセンブリ30との間は、ボディ50にヘッドアセンブリ30を取り付けるためのネックアセンブリ70である。好ましい実施例において、ネックアセンブリ70は、ヘッドアセンブリ30の回転を容易にするためにロールジョイントの形態であることができる。様々なロールジョイントの構造をネックアセンブリ70において使用することができる。ロールジョイントの一つ例は、図3に示される。ここで例示されるロールジョイントは、ロッド74上へハンダ付けされたディスク72を含み、ディスク72は2つのプレート76aおよび76bの間に捕らえられている。このディスク72は、2のプレート76aおよび76bの間で自由に回転する。ロールジョイントは、リベット78aおよび78bを有するロボット10のボディ50のトップエリアに固定される。ここで述べられるロールジョイントは、単に図示しているだけであり、ロボット10のボディ50に対して相対的にヘッドアセンブリに類似な、または付加的な運動能力を提供するために修正されることができる。ロールジョイントに加えて、図3は、電源56、トランシーバー57、およびコントローラ58を含むボディ50に収容された他の部材を例示する。トランシーバー57およびコントローラ58は、電源56から電力を受ける。加えて、トランシーバー57は、リモートセンサまたは離れたコンソールから発している信号25を受けるように適応されている。コントローラ58によって受信された信号は、ロボット10内で特定のアセンブリの運動を制御するように割り当てられたモータの操作を制御する。したがって、ロールジョイントの構造は、ヘッドアセンブリ30に、ピッチおよびヨー動作を可能にする。
【0017】
図4は、ロボット10のヘッド30およびネックアセンブリ70を示す図である。この図において、ヘッドアセンブリ30は第1モータ38aを含み、ネックアセンブリ70は第2モータ38bを含む。第1モータ38aはネックアセンブリ70のロールジョイントに接続され、ヘッドアセンブリのピッチ運動を制御する。すなわちロボット10のヘッドアセンブリ30を前方または後方へ傾斜を可能にする。より具体的には、ヘッドのチルティングは、ネックアセンブリ70のロールジョイントのロッド74に取り付けられたモータ38aによって制御される。箱80は、第1モータ38aを密封し、外部の要素から第1モータ38aを保護する層として役立つ。加えて、ヘッドカバー85は、第1モータ38a、ロッド74、およびロールジョイントのプレート76a、76bを密封する。第1モータ38aは、垂直軸に沿ってロッド74と箱80の間の相対的な運動を調整することによって、ヘッドアセンブリ30の傾斜運動を制御する。第2モータ38bは、水平軸に沿ってヘッドアセンブリ30の回転運動を制御する。回転運動は、ネックアセンブリ70のロールジョイントのロッド74およびディスク72によって制限される。
【0018】
加えて、ボディアセンブリ50とヘッドアセンブリ30は、図3および4において、それぞれ例示されたように、ロボットはまた腕アセンブリを含む。図5は、ロボット10の二つの腕センブリ40を示す。図示するように、ロボットは人間の身体形状を模倣するので、ロボット腕アセンブリは2本の腕を持つ。しかし、ロボットは、例示される2つを上回る多数の腕を持ったり、一本の腕に限られたりするように変更されてもよい。
【0019】
腕アセンブリは、円筒形のハウジング42によって密封されている。このハウジングはアセンブリ44を封入する。そして、それは第1モータ46aおよび第2モータ46bを含む。第1モータ46aおよび第2モータ46bは、円筒形のハウジング42の内側の表面に固定されている。加えて、第1モータ46aは、それに対して固定される第1プッシュロッド90を有する近接端部48を持ち、第1プッシュロッド90の近接端部92が第1レバーアーム100に固定される。同様に、第2プッシュロッド110の近接端部49は、第2モータ46bに固定され、第2プッシュロッド110の近接端部112が第2レバーアーム120に固定される。第1レバーアーム100および第2レバーアーム120の両方は、それぞれピン115および125を含み、各々のレバーアームの回転の軸を規制する。各々の軸ピン115、125は、それぞれ、各々のレバーアーム100、120の軸外の回転を制限するためにスラストブッシングを持つ。腕アセンブリ40は、ロボット10のボディ50に取り付けられている。動作に際して、モータの回転運動が、線状の運動に変換される。加えて、各々の腕レバー100、120は、この腕100、120の物理的属性に対応し、かつ腕アセンブリの設計機能の構造上の限定範囲内で動作可能なように設計されたシェル130によって収容されている。
【0020】
ヘッドアセンブリ30、ネックアセンブリ70、および腕アセンブリ40に加えて、ロボット10は、また、ロボット10に複数方向の移動を提供するためのドライブトレインアセンブリ130を有する足シャシー60を含む。図6は、ドライブトレインアセンブリ130の一実施例の図である。ドライブトレインアセンブリ130は、ロボット10のボディアセンブリ50の底部52に固定されたハウジング132によって封入されている。加えて、ハウジング132はモータ134、車輪136、およびスライダ138を封入している。モータ134は、シャシー60の内側の表面に取り付けられている。モータ134は、直接機械的な接続により車輪136の車軸140に固定されている。車軸140は、シャシー60に取り付けられた2の軸受142で支えられている。この車輪136と隣接している排障器144は、車輪136を外部の要素から保護する。このスライダ138は、好ましくは、バネ仕掛けであって、シャシー60の下側に固定されており、ロボットが載せられている平面上で低い摩擦接点として機能する。このスライダは、本質的に、ロボット10の動いている間の転倒を防止する。単一のモータ−車輪アセンブリだけが例示されているが、ドライブトレインアセンブリ130は複数のモータと関連する車輪で設計されることができる。したがって、ドライブトレインアセンブリ130は、ロボットが平面上で複数の方向に移動することを可能にする。
【0021】
図7は、リモートセンサに信号を送信し、同様にリモートセンサから信号を受信するための処理ユニット150を有するロボットの図である。処理ユニット150は、信号を送信および受信するトランシーバー155、受信した信号を処理する信号プロセッサ160、および信号をモータ162に割り当てるための中央処理ユニット(CPU)158を含む。このCPU158は、処理ユニット150からロボット10のアセンブリの適当なモータまで処理された信号を送る。ロボット10の各々のモータは、直接または間接的に、アセンブリのモータへおよびモータから、運動信号を受信および送信するための処理ユニット150に接続されている。他の実施例において、ロボット10は処理ユニット150を含まなくてもよい。むしろ、ロボット10の各々のモータは、直接センサーから送信される信号を送受信するためにトランシーバーを含んでいてもよい。したがって、ロボットの各々のモータまたは処理ユニット150は、離れた場所からの信号を送受信して適当なアセンブリのモータを動かし制御するように機能する。
【0022】
図2−7のロボット10に関連して、センサーまたはセンサーのネットワークは、独立して、またはロボット10の処理ユニット150を通して、ロボットの各々のモータと通信するために提供される。図8は、ロボット10から離れたユーザーに取り付けられている単一のセンサー172の例示170である。センサー172はまた、電源(不図示)、トランシーバー(不図示)、および信号プロセッサ(不図示)を含むことができる。センサー172は、身体の特定の場所にユーザーによって着用され、無線信号によってロボット10に身体の動きを送信することができる。同様に、送信された信号はロボット10の処理ユニット150によって受信され、ユーザーにフィードバックを提供するために処理される。フィードバックは、様々な形態で表示することができ、センサー172に対応しているロボット10のボディ部分の動きの形での直接のフィードバックを含む。したがって、この実施例は、一つのセンサーから離れたロボット10のモータへの無線通信の例である。
【0023】
図9は、中央ユニット220と通信するセンサーのネットワークの例示200である。この図において、センサーのネットワークは、図2−7において例示されたロボット10のアセンブリに関連して示されている。中央ユニット220は、電源222およびトランシーバー224を収容する。中央ユニット220は、ユーザーによって着用される形態で収納され得る。例えば、中央ユニットは、バックパック、ファニーパック、またはユーザーが着用することができる多様な封入物において収納されることができる。手首センサー230は、示されているように、手首バンドの形でユーザーの手首に固定される。手首センサー230は、手首バンドに固定または縫い込まれているスイッチ232を含む。手首センサーのスイッチ232は、ロボット10の腕アセンブリ40に、ユーザーの手首の動きを伝達するために使われる。ヘッドカバー240は、示されるように、ユーザーの頭につけられている。ヘッドカバー240は、スイッチ242およびジャイロスコープ244を含む。スイッチ242とジャイロスコープ244の両方は、ヘッドカバー240に固定または縫い込まれている。ジャイロスコープ244は、ヘッドカバー240の範囲内のハウジング246のなかに密封されている。電力が供給されると、ジャイロスコープ244と関連する電子部材は特定の平面上のいずれかの線状の加速中に、抵抗変化を提供する。この抵抗の変化は、中央ユニット220のトランシーバー224の電子部材に直接割り当てられる。ヘッドカバーのスイッチ242およびジャイロスコープ244は、ロボット10のヘッドアセンブリ30に、ユーザーの頭の動きを伝達するために使われる。同様に、圧力検知のためのスイッチ250は、ユーザーの足の下側表面に取り付けられている。ユーザーがスイッチ250を踏んだとき、スイッチ250はユーザーの圧力を吸収する。スイッチ250の起動は、ロボット10のドライブトレイン130の平行移動および/または回転を制御する。各々のセンサー230、240、および250とジャイロスコープ244は、中央ユニット220に配線でつながれて、または無線周波による無線で、通信することができる。好ましい実施例において、スイッチ232、242および250は、1.5オームの抵抗を通して、トランシーバー224におけるポテンショメータの接点に配線される。制御の他の形式に、または多くの種類の障害の用途のために、システムを適応させる設計を選択する問題として、他のセンサーが使用されてもよいことが理解されるべきである。例えば、マイクロフォンは、ユーザーからロボット10へ音声信号の伝送を可能にするためにユーザーに取り付けることができる。同様に、各々のセンサーは、ユーザーの所望する動きの範囲によって異なるしきい値に調整することができる。したがって、ここで例示されるセンサーネットワーク装置は、ユーザーに固定されるネットワークアセンブリおよび遠隔ロボット10を無線通信を行う形態の一実施例に過ぎない。
【0024】
センサー300のネットワークの他の形態が、図10に示される。この図において、センサーはユーザーに着用されていない。むしろ、センサーはユーザーと離れたコンソール310に固定される。このコンソールは、音声信号を送信するためのマイクロフォン312の形態、および以下のグループからロボットのモータ制御のために選択されたセンサーを含む。グリップセンサ314、ジョイスティック316、押しボタン318、スライダ320、およびダイヤル322。センサーの他の例は、以下のグループから選択された機械的および電気的センサー装置を含む。力反射ジョイスティック、押しボタン、およびスライダ。コンソールユニットの目的は、ロボットと通信するために別の通信モードを提供することである。選択された通信モードの構造は、望ましいリハビリテーション運動に依存している。各々のセンサーは、ロボット上の一つ以上のモータにマップされることができる。センサーの作動により、ロボット上の対応するモータは、通信信号を受信する。センサーに加えて、コンソールは、図9に示されたセンサーネットワーク200の制御ユニットと類似の制御ユニット330を含む。制御ユニット330は、電源332、トランシーバー334、および中央処理ユニット333を含む。コンソール310の制御ユニット330は、また、センサーの作動を記録し保存するメモリを含むことができる。加えて、コンソールは、センサー−アクチュエーターシステムの様々な作動モードを表示するためにビデオモニタを含むことができる。例えばユーザーまたは他のオペレータが、センターデータの記録または保存を選択する場合、ユーザーおよび/またはオペレータは、ユーザーによるセンサーの記録された動きおよび関連するモニタ上のこのような記録の表示を、後から選択して実行することができる。ここで例示されるコンソール330は、様々なセンサーおよび制御機構を使用できるように設計されている。図10に示される各々のセンサーは、単に、図2−6に示されるロボットの関連するアセンブリと通信するためのセンサーの一例を示すだけである。加えて、コンソールはセンサーによるユーザーの動きを、記録し、保存し、および/または実行する能力のないリモートセンサの能力のために設計されている。したがって、図10のコンソールは、単にロボットと通信するために適応するコンソールの一形態を示す図である。
【0025】
信号通信
センサーネットワーク200のユニット220および330とコンソール310は、それぞれ、処理に適応して、関連するセンサーから位置付けられたロボット10のモータまで受信した信号を送る。同様に、各々の制御ユニット220および330は、ロボット150の処理ユニットからの信号を受信し、および適当なアセンブリアクチュエーターに受信された信号を送信するために適応する。図11は、ユーザー入力データ、およびデータが、リアルタイム制御モードのロボット10上の適当なアセンブリに処理して送信する方法を例示するフローチャート350である。このフローチャート350は、リアルタイム制御のロボット10に対するセンサーネットワークのなかの一つのセンサアセンブリまたはセンサーからの信号の流れを例示する。ユーザーによって着用された物理的センサーの場合、ユーザーはセンサーが固定された身体の一部が動くことによって、センサー入力352が変化する。センサーデータはそれから処理354され、無線ネットワーク356を通じて送信機またはトランシーバーによって送信される。同様に、センサーが聴覚器官センサーである場合、ユーザーはマイクロフォン358に話すことによってセンサーを作動させる。聴覚器官データはそれから処理360され、および無線ネットワークを通じて送信機またはレシーバによって送信356される。この例では、センサーは単一のセンサアセンブリであり、送信機および信号プロセッサは個々のセンサーに一体化している。ロボットへのセンサー信号データの伝送後、信号データは受信362され、続いて分析364される。データ分析のステップ364は、信号データ、マッピング信号データ、フィルタリングデータを圧縮または解凍すること、および/または信号データがしきい値に達したかどうか決定することを包含することができる。データ分析364後の信号データは、信号に関連するアセンブリの制御モータに送信366される。システムは、その後センサーからの伝送に何らかのエラーがあったかどうか決定するために信号をチェック368する。したがって、一つのセンサーはリアルタイム制御モードにおいて、センサーとの通信によって信号がセンサーからアセンブリを動かすためにロボットのモータまで送られる。
【0026】
図12は、図11に示されるそれに対する他の実施例である。図12は、無線ネットワークの一部で、多数のセンサーのモニタリングを例示しているフロー図380であり、センサーデータが処理されて無線でロボット10上の適当なアセンブリに送信される方法を示している。図12に示すように、複数のセンサー382、384および386があり、各々のセンサーは、異なる場所にある。センサー382、384および386は、一緒に繋がれて一つの処理ユニット390に接続されている。処理ユニット390は、信号を受け392、信号データを処理394し、離れたロボットに無線ネットワークを通じて信号データを送信396する。ロボットへの信号データの伝送後、データ信号は受信398され、続いて分析400される。データの分析ステップ400は、信号データ、マッピング信号データ、フィルタリングデータを解凍すること、信号データがしきい値に達したかどうか決定することを包含することができる。データの分析ステップ400後、信号が、物理的運動信号の場合には信号に関連したアセンブリの制御モータに送信402され、また聴覚器官データの場合にはスピーカに送られる。システムは、その後センサーからの伝送に何らかのエラーがあったかどうか決定するために信号をチェック404する。したがって、この実施例は、一つの処理ユニットで通信するリモートセンサの一つのネットワークを示しており、センサー信号データの処理後、データはリアルタイム制御モードのときに離れたロボットに無線で送信される。
【0027】
図13は、図12に示されるそれに対する他の実施例である。図13は、多数のセンサーサブネットワークのモニタリングを例示しているフロー図420であり、離れたロボット10に信号を送信するために無線サブネットワークのネットワークで通信する方法を例示している。図12のセンサシステムは、サブネットワーク430になり、多数のサブネットワーク430、450、および470は、ロボットと通信する無線ネットワークを構築する。図13に示すように、各々のサブネットワークは、複数のセンサーを有する。センサーの第1サブネットワーク430は、複数のセンサー432、434および436を有し、各々のセンサーは異なる場所にある。センサーの第2サブネットワーク450は、複数のセンサー452、454および456を有し、各々のセンサーは異なる場所にある。センサーの第3のサブネットワーク470は、複数のセンサー472、474および476を有し、各々のセンサーは異なる場所にある。センサーの各々のサブネットワーク430、450および470は、無線センサーのネットワークの一部である。サブネットワークは無線であるので、各々のサブネットワーク430、450および470は、センサーの他の部材に加えてそれ自身が電源およびトランシーバーを有する。センサーの各々のサブネットワークは、一緒につながれて、それぞれそれ自身の処理ユニット440、460および480に接続されている。適当な処理ユニットは、信号442、462または482を受信し、信号データを処理444、464または484し、離れたロボットへ無線ネットワークを通じて信号データを送信する。続いて、ロボットへの信号データの伝送後、信号データは受信490されて、続いて分析492される。データ分析のステップ492は、信号データ、マッピング信号データ、フィルタリングデータを圧縮または解凍すること、および/または信号データがしきい値に達したかどうかを決定することを包含することができる。データ分析のステップ492の後、信号が物理的運動信号の場合は信号に関連するアセンブリを制御するモータに送信494され、また聴覚器官データの場合はスピーカに送られる。システムは、その後センサーからの伝送に何らかのエラーがあったかどうか決定するために信号をチェック496する。したがって、この実施例は、各々のネットワークが自分自身の処理ユニットを通じて信号データを伝達するリモートセンサの複数のネットワークを示しており、センサー信号データの処理後、データはリアルタイム制御モードにおいて離れたロボットに無線で送信される。
【0028】
図11、12および13に示すように、センサーは離れたロボットと通信する。センサーデータは、絶えずモニタされて、処理される。図14は、離れたアクチュエータにセンサーデータを伝送するための処理のプロセスを例示しているフローチャート1000である。センサーデータが読み取り1002であるとき、信号プロセッサは、信号がアナログからデジタルへの変換プロセス1004を要求するかどうか決定しなければならない。センサー上のスイッチがアナログスイッチである場合、信号プロセッサはアナログ形式からデジタル形式にセンサーデータの変換を実行する1006。しかし、スイッチがデジタルスイッチである場合、信号プロセッサは、信号データのフィルタリングが必要かどうか決定するためにステップ1004からステップ1008へ進む。1008の質問に対する答えがポジティブの場合、信号プロセッサは信号データにフィルターをかける1010。信号データにフィルターをかけた1010後、または1008の質問に対する答えがネガティブの場合、信号プロセッサはそれから、対応しているアクチュエータに対する信号データのマッピングが実施されなければならないかどうか決定する1016。マッピングステップ1016が必要であると決定された場合、センサーからの信号データは出力のための適当なアクチュエータに位置付ける1018。システムは、それから信号データの入力がアクチュエータの出力にマップされるかどうか質問する1020。ステップ1020の質問に対する答えがネガティブの場合、信号データは捨てられて1022、システムはセンサーからの信号データを受けるために戻る1024。しかし、ステップ1016でセンサー信号をアクチュエータにマップする必要がないと決定された場合、または、ステップ1020でセンサー信号の入力がアクチュエータにマップされると決定された場合、システムは信号データと最小のしきい値とを比較しなければならないかどうか決定する1026。信号データが最小のしきい値レベルを満たさなければならないかどうかの質問に対する答えがポジティブの場合、しきい値データが獲得され1028、信号プロセッサはセンサーからの信号データが定められたしきい値に接触したかまたは上回ったかどうか決定する1030。しかし、センサー信号データが定められたしきい値と接触または上回らなかった場合、信号データは捨てられて1022、システムは、センサーからの信号データを受けるために戻る1024。あるいは、ステップ1026でセンサー信号データが最小のしきい値に到達する必要はないと決定された場合、または、ステップ1030でセンサー信号が定められたしきい値に到達または上回ったと決定された場合、信号プロセッサはそれから信号データを暗号化するかどうか決定しなければならない1032。信号データが圧縮されるべき場合1012。ステップ1012の質問に対する答えがポジティブの場合、信号データは圧縮される1014。1014において信号データの圧縮後、または、1012の質問に対する答えがネガティブの場合、信号プロセッサはそれから信号データが暗号化されなければならないかどうか決定する。信号データが暗号化される場合、信号データはステップ1034で暗号化される。その後、信号データは、直接アクチュエータの出力への送信に進む。あるいは、ステップ1032においてデータが暗号化される必要はないと決定される場合、信号データはアクチュエータの出力に送信のために進む。したがって、図14は、ロボットの信号プロセッサに信号を送信するまでの信号データ処理に関係しているステップを概説している。
【0029】
センサーからの信号データの処理、センサー、センサーネットワーク、またはコンソールからの信号データの送信の処理後、信号データは、ロボットの信号プロセッサによって受信される。図15は、ロボットの信号プロセッサによって受信された信号データを解析する処理1052を示しているフローチャート1050である。信号プロセッサは、第一に、信号データがアナログ/デジタル変換1060に進むことを必要とするかどうかを決定しなければならない。通常、このステップは、信号データがデジタル形式で送信され、処理ユニット150がアナログフォーマットのデータの受信に適応している場合に必要である。アクチュエータが要求する場合、信号プロセッサはステップ1062へ進み、デジタルフォーマットからアナログフォーマットに信号データを変換する。データフォーマットの変換後、またはステップ1060において信号データがステップ1062の変換過程に進む必要がない場合、信号プロセッサは、受信した信号データが暗号化されている場合に信号データが必要とするかどうか決定する1054。信号データが暗号化されている場合、信号データは復号1055されなければならない。信号データの復号1055の後、または信号データが暗号化されていない場合、システムはそれから信号データが圧縮されているかどうか決定しなければならない1056。信号データが圧縮されている場合、信号データは解凍されなければならない1058。1058において信号データの解凍の後、または信号データが圧縮されていないと決定された場合、信号プロセッサは、続いて信号がフィルターをかける必要があるかどうかの決定に進む。ステップ1064の質問に対する答えがポジティブの場合、システムは信号データにフィルターをかけるためにステップ1066へ進む。1066で信号データにフィルターをかけた後、または信号データがフィルターをかけることを必要としない場合、信号プロセッサは、アクチュエータおよび関連するモータに信号データを送信する1068前に信号データが圧縮を必要とするかどうか決定する。処理ユニット150が圧縮されたデータの受信に適応する場合、信号プロセッサは信号データを圧縮1070し、信号データが適当なアクチュエータのためのマッピング手順に進むことを必要とするかどうか決定するためのステップ1072へ進む。同様に、ステップ1068で信号データが圧縮される必要はないと決定される場合、信号プロセッサはマッピング判定のためのステップ1072へ進む。付加的なマッピングを信号データが必要とする場合、信号プロセッサは信号データを適当なアクチュエータのマップ1074へ進む。しかし、受信した信号データがアクチュエータにマップされない場合1076、信号プロセッサは信号データを廃棄し1078、信号プロセッサは次の信号データを受信し処理するために戻る1080。
【0030】
ステップ1072で信号プロセッサは、付加的なマッピングが必要でないと決定された場合、またはステップ1076で信号プロセッサが適切に信号データを適当なアクチュエータにマップした場合、信号プロセッサは信号データが定められたしきい値と比較する必要があるかどうか決定する1082。あらかじめプログラムされたしきい値に基づいて、信号プロセッサは、しきい値のデータを得て1084、信号データがしきい値に達しているかまたはしきい値を上回っているかどうか決定する1086。信号データがしきい値データに達していないかまたは上回っていない場合1086、信号データは廃棄されて1078、信号プロセッサは、次の信号データの受信および処理のために戻る1080。しかし、信号データがしきい値に達したかまたはしきい値を上回った場合、またはステップ1082で信号データが所定のしきい値を満たす必要はないと決定された場合、信号プロセッサはそれから処理ユニットがアナログデジタル変換処理を通じて進む信号を必要とするかどうか決定する1088。信号データがアクチュエータによって受け取られるために互換性を持つフォーマットであると決定された場合、信号データは適当なアクチュエータへ送られ、信号プロセッサは追加の信号データを受けるために戻る1080。しかし、信号データがアクチュエータによって受信できる互換性を持つフォーマットではない場合、信号データは、適当なアクチュエータに送られる前にアナログデジタル変換1090を通じて処理される。したがって、図15は、ロボットの信号プロセッサによって受け取られた信号データの分析に関連するステップを概説している。
【0031】
図11、12および13に示すように、システムは、アクチュエータと無線通信するセンサーまたはセンサーのネットワークと共同して機能することができる。加えて、システムは、ロボットから離れたコンソールに取り付けられたセンサーから機能することができる。コンソール310は、4つのモード:リアルタイム502、レコード504、プレイ506、または、レコードおよびリアルタイム制御508のうちの一つのなかで作動するように適合している。図16は、モード選択能力を有するコンソールのブロック図500である。ロボット10と対話型を始める前に、ユーザーは作動モードを選ばなければならない。図16に示すように、コンソールは、ボタンと関連する作動モードを示すためのインジケータを有する各々のボタンを有するボタン502、504、506、および508の列を包含する。コンソールは、モジュール部分312、314、316、318、320および322を装備している。加えて、コンソールはグラフィカルユーザーインタフェースおよび中央処理ユニットを含むために拡大されることができる。本実施例において、ユーザーはモジュールインタフェースを通じてロボットの作動モード510を選ぶことができる。したがって、コンソールは、オペレータが作動モードを選ぶことを可能にするモジュールモードセレクタを含むために拡大されることができる。
【0032】
図17は、コンソール、またはコンソールに関連するグラフィカルユーザーインタフェースを通じた作動モードの選択を例示しているフローチャート550である。デフォルト作動モードは、リアルタイム制御である。セッションの開始時552に、モードはリアルタイム制御のデフォルトモードに初期化される554。その後、モードは、モード選択555を通じてユーザーによって変更することができる。モード選択555は、コンソール556の適切な制御から得られる。モード選択のデータは、それから分析される558。それは、ユーザーが作動モード560の変更を選んだ場合それから決定されなければならない。ユーザーがデフォルト作動モード以外のモードまたは代わりに割り当てられたモードを選んだ場合、作動モードは、更新されて562、コンソール556の適切な制御から得られる。そうでなければ、デフォルトモードまたは代わりに選択された作動モードは、効力が残る。したがって、ユーザーおよび/またはオペレータは、セッションの初めにまたはロボット10の操作の次の段階で、作動モードを選ぶことができる。
【0033】
コンソールユニットは、ロボット装置へのコンソールに固定されたセンサーからデータ通信するためのユニットとして機能する。同様に、コンソールは、センサーからのデータの記録されたファイルを蓄積するためと、ロボット装置10へ保存されたデータのファイルを送信するための中央処理ユニットを含むことができる。図19に示すように、通信システム650は、ロボット装置10と無線通信し、同様に無線(ウェアラブル)センサーまたは無線センサー670のネットワークを無線通信するコンソール660を包含することができる。ロボット装置と通信するコンソール660の機能は、モード選択と信号通信を含む複数の機能である。ロボット装置と通信するセンサー670のネットワークの機能は、図11、12、および13に示して概説されている。加えて、システム650は、ロボット装置10およびコンソール660と通信する無線センサー670のネットワークによって設定されることができる。コンソール660へのメモリの追加で、コンソールは、コンソールユニット660に接続されているセンサーに加えて、無線センサー670からセンサーデータを受信して蓄積するために拡大することができる。したがって、ロボット装置は、コンソールに固定されて離れているセンサー、同様に独立した物や人に固定されて離れているセンサーからロボット装置と無線通信できるように拡大することができる。コンソールおよび遠隔のセンサー670またはセンサーネットワークからセンサーデータを通信するシステムの展開に加えて、コンソールは、中央処理ユニットを含むために拡大されることができる。中央処理ユニットの目的は、コンソールの保存および記憶容量を拡大することである。これは、保存されたセンサーデータおよび後で再生されたセンサーデータのコンソール660での使用を可能にする。加えて、コンソール660の中央処理ユニットは、パーソナルコンピュータ680および690、または外部サーバ685に接続のための通信ポート675を含むために拡大されることができる。通信ポート675は、コンソールと拡大された能力を有するコンピュータ680との間のデータ転送を可能にする。コンピュータ680は、それから外部コンピュータ690と、直接またはイーサネット(登録商標)や他の通信プラットフォームを通した外部サーバ685を経て通信することができる。加えて、コンソール660は、通信ポート675を伴う中央処理ユニットを踏むために拡大される場合、コンソールは直接離れているパーソナルコンピュータ690と、またはイーサネット(登録商標)接続または他の通信プラットフォームを通じてネットワークサーバ685と通信することができる。外部コンピュータ685からコンソール660まで接続を維持することによって、システムから離れているユーザーは、様々な方法:セッションのモニタ、遠隔でのロボットとの対話、セッションからのデータのダウンロード、およびローカルユーザーとの情報交換により、システムと相互に対話することができる。離れているPC690への間接的なリンクを提供することに加えて、外部サーバ685とコンソール660またはローカルPC680との間の通信接続によっても、ローカルユーザーが外部サーバ685から新規なゲームおよび物語をダウンロードすることができる。したがって、外部コンピュータとの通信のためのコンソールユニットの拡大は、システムの機能性を拡大して、および電気通信ネットワークを通じたシステムと通信するためのサポートを提供する。
【0034】
コンソールおよび関連するロボット10のデフォルト作動モードは、リアルタイム制御である。リアルタイム制御モードにおいて、コンソール上のセンサーは、ロボット10の関連するモータの制御を始めるために作動する。センサーからロボット上の対応するアセンブリおよびモータへのデータの流れは、図11において例示される流れに類似するものである。図18は、コンソールからロボット上のアクチュエータへのデータの流れを例示しているフロー図580である。ユーザーは、動くこと、あるいはコンソール585上の制御の一つを起動させることによって入力する。マイクロフォンがコンソール上のセンサーとして提供される場合、入力は実際には聴覚器官である。その後、センサーデータは、それからコンソール590の制御から得られる。データを得るステップ後、データの流れが分析される592。分析は、一緒に入力されたデータストリームに埋め込まれている多数の制御から得られる信号を切り離して識別するために実行される。分析ステップ592の後、システムは作動モードを決定する。作動モードが以前記録されたデータを再生することになっている場合594、データはおそらくコンソール596から保存された場所から取り込まれて、ロボット装置598へ無線ネットワークを通じて送信される。ロボットへのデータファイルの送信後、データストリームが受信され600、データのなかの信号が続いて分析される602。データ分析のステップは、信号データのマッピング、データのフィルタリング、および/または、信号データが定められたしきい値に到達したかどうか決定することを包含することができる。データ分析602の後、信号データは、信号に関連するアセンブリを制御するモータ604に送信される。システムは、それから、コンソール606からの伝送において何かエラーがあったかどうか決定するために、信号を点検する。したがって、再生モードにおいては、信号データは、センサーと関連するアセンブリを動かすために、データファイルからロボットのモータまで、直接または中央処理ユニットを通して送信される。
【0035】
図18のステップ594において作動モードが以前記録されたデータファイルを再生することになっていないと決定される場合、システムはデータを処理する608。データ処理のステップは、データを圧縮すること、データをマップすること、データをしきい値と比較すること、データをフィルターすること、データのパターンを認識すること、を含む。続いて、作動モードがデータを記録すると設定された場合610、データはファイルに保存される612。この作動モードは、リアルタイムのデータを単にデータを記録するか、または記録して再生するかのいずれかである。現在のモードが単に記録することに設定されている場合614、システムはコンソールの制御から追加のデータを受け入れるためにステップ590に戻る。しかし、現在のモードが記録およびリアルタイム制御が結合したものである場合、データは無線ネットワークを通じてロボット616に送信され、同時にコンソールにおいてデータファイルに保存される。同様に、ステップ610で質問に対するレスポンスがネガティブの場合、システムはデフォルトモード、リアルタイム制御618になって、ロボットに無線ネットワークを通じて処理されたデータを送信する616。ステップ616のロボットに対するデータの伝送後、データが受信されて600、データは続いて分析される602。データ分析のステップは、信号データの圧縮または解凍、信号データのマッピング、データのフィルタリング、および/または信号データが定められたしきい値に達したかどうか決定することを含む。データ分析604の後、信号データは、信号に関連するアセンブリを制御するモータ604に送信される。システムは、それからコンソール606からの伝送に何かエラーがあったかどうか決定するために信号を点検する。したがって、再生、記録とリアルタイム制御、または、リアルタイム制御のいずれであっても、処理されたデータは、コンソールからロボットのモータへ、作動したセンサーと関連するアセンブリを動かすために、直接または中央処理ユニットを通じて送信され、付加的に、現在モードがデータ記録である場合、データは、コンソールの中央処理ユニットで処理されて保存され、後から再生される。
【0036】
図20は、グラフィカルユーザーインタフェース710を含むように拡大されたコンソールユニット700を示す図である。本実施例において、グラフィカルユーザーインタフェースは、ユーザーが視覚的にモード選択と同様に命令選択と入出力を行うことができるように、コンソールで提供されるモニタに示される。基本形式としてグラフィカルユーザーインタフェースは、ロボット装置との対話型モードのための選択機能を含む。モード選択は、リアルタイム制御712、記録714、再生716、および記録とリアルタイム制御の組み合わせ718を包含している。この図において、モード選択は、グラフィカルユーザーインタフェースの一部としてだけ示される。コンソールは、また、図16に示すように、モジュールのセンサー部材312、314、316、318、320および322を含む。したがって、グラフィカルユーザーインタフェースはセンサーのモジュール部材を越えて、コンソールの作動モードを拡大する。
【0037】
図21は、グラフィカルユーザーインタフェースと共にコンソールを例示しているブロック図730である。コンソール上のグラフィカルユーザーインタフェース710は、図20において例示したコンソールユニット700に示されるすべての機能に加えてシステムの対話型作動モードのための選択機能を含む。対話型作動モードは、ロボット装置に、ユーザーの動きおよび音声によって通信することを可能にし、その一方で、ユーザーは動きおよび音声によってロボット装置に応答することができる。対話型作動モードは、対話型ゲーム720、物語725、またはユーザーがロボット装置10との対話型のゲーム/物語730を作成するための機能の形をとる操作を含む。これらの対話型作動モードの各々は、グラフィカルユーザーインタフェースから選択可能である。本実施例において、コンソール710およびロボット装置10は、対話型作動モードと関連する必要な記憶容量に対応するために中央処理ユニットを含む。対話型作動モードの選択は、ユーザーが利用可能なように独立して選択できる。したがって、対話型作動モードは、コンソールユニットおよびグラフィカルユーザーインタフェース710と関係していて、ユーザーに面白い媒体としてのロボット装置と相互に作用することを可能にする。
【0038】
対話型作動モードのうちの2は、あらかじめプログラムされたゲームの選択および/またはユーザーとロボット装置間の対話型のための物語を要求する。図22は、あらかじめプログラムされたゲームおよび/または物語を選択するプロセスを例示しているフローチャート750である。システムのユーザーは、コンソール装置と関連するグラフィカルユーザーインタフェースの選択ボタンを指示することによって選択を始める752。最初の選択752の後、ユーザーは、彼らがロボットシステムとの対話型の用途に希望するゲームおよび/または物語を求めてローカルシステムを検索するかどうか指示する754。ユーザーが754での質問に対する答えにポジティブを提供した場合、ユーザーがゲームおよび/または物語を選択できるようにリストによって紹介される756。各々のゲームおよび/または物語は、コンソールユニットにあらかじめプログラムされている。ユーザーには、各々のゲームおよび/または物語の名称および説明がメニューによって提供される。システムはそれから、ユーザーがメニューからゲームおよび/または物語を選ぶ入力760をするまで休止して待つ758。ユーザー入力後、システムはユーザーが検索要請を出したかどうか照会する。ユーザーがローカルシステムに設置されるゲームおよび/または物語を選んだ場合、システムはそれからゲームおよび/または物語を開始する766。加えて、コンソールにおいて蓄積されている、ロボット装置を伴うゲームおよび/または物語をダウンロードしてプレイすることに、適応するためにコンソールは、図19に示したように、外部のサーバまたはコンピュータと接続のための通信リンクを含む。この構成において、ステップ754において、ユーザーが蓄積された対話型部材をローカルシステムから検索することを選択しない場合、コンソールは、特定の離れたネットワークに記録されているかどうか、およびユーザーが遠隔で検索したいかどうか決定するために質問する768。システムは離れたネットワークのなかに記録される場合、ユーザーには、それから、ローカルコンソールおよび離れたネットワーク場所の両方を通じて利用可能なすべてのあらかじめプログラムされた対話型ゲームのメニューがステップ756で紹介される。しかし、768でコンソールが対話型部材にアクセスするための適当な場所に接続されていないと決定される場合、ユーザーは適当な離れた場所に能動的にログインしなければならない770。その後で、ユーザーには、離れたネットワーク場所によって利用可能なすべてのあらかじめプログラムされた対話型ゲームのメニューがステップ756で紹介される。システムはそれからユーザーがメニューからゲームおよび/または物語を選ぶ760まで休止して待つ758。ユーザー入力後、システムはユーザーが検索要請を出したかどうか照会する。システムは、それから選択されたゲームまたは物語をダウンロードして764、続いてゲームまたは物語を開始する766。したがって、ユーザーは、対話型部材のためのグラフィカルユーザーインタフェースによって利用可能なあらかじめプログラムされたゲームを、ローカルにまたは通信リンクによってコンソールに接続された離れた場所から選択することができる。システムは、プログラムが開始されるごとに、または一日に一度、あるいはその両方で、ネットワーク接続がある場合に、自動的にローカル・コンピューターで利用可能なゲーム/物語が選択できるように更新する。
【0039】
マッピング
ユーザーとロボット装置間の対応関係を定義付けする(マッピング)ために、セラピスト、教育者、または技術者などのような高度なユーザーまたはシステムのオペレータは、マッピングを指示すると同様に、ゲームおよび/または物語を選択することができなければならない。図23は、マッピング選択を支援するグラフィカルユーザーインタフェースの一実施例を示しているブロック図780である。この図において、ユーザーは、リアルタイム制御712、記録714、再生716、記録とリアルタイム制御を含む組み合わせモード718の4つのモードを作動モードとして選ぶことができる。同様に、オペレータは、グラフィカルユーザーインタフェースで、あらかじめプログラムされたゲーム720、あらかじめプログラムされた物語725、または新規な物語の作成730を選ぶことができる。対話型作動モードに加えて、グラフィカルユーザーインタフェースはセンサーとロボットアセンブリのマッピングを設定し735、センサーとロボットアセンブリに関連したしきい値とゲインを設定する740ためのリンク含むために拡大される。したがって、拡大されたグラフィカルユーザーインタフェース780は、ロボット装置の部分と関連する制御の設定をオペレータができるようにする。
【0040】
マッピングは、どんな入力信号が処理されて、いずれの出力ソースとなるかを意志決定するプロセスを実装する処理である。3のマッピングカテゴリがある。(1)1対1、これは1台の入力センサーが1台の出力アクチュエータにリンクされる。(2)1対多、これは、1台の入力センサーが複数の出力アクチュエータにリンクされる。(3)多対1、これは一つ以上のセンサー入力が、一つのアクチュエータにリンクされる。通常、nセンサー入力は、mアクチュエータ出力に割り当てることができる。図24は、グラフィカルユーザーインタフェースによるマッピング設定の処理を示しているフローチャート790である。システムは、ウェアラブルセンサーネットワークおよび/またはコンソールに接続されているセンサーからのセンサー入力を検出し、同様に、ロボット装置794で利用可能なアクチュエータを検出するように促される792。センサーは入力装置と称し、アクチュエータは出力装置と称する。各入力装置および各出力装置は、グラフィカルユーザーインタフェース上に一覧され、ユーザーおよび/またはオペレータはそれから所望する任意の配置で出力装置に入力装置を割り当てることが許される796。出力への入力の割り当て後、システムはロボットアクチュエーターおよびセンサーの調整を実行する798。ロボット装置のアクチュエータおよびセンサーの調整の処理は、図25に示されて後述するように、他のグラフィカルユーザーインタフェースをオペレータに提供する。グラフィカルユーザーインタフェースはまた、現在のマッピングを試し、入出力マッピングと関連するしきい値とゲインを調整するためにリンクを提供する808。したがって、センサーおよびアクチュエータのマッピングを選択する処理は、ユーザーおよび/またはオペレータによって制御することができる。
【0041】
マッピング構成を設定する処理は、センサーおよびアクチュエータの調整の処理を含む。図25は、センサーおよびアクチュエータの調整の処理を示すフロー図810である。798で調整グラフィカルユーザーインタフェースを始めると、即座に、システムは、それらが適切に調整されるかどうか決定するためにマップされたセンサーおよびアクチュエータ上の試験を行う812。マップされたセンサーおよびアクチュエータのいずれかが適切に調整されていない場合、システムはマップされたセンサーおよびアクチュエータが調整されていないことを検出する814。しかし、マップされたセンサーおよびアクチュエータが適切に調整されている場合、インタフェースはユーザーに、再調整のためにすべてのマップされたセンサーおよびアクチュエータを選択すること816、または再調整のために特にマップされたセンサーおよびアクチュエータを選択すること818を可能にする。814、816または818が選択されると、システムは、デフォルトで環境が設定されていない調整環境820をロードする。調整環境は、ユーザーにゲームまたは物語の文脈の範囲内で、運動を行うことを促す。環境モードか否かで、ユーザーは、個々のセンサーごとの範囲が測定される方法のなかで行動するように促され822、センサー能力とユーザー能力を与えられる。センサーがアナログセンサである場合、センサー入力とアクチュエータ出力間のデフォルトゲインを設定することができる828。デフォルトゲインは、最大センサー値が最大アクチュエータ出力値に対応し、最小センサー値が最小アクチュエータ出力値に対応する比例関係である。調整ルーチンはそれから、センサー休止レベルを記録する826。それは、ユーザーがそれを起動させようとしない間のセンサーからの値である。これは、センサーの雑音レベルの読み込みを与える。デフォルトのしきい値は、その後設定することができる824。デフォルトしきい値は、センサー休止レベルより上で、それに選ばれた値になり、センサー範囲として作用する。デフォルトのしきい値およびゲインを計算する正確な方法は、オペレータ(不図示)によって調整することができる。
【0042】
マッピングプロトコル、調整プロトコルを設定する処理を通じて、またはメイングラフィカルユーザーインタフェースウィンドウから、リンクがセンサーおよびアクチュエータと関連するしきい値とゲインを設定するために、グラフィカルユーザーインタフェースに提供される808。しきい値は、アクチュエータが移動する上での定められた限度である。ユーザーからの入力がしきい値未満の場合、関連するモータからの応答はない。同様に、ゲインは、比例したセンサーのためにセンサーの範囲の値に対する出力モータの範囲の値とを結びつける。図26は、アクチュエータおよびセンサーにそれぞれ割り当てられたペアと関連するゲインとしきい値を設定する処理を例示しているフロー図830である。実施の問題として、マッピング構成が、マッピングに関連するしきい値およびゲインの設定の前に設定されなければならないことである。図26における第1ステップは、システムがアクチュエータ出力へのセンサー入力の割り当てを検出するためにある832。各々の割り当ては、その後リストでユーザーに提示される834。ユーザーおよび/またはオペレータは、それから以下の中の一つまたはすべてを選ぶことができる:各割り当てのためのしきい値設定の手動調整836、各割り当てのためのゲイン設定の手動調整838、および適正なしきい値および/またはゲイン設定のために各々の割り当ての試験840。一つ以上のセンサー入力が一つのアクチュエータ出力にマップされる場合、デフォルトの関係は、すべてのセンサレベルが、アクチュエータが作動するために、それらのそれぞれのしきい値より上になければならない。加えて、センサー入力からの最小ゲインの算出は、アクチュエータ出力の大きさをセットするために選択される。このデフォルトの関係は、オペレータによって変えることができる(不図示)。したがって、しきい値およびゲイン設定の処理は、システムのユーザーおよび/またはオペレータによって手動調節可能である。
【0043】
図27は、ユーザー制御852、ゲームまたは物語の環境853、およびロボット装置854の間をマップする基本的なモードの図850である。ユーザーは、ユーザーに取り付けられた無線センサー、コンソールに固定されたセンサー、またはそれらの組み合わせを制御することができる。図27において、ユーザーは、ロボット装置の聴覚、機能を含むすべての身体的なものを制御する854。ユーザーは、センサーのうちの1台以上の作動を通じてロボット装置のすべての動きを始める854。センサーの作動に応答して、ロボット装置は、設定されたマッピング、ゲイン、しきい値に基づいて、一つ以上モータを動作させる。このマッピングの実施例において、ゲームまたは物語環境853は、ロボットに対する制御を行っていない。この実施例は、デフォルトマッピングのステップであり、そして、それは、ユーザーが、リアルタイム、記録、再生、またはリアルタイムと記録モードにおいてロボットを操作しているところの具体例と同一である。
【0044】
図28は、ユーザー制御858、ゲームまたは物語環境859、およびロボット装置860の間の第2マッピングの実施例を示すグラフ図856である。ユーザーは、ユーザーに取り付けられた無線センサー、コンソールに固定されたセンサー、またはそれらの組み合わせを制御することができる。このマッピング実施例において、ユーザーの入力は、ロボットにマップされていない、したがって、ユーザーは全くロボットの機能を制御できない。ゲームまたは物語環境だけがロボットを制御し、ユーザーは受動的な観察者である。したがって、この操作のモードにおいて、ゲームおよび/または物語が、ロボット装置の指定された身体部分の動きと、関連するモータを制御している。
【0045】
図29は、ユーザー制御882、ゲームまたは物語環境883、およびロボット装置884の間の第3のマッピング実施例を示すグラフ図880である。そこにおいて、ロボットの制御は、ユーザーとゲーム/物語環境で分配される。特に、ゲーム/物語環境は、ロボットのスピーカ出力、ヘッドの動き、左腕、および左車輪を制御する。このマッピング実施例は、ユーザーが、センサーの作動によるロボットの左の腕および車輪の動きを、ロボットの右の腕および車輪の動きで再現するようにユーザーに命じるような単純なゲームをプレイすることができる。第2の単純なゲーム実施例は、ユーザーに運動を実行するように言うことであり、そして、ゲーム環境はそれらが正しいときに動きを反映させる。したがって、この作動モードは、ゲーム/物語およびユーザーはそれぞれ、ロボット装置の物理的操縦の制御を制限し、ゲーム/物語は聴覚機能を制御している。
【0046】
対話型のより複雑な形態は、入出力マッピングが時間と共に変化するまたは動的マッピングされるゲームまたは物語環境によって提供される。図30は、対話型のこのようなゲームまたは物語で起こることになっているイベントの全体的な概要を例示しているフローチャート890である。図21におけるステップ766において、ユーザーがゲームまたは物語の選択処理を終えたとき、ゲームまたは物語は初期化される892。図28で示すように、初期化を通じて、ゲーム/物語がロボットの完全な制御を有するようにマッピングが設定される。ゲーム/物語のパラメータはまた初期化892のなかで設定され、消極的な支援を提供されても積極的な支援形式を含み、試みの数だけユーザーは、促されたことに反応し、ゲームまたは物語を終えることの条件となる。ゲームまたは物語がロボットの制御を完全に行う一方、ロボットはゲームまたは物語をユーザーにもたらす894。ユーザーはそれから特定のアクション896を実行することを促され、その後で、ロボットのいくつかの制御をユーザーに与えるマッピング実施例880(図29)のように、またはロボットのすべての制御をユーザーに与えるマッピング実施例850(図27)のように、更新される。システムは、それからユーザーのレスポンス900を待つ。ユーザーからの入力902後、システムは、ユーザーからロボット制御のいくつか/すべてを削除するためにマッピングを更新する904。システムは、ユーザーからの入力が正しいレスポンス906であったかどうか決定する。ユーザーからの入力が正しいレスポンスである場合、ロボット装置は積極的な支援の形式としてユーザーにマップされたモータを作動させることで応答する908。しかし、ステップ906で、ユーザーレスポンスが不正確だったと決定された場合、システムはそれから、消極的な支援がユーザーに提供されなければならないかどうか決定しなければならない910。不正確なレスポンスは、(a)レスポンスがないこと、(b)レスポンスは正しかったがしきい値未満であること、(c)不正確なセンサー動作、(d)および不正確な聴覚信号、またはそれら何かの組合せ、である。対話型式のゲームまたは物語の場合は、不正確なレスポンスの場合に、ユーザーに消極的な支援を提供するようにプログラムされ912、そこにおいて、ロボットは、不正確な入力または入力がない指示をするユーザーに対して視覚または聴覚の応答を提供する。908における積極的な支援、910における消極的な支援、または消極的な支援に決定されなかった後、ゲームまたは物語の状況が更新される914。更新は、ゲームまたは物語の最後のステップを繰り返し(特に不正確なレスポンスの後)、またはゲームまたは物語を続行することである。システムはそれから、ゲームまたは物語が終了に到達したかどうか決定する916。終了の状態は、初期化ステップ892における設定、および持続時間、試みの数、正確なまたは不正確な試みの数、またはその他の終了条件に基づく。ゲームまたは物語がこの状態に達しなかった場合、ゲームまたは物語は応答をユーザーに促すために、ステップ896に戻る。しかし、ステップ916でユーザーがゲームまたは物語の終了に到達したと決定された場合、環境のための設定が保存されて918、センサーと関連するモータのマッピングはそれらのデフォルト値に変更され920、ゲームまたは物語は終結する922。マッピングは、ゲーム/物語のなかの2つの時点898および904、それはユーザーがプロンプトに応答する機会を与えられるすべての時の前後で、ゲーム/物語環境ソフトウェアによって描写されるどんな構成にも変化可能であるゆえに動的である。
【0047】
あらかじめプログラムされた物語およびゲームのライブラリから、対話型物語およびゲームを選ぶことに加えて、ユーザーはまた、物語および/またはゲームをつくることができる。これを行うことは、ゲームまたは物語を著すための専門知識のレベルに関係なく、ユーザーによって実施することができる。加えて、対話型環境は、セラピスト、教育者、または対話型治療および/または教育的環境を開発するための他専門家によって開発されることができる。図21に示すように、オペレータは、このグラフィカルユーザーインタフェース710を与えられたゲームまたは物語をつくるための手段730にアクセスすることができる。
【0048】
ユーザー、セラピスト、教育者、プログラマ、技術者、またはその他のタイプの専門家オペレータは、特注ゲームおよび/または物語を作成するためにそれを可能にすることを目指しているシステムの能力を利用する。図31は、図21および23に示されるコンソールデザインのなかでリンク730の選択によりユーザーに提供されるグラフィカルユーザーインタフェース1160の一形式の実施例である。グラフィカルユーザーインタフェース1160は、編集される2本のトラックを有する。第1部材はゲームおよび/または物語にサウンド入力を埋め込むためのサウンドトラック1170であり、第2部材はゲームおよび/または物語に選択されたアセンブリの動作を埋めるための動作トラック1171である。各々のこれらのトラック1170および1171は、時間のグラフィカルな表現であり、グラフィカルユーザーインタフェース1160の残りの部材は、これらのトラックを既存のサウンドライブラリ1174および既存の動作ライブラリでつくられたサウンドおよび動作信号で充填されるために利用することができる。これらのリンクは、他のグラフィカルユーザーインタフェースを開き、そこにおいて、ユーザーは、サウンドまたは動作の切り抜きを選び、サウンドトラック1170または動作トラック1171に加えることができる。さらに、ユーザーは、リンク1186を用いてライブラリを増すために新しいサウンドをつくることができる。このリンクはグラフィカルユーザーインタフェース710を開き、そして、図20に例示されているように、ユーザーがサウンドを録音し、ライブラリにそれを保存することができる。同様に、リンク1188を用いてライブラリを増すために、ユーザーはロボットの聴覚出力にマップされるマイクロフォンを使用して、新たな動作シーケンスをつくることができる。このリンクはグラフィカルユーザーインタフェース710を開き、そして、図20に例示されているように、ユーザーが、ウェアラブルセンサーおよび/またはロボットのアクチュエータにマップされるコンソール上のセンサーを使用して、動作シーケンス記録し、ライブラリにそれを保存する。サウンドトラック1170および動作トラック1171は、以前トラックのなかに加えられたサウンドまたは動作シークエンスに、削除すること1178、コピーすること1176、移動すること1198、およびペーストすることによって編集することができる。ユーザーは、また、動作およびサウンドデータ(不図示)をドラッグアンドドロップすることができる。ユーザーは、また、ユーザーがサウンドまたは動作刺激をつくるのを待つ1200ための時間のセクションを、サウンドトラック1170および/または動作トラック1171に加えることによって、ゲームまたは物語に対話型部材をつくることができる。同様に、ユーザーは、ユーザー入力がゲームまたは物語環境によって検出される時間のセクションをつくることができる。ゲーム/物語の生成に続くどの時点でも、ユーザーはまた、ゲーム/物語に埋め込まれた聴覚的および物理的動作の点検として作成されたゲーム/物語のテスト1196を選ぶことができる。ゲーム/物語の作成の後、またはゲーム/物語をつくる処理のいつの時点でも、ユーザーはゲーム/物語の保存を選択することができる1206。例示したグラフィカルユーザーインタフェースは、非常に単純なまたは複雑な対話型ゲームまたは物語をつくるために十分に柔軟なゲームまたは物語を作成するための単純で直観的な手段の一実施例である。利用可能なカスタム化機能を利用することによって、ユーザーは、固有のゲーム/物語をつくるために、グラフィカルユーザーインタフェースの各々のリンクのなかから選択することができる。このグラフィカルユーザーインタフェースはまた、ローカルに示されている間、または以下により非常に詳しく記述されているように離れた場所から、セッションでローカルに示されるかまたは離れた場所からのモニタリングセッションのどちらかで、実質的にロボット装置の物理的および聴覚的機能を制御し、さらに固有のゲーム/物語を作成し、またはシステムの他の機能を利用するために、オペレータに許可を与える。したがって、グラフィカルユーザーインタフェースは、ユーザーに固有のゲームまたは物語をつくることを可能にして、援助するための選択の配列を提供する。
【0049】
図23は、記録、再生、およびリアルタイムのモードでロボットを制御する基礎的な能力を使用することで既存のゲームおよび物語をプレイに加えて、ロボットを備えた対話型のゲーム/物語の作成によるロボット装置の能力を拡張することを求める上級ユーザーのためのコンソール設計の実例を示す図面である。しかし、オペレータがローカルまたは離れた場所から、評価またはプログラムの目的のためのどちらでも、ロボット装置を管理している場合には、これらの機能の使用を強化するために、グラフィカルユーザーインタフェースはさらに拡大することができる。図19に示すように、オペレータは、ローカルPC680、離れたPC690、またはコンソール660を通して、ユーザーのロボット装置10およびそのセンサーを備えたセッションをモニタし修正することができる。図32は、ローカルにまたは離れた場所からロボットシステムの高度な機能を使用しようとしているオペレータのためのコンソールユニットのグラフィカルユーザーインタフェースを例示しているブロック図1140である。グラフィカルユーザーインタフェース1145は、図23に示されるインタフェースに類似している。本実施例において、ユーザーは4つのモードから作動モードを選ぶことができる:リアルタイム制御712、記録714、再生716、または記録とリアルタイム制御を包含している組み合わせモード718。同様に、グラフィカルユーザーインタフェースでオペレータは、前もってプログラムされたゲームを選択すること720、前もってプログラムされた物語を選択すること725、または新規な物語の作成をすること730ができる。グラフィカルユーザーインタフェースはまた、センサーとロボットアセンブリのマッピングの設定735、およびセンサーとロボットアセンブリに関連するしきい値とゲインを設定するためのリンクを包含する。加えて、グラフィカルユーザーインタフェース1145は、高度な機能を可能にするための付加的なリンクを包含する。オペレータは、以下のリンクから選択することができる:リアルタイムでのユーザーのセッションをモニタすること1115、セッションの完成後のセッションからデータを得ること1120、またセッションを無効にすること1125。したがって、拡大されたグラフィカルユーザーインタフェース1145で、セラピスト、教育者、または類似のオペレータは、ロボットシステムの強化された能力を利用することができる。
【0050】
図32に示すように、ローカルにまたは離れた場所からセッションをモニタしているオペレータは、患者、学生、または類似のユーザーのそれからの能力を拡大することができる。図33は、リアルタイム制御でのロボット装置と対話している患者の発展を評価する処理を例示しているグラフィカルユーザーインタフェース1250である。評価処理における第1ステップは、患者を選ぶことである1252。オペレータは、いつでもセッションにおいて次の再検討および分析のために患者データ1254の保存を選択することができる。患者の選択後、オペレータは、オンライン表示のために、センターおよび関連するモータに関連する信号を選ぶことができる1256。選択された各々の信号のために、ウィンドウが信号の活動を表示するために開かれる。オペレータは、その後、いつでも信号の表示方法を変えること1258を選択することができる。オペレータは、ロボット装置1260と対話している患者の治療の手動評価を実施することを選択することができる。手動評価は、オペレータがユーザーと直接通信し、および/または、要求された動きを実行するようにユーザーに促すためにロボットの機能を操作するものです。オペレータは、センサーと関連するモータの手動設定による調整1262を選択することができ、それから、オペレータはいつでもセッションの開始1264を選択をすることができる。セッションの間に、オペレータはロボット装置に聴覚性信号および/または特定のモータの物理的動作を始めさせること1266を選択することができる。加えて、オペレータは、遠隔セッションに介入して無効にするグラフィカルユーザーインタフェース1268を選ぶことができる。手動評価を実行すること1256に加えて、オペレータはまた、前もってプログラムされたゲーム/物語を有する対話型を通してユーザーを評価するために選択することができる1270。この種の評価において、ユーザーは対話型環境によって要求された活動を実行することを促される。ゲーム/物語の選択に、オペレータは、センサーおよびモータの初期設定を調整するのにグラフィカルユーザーインタフェース1271を選ぶことができる。いつでもゲーム/物語の選択に続いて、オペレータはセッション1272の始動を選ぶことができる。ゲーム/物語の選択で、さらにセンサーとの通信によるユーザーからの入力で、ロボット装置の動作が始まり、その結果ロボット装置の動作が引き起こされる。対話型環境がプログラムされる方法によって、オペレータは要求されるかも知れないし、またはいずれの環境パラメータでも調整するオプションを有するかもしれない。オペレータが要求されたかまたは評価プログラムによってゲームまたは物語を調整するために要求したかどうか、オペレータは、プログラムされたゲーム/物語環境のプロトコルによってロボット装置に送信されるシステムの制御を無効にするためにグラフィカルユーザーインタフェースを選ぶことができる1276。加えて、オペレータは、いつでもプログラムされたゲーム/物語環境の間で、直接ロボットと話しまたは動くことができる1274。評価処理のいつでも、オペレータは、セッションデータを保存するためにグラフィカルユーザーインタフェースを開くことができる1254。したがって、オペレータは、ローカルにまたは離れた患者を伴うロボット装置のセッションをモニタするための複数の制御を有する。
【0051】
図33に示すように、オペレータは、セッションの間に、または、それに先行して、センサーとロボット装置のモータに対する調整を行うことができる。図34は、図33のリンク1262またはリンク1271の選択によりユーザーに提供されるグラフィカルユーザーインタフェース1280を示す図である。このグラフィカルユーザーインタフェース1280は、オペレータにロボット装置、ユーザー、および評価環境との間の関係を管理している設定を調整する機会を提供する。特に、オペレータは、センサーとモータ間のマッピングプロトコルを設定するためのリンク1282、センサーとモータに関連するしきい値とゲインを設定するリンク、およびセンサーとモータを調整するためのリンク1286が提供される。各々のこれらのリンクは、関連する図面に示されて、述べられている。
【0052】
評価セッションの間、オペレータは、いつでもロボットに話させ、または動作させることができる。これは、手動評価のための状況の第一のモードであり、そこにおいて、オペレータは、ロボットに話させまたは動作させるために、図33のリンク1266を選ぶ。あるいは、オペレータは、ロボットに話させまたは動作させるために、図33のリンク1274を選ぶことによってゲームまたは物語の環境に埋め込まれている評価を中断することができる。いずれのリンクも、図35において例示されているように、ロボットを制御するために、グラフィカルユーザーインタフェース1210を開ける。オペレータは、ライブラリで蓄積されたサウンドを選択することによってロボットのサウンドを制御することができ1212、それはそれから所望のサウンドを選択するために他のグラフィカルユーザーインタフェースを開ける(不図示)。同様に、オペレータはライブラリで蓄積されたサウンドを選択することによってロボットのサウンドを制御することができ1182、それはそれから所望のサウンドを選択するために他のグラフィカルユーザーインタフェースを開ける(不図示)。サウンドまたは動作が蓄積されたライブラリから選択することの他に、オペレータは直接、リアルタイムにロボットの発生を可能にすることができて、またはリアルタイムに個々のロボットの動作を可能にすることができる1190。具体的には、オペレータはヘッド動作1192または左腕動作1194を可能にすることができる。一般に、すべての検出可能なロボット動作は、リンク1192および1194のような個々に制御するグラフィカルユーザーインタフェースが示される。オペレータは、サウンドおよび動作制御1190、1192および1194を起動させるとき、オペレータが与えられた介入を終えるまで、現在与えられた制御によって影響されるマッピング設定が一時的に放棄される。オペレータは、また、より複雑なやり方、それは一度に一つのロボットアクションを超えるオペレータ制御で、リアルタイムにロボットに話させまたは動作させること選ぶことができる。オペレータは、グラフィカルユーザーインタフェース1204のなかの仮想制御を提供するリンクを選ぶ。果として生じるグラフィカルユーザーインタフェースは、オペレータに一度に、一つ、複数、またはすべてのロボット機能の制御を許す仮想制御のセットを含む。オペレータがロボットを制御している間、いくつかの又はすべての現在マッピングの設定は、オペレータが与えられた介入を終わるまで、一時的に放棄される。したがって、グラフィカルユーザーインタフェース1210は、リアルタイム評価セッションの間に、いつでも選択された任意の方法でロボットを直接制御するために、オペレータに付加的な制御を提供する。
【0053】
セッションを始めて、直接ロボットに話させまたは動作させる前に、セッションの設定を調整することに加えて、オペレータは、図33のリンク1266および1276、および図32のリンク1125によっていかなる時点でもセッションを無効にする能力を提供される。進行中のセッションを無効にする目的は、オペレータが、マッピング、しきい値、ゲイン、および/または調整をリアルタイムで調整できるようにすることである。これらのプロトコルを調整するためにセッションを無効にするための多数の理由があり、そして、それは専門オペレータが利用可能である必要があることである。このような調整は、セッションの間に明確で不適当な設定に基づくものであるかもしれない。あるいは、オペレータは、患者がしきい値より向上した能力があるか、または患者が定められたしきい値の以下の能力でしか実行できないと決定することができる。したがって無効の有効性は、患者およびセッションの進行、示されている特定の状況に関してオペレータが自分の判断を下すことができることである。図36は、図32のリンク1125、図33のリンク1268またはリンク1276の選択により、オペレータに提供されるグラフィカルユーザーインタフェース1290の図である。オペレータは、センサーとモータ間のマッピングプロトコルを設定するためのリンク1292、センサーとモータに関連するしきい値およびゲインを設定するリンク1294、およびセンサーとモータ1296を調整するためのリンクが提供される。各々のこれらのリンクは、関連する図面に示され、上述されている。加えて、オペレータはセッションの一時停止のリンク1298が提供される。これは、様々な理由のために必要である。例えば、ユーザーは休むことが必要であり、また、オペレータは直接ロボット装置の存在しない患者と情報交換することを必要とする。一方、様々な理由のために、オペレータは、セッションを終了させ1300、および/または患者がすべてのセッションのプロトコルを終えたか否かを決定することができる。したがって、グラフィカルユーザーインタフェース1290は、実質的に休止してまたは早期にセッションを終えるための付加的な制御をオペレータに提供する。
【0054】
評価セッションの開始後、またはリアルタイム評価を実行する処理のなかでいつでも、オペレータはセッションを保存すること1254に選択することができる。これはオペレータに、評価セッションの間に与えられたセンサーによって登録されたすべての評価環境設定とユーザー活動の記録を保存することを可能にする。図33のリンク1254を選ぶと、即座に、オペレータは図37に示めされたグラフィカルユーザーインタフェース1220が提供される。ユーザーは、ファイルを保存する1222ための処理ユニット内での場所と同様にセッションの記録のためのファイル名を選ぶことができる。同様に、ユーザーは、ファイルデータが保存されるフォーマットを選ぶことができる1224。このファイルは、セッションに関連するセンサー信号データ、望まれたセンサーデータと特定のしきい値との比較、セッションの間の請求された活動、およびユーザーの遂行能力を含む。センサー、ユーザー、セッションなどからの各々の量的データのセットは、グラフのなかの個々のデータポイント、グラフのなかの要約したデータポイント(平均値、標準偏差など)、表のなかのデータエントリなどとして示すことができる。さらに、各々のデータセットは、全く示されないこともできる。ファイル内のすべてのデータの表示は、データフォーマットで保存される。ユーザーが求めているファイルフォーマットが利用可能でない場合、ユーザーは、ファイルデータフォーマットの形式を作成して1226、そのデータフォーマットを保存すること1228を選択することができる。ユーザーはデータベース1230を選択し、個々のファイルのなかのデータの保存に加えて、あるいはその保存の代わりに、与えられたファイルがデータベースのなかで保存されるように、好きなデータベースへのファイルを保存することができる。したがって、グラフィカルユーザーインタフェース1220は、いずれかの名前、場所、および/または所望のフォーマットのなかで評価セッションデータを保存することを選択した後、ユーザーに示される。
【0055】
オペレータは、ローカルにまたは離れた場所から、リアルタイムにセッションをモニタすることができ、または、それらは一つのセッションに続くセッションデータをモニタすることができる。オペレータは、セッションに続くデータを得るために、グラフィカルユーザーインタフェース1120を選ぶことができる。同様に、オペレータはローカルにいる場合、特定のセッションからデータを評価するのにグラフィカルユーザーインタフェース1320を選ぶことができる。図32のリンク1120は、図38のグラフィカルユーザーインタフェース1320をオペレータを提供する。このグラフィカルユーザーインタフェースが選択される際に、オペレータはオプションのメニューが提供される。それらは1322から特定のファイルをロードすることができ、または、ファイル情報を取り出しまたは保存するための特定のデータベース1324を選ぶことができる。いずれの選択でも、オペレータは、一つのまたは多数のセッションのいずれかから、特定のユーザーからの記録を取り出しことができる。ファイルまたはデータベース内のすべてのデータの表示は、データフォーマットで保存される。データは、与えられたオペレータおよび/または与えられたユーザーのデータのためのデフォルトフォーマットセットのなかで示される。データフォーマットは、前もってプログラムされたフォーマットの選択から選ぶことができる1326。オペレータは、他のデータフォーマットを選ぶことができ1326、また、それらは前のフォーマットを変更してまたは完全に新規なフォーマットを作成することに基づいて、データのためのフォーマットを作成することができ1328、処理ユニット1330にフォーマットを保存することができる。現在のデータフォーマットは、各々の信号表示を個々に調整することによって調整することができる1332。個々のファイル設定に対する何らかの変更は、リンク1336を選択することによって続いて保存される。同様に、選ばれたデータベースの内容および設定に対するなんらかの変更は、リンク1334を選択することによって続いて保存されることができる。したがって、グラフィカルユーザーインタフェース1320は、オペレータに、選択、フォーマット、および保存データ評価ファイルのためのツールの選択を提供する。
【0056】
ここで示されたグラフィカルユーザーインタフェースは、ロボット装置および関連するセンサーと通信してユーザーまたは専門のオペレータを援助するために使用される単に典型的なインタフェースである。このインタフェースは、ユーザーおよび専門のオペレータの必要によって修正されることができる。加えて、一旦、オペレータが再検討および分析のためにファイルを選択し、それらは患者の発展の分析を実施するためのために異なる道具を使用することができる。
【0057】
従来技術に勝る利点
好ましい実施例のロボット装置は、生物測定ウェアラブルセンサーおよび/またはコンソール上で起動させている制御を通してロボットを操作することをユーザーに可能にする。装置の効果のうちの一つはその柔軟性であり、そして、それは多くの形式において明らかにされる。第1に、ユーザー入力は、生物測定信号を位置、速度、加速、力、音、電気的な活動、温度、ビデオ、または、ユーザーまたはコンソールのいずれかに位置しているセンサーから出る電磁放射を測定すると感じることができる任意のタイプのセンサーからなることができる。第2に、センサー入力およびロボットのアクチュエータの間の関係は、アクチュエータのいずれかの組み合わせを起動させるのに必要なセンサーのいずれかの組み合わせであることができる。一つ以上のセンサーは一つのアクチュエータにマップされることができ、一つ以上のアクチュエータ出力は一つのセンサー入力にマップされることができる。センサー入力からアクチュエータ出力への関係は、さらに、しきい値およびゲインの設定を調整するために修正することができる。
【0058】
柔軟性の第3度は、ユーザーがロボットと対話する方法である。ユーザーは、リアルタイムモードおよび/またはユーザーが再生および記録する能力のなかで、センサー入力を起動させることによって、ロボットと対話することができる。加えて、ユーザーおよびロボットは、対話型ゲームまたは物語の範囲内で連係することができる。対話型ゲームまたは物語の間、入力とロボット出力との間のマッピングおよびしきい値設定は、ロボットがゲームまたは物語のコースと状況内の変更を制御することで、自然に動的となることができる。
【0059】
柔軟性の第4度は、ロボットおよびその入力間の無線接続性に起因する。ユーザーは、ロボットに物理的につなぎとめられることがないので、ユーザーおよびロボットの間の動きに大きな自由度がある。加えて、ロボット、ウェアラブルセンサー、および/または制御コンソールは、ローカル無線通信ネットワークを通じて互いに近くで通信することができ、または、インターネットのような長く遠い通信ネットワークを通じて、互いに離れて通信していることができる。この柔軟性は、非常に他の実施例の数を強化する。例えば、ユーザーが離れたロボットと相互に作用すること、異なる場所からの多数のユーザーが、1の場所で一つまたは多数のロボットと相互に作用すること、および、オペレータに、ユーザーのロボットとの対話型を、リアルタイムまたは後のセッションのどちらでもモニタすることを可能にすることである。
【0060】
柔軟性の第5度は、対話型ゲームおよび物語の内容を更新する能力によって提供される。ユーザーは、ゲームまたは物語を作成または修正することができ、および/または他の著作者によるゲームおよび/または物語を通信ネットワークにアクセスしてダウンロードすることができる。新しい内容のための手段は、教育、治療、動機付け、および娯楽のアプリケーションのために、重要な連続した興味価値を提供して、ロボット装置の新さを維持する。
【0061】
ロボット装置を伴ったセッションから記録されたデータを保存する能力は、システムの教育と治療の使用に対する適応性を増強する。データはたとえどんな表示がオペレータによって選択されても、ローカルで、または離れた場所からリアルタイムに見ることができる。加えて、データはオペレータによって選択された表示で、保存することおよび後から見ることができる。さらに、データは、時間の経過を超えて、ロボットシステムを伴うユーザー機能の便利なモニタリングのために、データベースに蓄積することができる。
【0062】
他の実施例
いうまでもなく、本発明の特定の実施例が本願明細書において例示の目的のために述べられたが、様々な変更態様は本発明の精神と範囲から逸脱することなく、行われることができる。特に、無線センサーと通信するロボット装置は、モータおよびアクチュエータによって制御されるアセンブリを有する物理的装置として示された。しかし、ロボットアセンブリは、また、仮想形態であることができる。本実施例において、ロボットアセンブリは、モニタ上で提供され、ユーザーはこのモニタ上のロボットの様々な部分を制御する。様々なセンサーの入力は、仮想ロボット装置に、異なるアセンブリを移動させ、または仮想環境のなかで特定の方向に移動させる。例えば、ロボット工学的な装置は、対話型ゲームをコンピューターモニターに表示することができ、そこでセンサーの動きが、ユーザーにゲームの異なる様相を制御することを可能にする。
【0063】
ロボット装置の物理的形態において、装置は、モータと通信するためのセンサーと同様に、様々なアセンブリの動作を制御するためにモータを包含する。センサーおよびモータは、デジタルおよびアナログを含む様々な形態になりうる。例えば、センサーまたはセンサーのネットワークは、手袋または類似部材にあることができる。手袋は、手および/または手首と同様に、異なる指の動きを検知するためのセンサーを包含することができる。ロボット装置は、コンピュータを組み入れるように設計されることができる。コンピュータは、コンソールにあることができ、また、それはコンソールの通信ポートと通信することができ、また、それはロボット装置の部分としてあることができる。
【0064】
これらの実施例のいずれにおいても、装置から外部コンピュータおよび/またはサーバへファイルのダウンロード、装置へファイルをアップロード、およびセンサーデータの遅れた評価と同様にリアルタイムの両方で、離れた場所から装置の一般的な制御を可能にするために、コンピュータは外部のパーソナルコンピュータおよび/またはサーバに接続されることができる。ユーザーは、また、ネットワークにつながれているコンソールを通じてロボットを制御し、ロボットと離れて位置することができる。ロボット装置の柔軟なネットワーク能力は、介護人と患者が異なる場所にいる場合に、特にテレヘルスアプリケーションに価値がある。
【0065】
ロボット装置は、また、多数のユーザーおよび多数のコンソールを伴う多数のロボット、およびそれらの任意の数の組み合わせとして構成することができる。この実施例のバリエーションは、装置上の環境および生物測定センサーの多数を取り入れており、ビデオ、超音波、赤外線、圧力センサー、および聴覚を含むが、これらに限定されない。ロボット装置は、自主的に障害を検出して避ける能力、ユーザーを検出して続く能力、または、操作環境に関連してロボットの場所検出および決定する能力、のような高度な性質を伴って構成することができる。したがって、本発明の保護の範囲は、以下の請求項およびそれらの均等物だけによって制限される。
【図面の簡単な説明】
【0066】
【図1】図1は、インタフェースおよび関連するロボット部分のブロック図である。
【図2】図2は、ロボットアセンブリの説明図である。
【図3】図3は、ロボットのネックアセンブリの説明図である。
【図4】図4は、ロボットのヘッドアセンブリの説明図である。
【図5】図5は、ロボットの腕アセンブリの説明図である。
【図6】図6は、ロボットのドライブトレインアセンブリの説明図である。
【図7】図7は、中央処理ユニットを有するロボットのブロック図である。
【図8】図8は、離れたアクチュエータと通信する一つの無線センサーの説明図である。
【図9】図9は、中央ユニットと通信するセンサーネットワークの説明図である。
【図10】図10は、コンソールのブロック図である。
【図11】図11は、センサーの作動およびセンサーデータの処理を例示しているフロー図である。
【図12】図12は、無線センサーからのデータの通信と処理を例示しているフロー図である。
【図13】図13は、無線センサーのネットワークの部分である無線センサーの作動を例示しているフロー図である。
【図14】図14は、センサーデータの処理プロセスを例示しているフローチャートである。
【図15】図15は、センサーデータの解析プロセスを例示しているフローチャートである。
【図16】図16は、モード選択能力を有するコンソールのブロック図である。
【図17】図17は、作動モードの選択を例示しているフローチャートである。
【図18】図18は、コンソールからロボットまでデータの流れを例示しているフロー図である。
【図19】図19は、システムの通信能力を例示しているブロック図である。
【図20】図20は、グラフィカルユーザーインタフェースを有するコンソールを例示しているブロック図である。
【図21】図21は、グラフィカルユーザーインタフェースを有するコンソールを例示しているブロック図である。
【図22】図22は、対話型ゲーム/物語を選ぶプロセスを例示しているフローチャートである。
【図23】図23は、マッピング選択を支えているグラフィカルユーザーインタフェースを例示しているブロック図である。
【図24】図24は、センサーおよびアクチュエータのマッピングを設定するためのプロセスを例示しているフロー図である。
【図25】図25は、センサーおよびアクチュエータを調整するプロセスを例示しているフロー図である。
【図26】図26は、しきい値およびゲインを設定するためのプロセスを例示しているフロー図である。
【図27】図27は、操作の対話型ノードのマッピングの説明図である。
【図28】図28は、対話型動作モードのマッピングの説明図である。
【図29】図29は、対話型作動モードのマッピングの説明図である。
【図30】図30は、対話部材のためのマッピングプロセスのフローチャートである。
【図31】図31は、対話型物語をつくるための説明図である。
【図32】図32は、グラフィカルユーザーインタフェースを有するコンソールを例示しているブロック図である。
【図33】図33は、ロボット装置を有するセッションのリアルタイム評価を実施するためのフローチャートである。
【図34】図34は、初期設定の調整のための説明図である。
【図35】図35は、対話型ゲーム/物語に音および運動を埋め込むための説明図である。
【図36】図36は、セッションを無効にするための説明図である。
【図37】図37は、つくられた対話型ゲーム/物語をセーブするための説明図である。
【図38】図38は、ロボット装置を有するセッションのセッション後の評価を実施するための説明図である。
【技術分野】
【0001】
関連出願に対する相互参照
これは、非暫定的な実用特許出願である2001年2月27日の米国仮出願番号60/271,765、タイトルが「INTERACTIVE ELECTRONIC SYSTEM」の出願日の利益を要求した。
【0002】
本発明は信号通信システムに関する。特に、本発明は、ロボットとの通信において、センサーとアクチュエータ間が離れている通信を可能にするための装置に関する。
【背景技術】
【0003】
発明の背景
従来技術の説明
リハビリテーション治療は、一般的には、身体的なもの、会話−言語によるもの、および/または作業療法に分類される。治療のこれらの形式は、傷から回復する人、または慢性病および/または障害者のために一般的に指導される。ヘルスケアの専門家は、適切なリハビリテーション治療が大きな傷を著しく癒し、健康と回復の促進を援助するかもしれないことを認識している。
【0004】
リハビリテーションの治療には様々な形式がある。それぞれの個人のために適当な治療法を見つけることは、それらの障害および/または損傷に影響を及ぼしている状況に依存する。適切なリハビリテーションのプログラムを確認する部分は、慢性か一時的かどうか、様々な現存する障害を考慮して個人の能力を評価することである。しかしながら、評価の他の重要な点は、選択された治療に対する忍耐強い動機付けの適切なレベルを維持するか、または治療が忍耐強い動機付けの適切なレベルを維持するために変更されることを可能にする能力である。
【0005】
リハビリテーション装置およびシステムに関連した技術の一つの形態は、バイオフィードバックである。これは、いくつかの身体機能に対する認識の損失を持っている患者の治療技術である。生体自己制御装置は、患者が知覚の損失に苦しんでおり、特定の身体機能の変化に応じて患者に視覚または聴覚の信号を供給するために、特定の身体機能をモニタする。バイオフィードバックの種類は、筋電計(EMG)のバイオフィードバック装置およびシステムである。EMGシステムは、リハビリテーションを必要とする筋肉を使用する方法を患者に教示することを意図する。EMGシステムは、一般に、患者に視覚および/または音声信号の形でフィードバックを提供する。EMGバイオフィードバック装置の最近の発達は、エンハンスド モビリティ テクノロジー(Enhanced Mobility Technologies)に与えられたアメリカ特許出願No.09/361,753に示されるように、運動に関係している身体部位と通信するセンサーを含んでいる。本出願において、センサーは特定のリハビリテーション運動に関係している身体の部位に取り付けられ、また、それらのセンサーは、患者の進行を記録し評価するために、それら自身がコンピュータと通信する。したがって、EMG装置およびシステムは、練習が実施したリハビリテーションからみて患者の発展を決定するための評価ツールを包含するまで進んだ。
【0006】
しかしながら、EMG装置は、患者の身体の特定のエリアが動作したことを示すためにバイオフィードバックするだけの装置である。EMG装置は、患者が特定の運動機能を維持するための動機付け与えるための対話型コンポーネントを含まない。したがって、望ましいことは、バイオフィードバックを提供し、装置上で患者の注意と焦点を維持する対話装置である。
【発明の開示】
【0007】
本発明は、前記装置の視覚的な動きの形態、または動的な対話を通して、装置のユーザーにフィードバックを提供するために、無線センサーまたはコンソールを経て制御されるロボット装置を含む。
【0008】
本発明の第1態様は、ユーザーと通信するセンサーを含む。このセンサーは、ユーザーの入力を感知して、センサー信号をロボットに伝達する。このロボットのアクチュエータは、信号を受けて、ユーザー入力がしきい値を上回るときにユーザー入力に応答してロボットの部分を動かすように適応する。このユーザー入力は、身体運動または音声のような物理的なものであり得る。センサーおよびアクチュエータは、無線通信によるものである。さらに、センサーはユーザーに固定されることができ、またはユーザーとロボットアクチュエーターの両方と離れたコンソールに固定されることができる。この装置はまた、センサーデータを蓄積するためにコンピュータを含むようにしてもよい。このコンピュータは、ロボットに内蔵されたり、センサーに内蔵されたり、またロボットの外部に置かれたりする。この装置はまた、ロボットの構成を修正し、ロボットとユーザー間の操作の対話モードを選択し、およびオペレータがユーザー入力を評価することができるように、オペレータインタフェースを含む。加えて、このオペレータインタフェースは、オペレータがロボットとユーザーとの動作の特有な対話モードをプログラムすることができるものであってもよい。このオペレータインタフェースは、ロボットおよびユーザーと離れた場所からアクセスすることができる。ロボットは物理的な装置であることができ、また、仮想的なものであってもよい。
すなわち本発明は、入力を感知してアクチュエータを動作させるために前記アクチュエータと通信し、かつ、処理ユニットに備えられたトランシーバーと通信し、電源を備えたセンサーと、前記センサーと前記アクチュエータとの間で一つ以上の信号を送信して、前記センサーからのフィードバックに応じて前記アクチュエータの制御を可能にする動的制御システムと、を有し、前記処理ユニットは、前記センサーからの信号を受信して処理する信号処理プロセッサーと通信し、かつ、前記センサーの感知した入力を前記アクチュエータに伝え、前記アクチュエータから受信された信号を前記センサーへ伝えるものであり、前記センサーは生物測定センサーであって、その入力が位置、速度、加速度、力、音、温度、電気、赤外線、超音波、ビデオ、圧力、電磁放射である信号通信システムである。
また、本発明の第2態様は、アクチュエータによって動作するロボット装置であって、センサーから前記アクチュエータへの信号を処理するためのコントローラと、入力を感知するためのセンサーを備えて、前記センサーの信号をアクチュエータに通信する動的制御システムと、を有し、前記アクチュエータは、前記動的制御システムからの前記信号を受け取って、定義されたしきい値を超える前記入力に対応してロボット各部を作動させるものであり、前記センサーは生物測定センサーであって、その入力が位置、速度、加速度、力、音であるロボット装置である。ここで前記信号は、無線信号でありうる。
【0009】
本発明の変形形態としては、ロボット装置を制御するための方法である。この方法は、ロボットと通信してセンサーデータを読み込み、センサーデータ処理し、センサーからロボットと通信しているレシーバまで無線接続によりセンサーデータを送信し、センサーデータを解析し、および解析されたデータに応答してロボットのアクチュエータを作動させる、ステップを含む。センサーデータを処理するステップは、モニタしているセンサーからの物理的入力信号を処理し、アナログからデジタルへの変換、圧縮、マッピング、しきい値との比較(thresholding)、フィルタリング、またはパターン認識からなる群から選択された機能を含むことができる。この方法は、ロボットのアクチュエータをリアルタイムで制御するためにロボットにセンサーデータを直接送信するステップを含むことができる。データを解析するステップは、アナログからデジタルへの変換、解凍、復号、マッピング、しきい値との比較、フィルタリング、またはパターン認識からなる群から選択された機能を包含することができる。加えて、この方法は、後から再検討するためにセンサーデータを記録すること、または、後からロボット装置にセンサーデータを実行させることを含むことができる。この記録データは、評価目的のために離れた場所からアクセスされることができ、または、データをロボット装置と連動させて実行することができる。この方法はまた、センサーとロボット間の対話型通信を提供することを含むことができる。加えて、この方法はまた、ロボットまたは離れたコンソールと通信して、近くでまたはネットワーク化されたコンピュータを通して離れたところから、オペレータインタフェースを通してロボットの構成を修正することを可能にすることができる。
【0010】
また、他の本発明の変形形態としては、コンピュータ読み込み可能な信号関係媒体を含んでいる物品である。この媒体は、無線接続上のデータ送信のための手段、離れたロボット装置の信号の起動を伝達するための手段、センサーとロボット装置のアクチュエータとの構成パラメータを遠隔で設定するための手段、およびロボット装置と通信してロボット装置とユーザー間の動的な対話を提供するための手段を含む。この手段は、記録可能なデータ記憶媒体、調整されたキャリア信号、またはそれらの組み合わせから選択することができる。信号の起動を伝達するための手段は通信プロトコルである。構成パラメータを遠隔で設定するための手段は、グラフィカルユーザーインタフェースを含む。加えて、この物品はまた、信号データの評価をリアルタイムで行う処理を含むことができ、同様に、オペレータとロボット装置との間の離れたところからの対話をリアルタイムで実施する処理を含むことができる。このアクチュエータ起動データは、媒体に保存して記録することができる。この保存されたデータは、それから、媒体中においてロボット装置から離れたコンピュータに送信することができる。
【0011】
本発明の他の特徴および効果は、本発明の添付の図面と共に後述する好ましい実施例の詳細な説明から明らかになる。
【発明を実施するための最良の形態】
【0012】
好適な実施例の説明
概要
図1は、対話型ロボット装置の要素を例示しているブロック図である。その基礎形態において、ロボット10およびインタフェース20を含む。ロボット10は複数の部分を有する。そして、好ましい実施例のそれは人間の格好の典型である。インタフェース20は、センサー、好ましくは複数のセンサーを含む。各々のセンサーは、異なる場所に配置され、インタフェース20からロボットへ動作信号を送信するように機能することができる。一実施例において、インタフェースは一組のウェアラブルセンサーと同義である。異なるセンサーは、ユーザーの身体の異なる場所に沿って配置されることができる。例えば、ユーザーは、腕センサー、および足センサーを着用することができ、それらは、それぞれロボット10の腕アセンブリおよび足アセンブリと通信するためにマップされる。したがって、各々のセンサーはインタフェースユニット20の一部であり、好ましくはロボット10の対応しているアセンブリと通信するためにマップされる。
【0013】
可動部位に対応するロボット10の各々のサブアセンブリは、インタフェース20の対応しているセンサーと通信するアクチュエータを含む。ロボットは、インタフェースユニット20からの信号を受信して、受信した信号を適当なアクチュエータのために変換するためのコントローラを含む。ロボット10のアクチュエータの各セットは、ロボットのアセンブリと関連していた一致するアクチュエータの動きを制御する。例えば、腕アセンブリは、インタフェース20の腕センサーから受信した信号に応答してロボットの腕の動きを制御する複数のアクチュエータを含む。ユーザーは、ロボット10の対応しているボディ部分の動きを制御するために、身体の特定の部位にインタフェース20のセンサーを着用することができる。インタフェースのセンサーはコントローラに信号を送信し、それは信号を受信してロボット10の対応しているボディ部分の動作を制御する。したがって、ロボットは、受信した信号に応答してロボット10の対応している部位を動かす形でユーザーにフィードバックを提供する。
【0014】
技術的な詳細
ロボット装置
ロボット10は、様々な形態になることができる。ロボット10の一つの実施例は、図2に示される。ロボット10は、ボディ50と、目32および口34を含む顔部材を持つヘッド30を含む。顔部材に加えて、ロボットは腕40、およびロボット10の物理的移動を可能にするための足シャシー60を含む。付加的な物理的部材が、付加的な運動を可能にするためにロボット10に取り付けることができるが、ロボット10の特徴を制限するものであると考えられてはならない。したがって、図2において例示される部材は、単に、ロボットにおいて提供される動作の例を図示するだけである。
【0015】
図2に示すように、ロボット10は、ボディアセンブリ50、腕アセンブリ40、足シャシー60、およびヘッドアセンブリ30を含む。腕アセンブリ40は、ロボット10の腕が垂直および水平方向に移動できるように設計されている。足シャシーは、平面上で前進後退運動可能なように、同様に時計回りまたは反時計回りに回転運動可能なようにドライブトレインアセンブリを含む。ヘッドアセンブリは、ヘッドの傾き回動運動を可能にし、同様に時計回りのまたは反時計回り方向のヘッドアセンブリの回転運動を可能にする。保護シェル15は、アセンブリの外部材を囲み、ロボットに異なる外観を呈するのを可能にするために装飾的なデザイン部材を含むことができる。したがって、図2において例示されるアセンブリは、ロボットの物理的部分の図示であり、各々図示されたアセンブリと通信してセンサーに応答する。
【0016】
腕アセンブリ40、足シャシー60、およびヘッドアセンブリ30は、各々ロボット10のボディ50の異なる部分に接続されている。図3は、ロボットのボディ50およびボディの異なる部分に対する上記のアセンブリ30、40、50および60に関連する接続を例示している線図である。ボディ50とヘッドアセンブリ30との間は、ボディ50にヘッドアセンブリ30を取り付けるためのネックアセンブリ70である。好ましい実施例において、ネックアセンブリ70は、ヘッドアセンブリ30の回転を容易にするためにロールジョイントの形態であることができる。様々なロールジョイントの構造をネックアセンブリ70において使用することができる。ロールジョイントの一つ例は、図3に示される。ここで例示されるロールジョイントは、ロッド74上へハンダ付けされたディスク72を含み、ディスク72は2つのプレート76aおよび76bの間に捕らえられている。このディスク72は、2のプレート76aおよび76bの間で自由に回転する。ロールジョイントは、リベット78aおよび78bを有するロボット10のボディ50のトップエリアに固定される。ここで述べられるロールジョイントは、単に図示しているだけであり、ロボット10のボディ50に対して相対的にヘッドアセンブリに類似な、または付加的な運動能力を提供するために修正されることができる。ロールジョイントに加えて、図3は、電源56、トランシーバー57、およびコントローラ58を含むボディ50に収容された他の部材を例示する。トランシーバー57およびコントローラ58は、電源56から電力を受ける。加えて、トランシーバー57は、リモートセンサまたは離れたコンソールから発している信号25を受けるように適応されている。コントローラ58によって受信された信号は、ロボット10内で特定のアセンブリの運動を制御するように割り当てられたモータの操作を制御する。したがって、ロールジョイントの構造は、ヘッドアセンブリ30に、ピッチおよびヨー動作を可能にする。
【0017】
図4は、ロボット10のヘッド30およびネックアセンブリ70を示す図である。この図において、ヘッドアセンブリ30は第1モータ38aを含み、ネックアセンブリ70は第2モータ38bを含む。第1モータ38aはネックアセンブリ70のロールジョイントに接続され、ヘッドアセンブリのピッチ運動を制御する。すなわちロボット10のヘッドアセンブリ30を前方または後方へ傾斜を可能にする。より具体的には、ヘッドのチルティングは、ネックアセンブリ70のロールジョイントのロッド74に取り付けられたモータ38aによって制御される。箱80は、第1モータ38aを密封し、外部の要素から第1モータ38aを保護する層として役立つ。加えて、ヘッドカバー85は、第1モータ38a、ロッド74、およびロールジョイントのプレート76a、76bを密封する。第1モータ38aは、垂直軸に沿ってロッド74と箱80の間の相対的な運動を調整することによって、ヘッドアセンブリ30の傾斜運動を制御する。第2モータ38bは、水平軸に沿ってヘッドアセンブリ30の回転運動を制御する。回転運動は、ネックアセンブリ70のロールジョイントのロッド74およびディスク72によって制限される。
【0018】
加えて、ボディアセンブリ50とヘッドアセンブリ30は、図3および4において、それぞれ例示されたように、ロボットはまた腕アセンブリを含む。図5は、ロボット10の二つの腕センブリ40を示す。図示するように、ロボットは人間の身体形状を模倣するので、ロボット腕アセンブリは2本の腕を持つ。しかし、ロボットは、例示される2つを上回る多数の腕を持ったり、一本の腕に限られたりするように変更されてもよい。
【0019】
腕アセンブリは、円筒形のハウジング42によって密封されている。このハウジングはアセンブリ44を封入する。そして、それは第1モータ46aおよび第2モータ46bを含む。第1モータ46aおよび第2モータ46bは、円筒形のハウジング42の内側の表面に固定されている。加えて、第1モータ46aは、それに対して固定される第1プッシュロッド90を有する近接端部48を持ち、第1プッシュロッド90の近接端部92が第1レバーアーム100に固定される。同様に、第2プッシュロッド110の近接端部49は、第2モータ46bに固定され、第2プッシュロッド110の近接端部112が第2レバーアーム120に固定される。第1レバーアーム100および第2レバーアーム120の両方は、それぞれピン115および125を含み、各々のレバーアームの回転の軸を規制する。各々の軸ピン115、125は、それぞれ、各々のレバーアーム100、120の軸外の回転を制限するためにスラストブッシングを持つ。腕アセンブリ40は、ロボット10のボディ50に取り付けられている。動作に際して、モータの回転運動が、線状の運動に変換される。加えて、各々の腕レバー100、120は、この腕100、120の物理的属性に対応し、かつ腕アセンブリの設計機能の構造上の限定範囲内で動作可能なように設計されたシェル130によって収容されている。
【0020】
ヘッドアセンブリ30、ネックアセンブリ70、および腕アセンブリ40に加えて、ロボット10は、また、ロボット10に複数方向の移動を提供するためのドライブトレインアセンブリ130を有する足シャシー60を含む。図6は、ドライブトレインアセンブリ130の一実施例の図である。ドライブトレインアセンブリ130は、ロボット10のボディアセンブリ50の底部52に固定されたハウジング132によって封入されている。加えて、ハウジング132はモータ134、車輪136、およびスライダ138を封入している。モータ134は、シャシー60の内側の表面に取り付けられている。モータ134は、直接機械的な接続により車輪136の車軸140に固定されている。車軸140は、シャシー60に取り付けられた2の軸受142で支えられている。この車輪136と隣接している排障器144は、車輪136を外部の要素から保護する。このスライダ138は、好ましくは、バネ仕掛けであって、シャシー60の下側に固定されており、ロボットが載せられている平面上で低い摩擦接点として機能する。このスライダは、本質的に、ロボット10の動いている間の転倒を防止する。単一のモータ−車輪アセンブリだけが例示されているが、ドライブトレインアセンブリ130は複数のモータと関連する車輪で設計されることができる。したがって、ドライブトレインアセンブリ130は、ロボットが平面上で複数の方向に移動することを可能にする。
【0021】
図7は、リモートセンサに信号を送信し、同様にリモートセンサから信号を受信するための処理ユニット150を有するロボットの図である。処理ユニット150は、信号を送信および受信するトランシーバー155、受信した信号を処理する信号プロセッサ160、および信号をモータ162に割り当てるための中央処理ユニット(CPU)158を含む。このCPU158は、処理ユニット150からロボット10のアセンブリの適当なモータまで処理された信号を送る。ロボット10の各々のモータは、直接または間接的に、アセンブリのモータへおよびモータから、運動信号を受信および送信するための処理ユニット150に接続されている。他の実施例において、ロボット10は処理ユニット150を含まなくてもよい。むしろ、ロボット10の各々のモータは、直接センサーから送信される信号を送受信するためにトランシーバーを含んでいてもよい。したがって、ロボットの各々のモータまたは処理ユニット150は、離れた場所からの信号を送受信して適当なアセンブリのモータを動かし制御するように機能する。
【0022】
図2−7のロボット10に関連して、センサーまたはセンサーのネットワークは、独立して、またはロボット10の処理ユニット150を通して、ロボットの各々のモータと通信するために提供される。図8は、ロボット10から離れたユーザーに取り付けられている単一のセンサー172の例示170である。センサー172はまた、電源(不図示)、トランシーバー(不図示)、および信号プロセッサ(不図示)を含むことができる。センサー172は、身体の特定の場所にユーザーによって着用され、無線信号によってロボット10に身体の動きを送信することができる。同様に、送信された信号はロボット10の処理ユニット150によって受信され、ユーザーにフィードバックを提供するために処理される。フィードバックは、様々な形態で表示することができ、センサー172に対応しているロボット10のボディ部分の動きの形での直接のフィードバックを含む。したがって、この実施例は、一つのセンサーから離れたロボット10のモータへの無線通信の例である。
【0023】
図9は、中央ユニット220と通信するセンサーのネットワークの例示200である。この図において、センサーのネットワークは、図2−7において例示されたロボット10のアセンブリに関連して示されている。中央ユニット220は、電源222およびトランシーバー224を収容する。中央ユニット220は、ユーザーによって着用される形態で収納され得る。例えば、中央ユニットは、バックパック、ファニーパック、またはユーザーが着用することができる多様な封入物において収納されることができる。手首センサー230は、示されているように、手首バンドの形でユーザーの手首に固定される。手首センサー230は、手首バンドに固定または縫い込まれているスイッチ232を含む。手首センサーのスイッチ232は、ロボット10の腕アセンブリ40に、ユーザーの手首の動きを伝達するために使われる。ヘッドカバー240は、示されるように、ユーザーの頭につけられている。ヘッドカバー240は、スイッチ242およびジャイロスコープ244を含む。スイッチ242とジャイロスコープ244の両方は、ヘッドカバー240に固定または縫い込まれている。ジャイロスコープ244は、ヘッドカバー240の範囲内のハウジング246のなかに密封されている。電力が供給されると、ジャイロスコープ244と関連する電子部材は特定の平面上のいずれかの線状の加速中に、抵抗変化を提供する。この抵抗の変化は、中央ユニット220のトランシーバー224の電子部材に直接割り当てられる。ヘッドカバーのスイッチ242およびジャイロスコープ244は、ロボット10のヘッドアセンブリ30に、ユーザーの頭の動きを伝達するために使われる。同様に、圧力検知のためのスイッチ250は、ユーザーの足の下側表面に取り付けられている。ユーザーがスイッチ250を踏んだとき、スイッチ250はユーザーの圧力を吸収する。スイッチ250の起動は、ロボット10のドライブトレイン130の平行移動および/または回転を制御する。各々のセンサー230、240、および250とジャイロスコープ244は、中央ユニット220に配線でつながれて、または無線周波による無線で、通信することができる。好ましい実施例において、スイッチ232、242および250は、1.5オームの抵抗を通して、トランシーバー224におけるポテンショメータの接点に配線される。制御の他の形式に、または多くの種類の障害の用途のために、システムを適応させる設計を選択する問題として、他のセンサーが使用されてもよいことが理解されるべきである。例えば、マイクロフォンは、ユーザーからロボット10へ音声信号の伝送を可能にするためにユーザーに取り付けることができる。同様に、各々のセンサーは、ユーザーの所望する動きの範囲によって異なるしきい値に調整することができる。したがって、ここで例示されるセンサーネットワーク装置は、ユーザーに固定されるネットワークアセンブリおよび遠隔ロボット10を無線通信を行う形態の一実施例に過ぎない。
【0024】
センサー300のネットワークの他の形態が、図10に示される。この図において、センサーはユーザーに着用されていない。むしろ、センサーはユーザーと離れたコンソール310に固定される。このコンソールは、音声信号を送信するためのマイクロフォン312の形態、および以下のグループからロボットのモータ制御のために選択されたセンサーを含む。グリップセンサ314、ジョイスティック316、押しボタン318、スライダ320、およびダイヤル322。センサーの他の例は、以下のグループから選択された機械的および電気的センサー装置を含む。力反射ジョイスティック、押しボタン、およびスライダ。コンソールユニットの目的は、ロボットと通信するために別の通信モードを提供することである。選択された通信モードの構造は、望ましいリハビリテーション運動に依存している。各々のセンサーは、ロボット上の一つ以上のモータにマップされることができる。センサーの作動により、ロボット上の対応するモータは、通信信号を受信する。センサーに加えて、コンソールは、図9に示されたセンサーネットワーク200の制御ユニットと類似の制御ユニット330を含む。制御ユニット330は、電源332、トランシーバー334、および中央処理ユニット333を含む。コンソール310の制御ユニット330は、また、センサーの作動を記録し保存するメモリを含むことができる。加えて、コンソールは、センサー−アクチュエーターシステムの様々な作動モードを表示するためにビデオモニタを含むことができる。例えばユーザーまたは他のオペレータが、センターデータの記録または保存を選択する場合、ユーザーおよび/またはオペレータは、ユーザーによるセンサーの記録された動きおよび関連するモニタ上のこのような記録の表示を、後から選択して実行することができる。ここで例示されるコンソール330は、様々なセンサーおよび制御機構を使用できるように設計されている。図10に示される各々のセンサーは、単に、図2−6に示されるロボットの関連するアセンブリと通信するためのセンサーの一例を示すだけである。加えて、コンソールはセンサーによるユーザーの動きを、記録し、保存し、および/または実行する能力のないリモートセンサの能力のために設計されている。したがって、図10のコンソールは、単にロボットと通信するために適応するコンソールの一形態を示す図である。
【0025】
信号通信
センサーネットワーク200のユニット220および330とコンソール310は、それぞれ、処理に適応して、関連するセンサーから位置付けられたロボット10のモータまで受信した信号を送る。同様に、各々の制御ユニット220および330は、ロボット150の処理ユニットからの信号を受信し、および適当なアセンブリアクチュエーターに受信された信号を送信するために適応する。図11は、ユーザー入力データ、およびデータが、リアルタイム制御モードのロボット10上の適当なアセンブリに処理して送信する方法を例示するフローチャート350である。このフローチャート350は、リアルタイム制御のロボット10に対するセンサーネットワークのなかの一つのセンサアセンブリまたはセンサーからの信号の流れを例示する。ユーザーによって着用された物理的センサーの場合、ユーザーはセンサーが固定された身体の一部が動くことによって、センサー入力352が変化する。センサーデータはそれから処理354され、無線ネットワーク356を通じて送信機またはトランシーバーによって送信される。同様に、センサーが聴覚器官センサーである場合、ユーザーはマイクロフォン358に話すことによってセンサーを作動させる。聴覚器官データはそれから処理360され、および無線ネットワークを通じて送信機またはレシーバによって送信356される。この例では、センサーは単一のセンサアセンブリであり、送信機および信号プロセッサは個々のセンサーに一体化している。ロボットへのセンサー信号データの伝送後、信号データは受信362され、続いて分析364される。データ分析のステップ364は、信号データ、マッピング信号データ、フィルタリングデータを圧縮または解凍すること、および/または信号データがしきい値に達したかどうか決定することを包含することができる。データ分析364後の信号データは、信号に関連するアセンブリの制御モータに送信366される。システムは、その後センサーからの伝送に何らかのエラーがあったかどうか決定するために信号をチェック368する。したがって、一つのセンサーはリアルタイム制御モードにおいて、センサーとの通信によって信号がセンサーからアセンブリを動かすためにロボットのモータまで送られる。
【0026】
図12は、図11に示されるそれに対する他の実施例である。図12は、無線ネットワークの一部で、多数のセンサーのモニタリングを例示しているフロー図380であり、センサーデータが処理されて無線でロボット10上の適当なアセンブリに送信される方法を示している。図12に示すように、複数のセンサー382、384および386があり、各々のセンサーは、異なる場所にある。センサー382、384および386は、一緒に繋がれて一つの処理ユニット390に接続されている。処理ユニット390は、信号を受け392、信号データを処理394し、離れたロボットに無線ネットワークを通じて信号データを送信396する。ロボットへの信号データの伝送後、データ信号は受信398され、続いて分析400される。データの分析ステップ400は、信号データ、マッピング信号データ、フィルタリングデータを解凍すること、信号データがしきい値に達したかどうか決定することを包含することができる。データの分析ステップ400後、信号が、物理的運動信号の場合には信号に関連したアセンブリの制御モータに送信402され、また聴覚器官データの場合にはスピーカに送られる。システムは、その後センサーからの伝送に何らかのエラーがあったかどうか決定するために信号をチェック404する。したがって、この実施例は、一つの処理ユニットで通信するリモートセンサの一つのネットワークを示しており、センサー信号データの処理後、データはリアルタイム制御モードのときに離れたロボットに無線で送信される。
【0027】
図13は、図12に示されるそれに対する他の実施例である。図13は、多数のセンサーサブネットワークのモニタリングを例示しているフロー図420であり、離れたロボット10に信号を送信するために無線サブネットワークのネットワークで通信する方法を例示している。図12のセンサシステムは、サブネットワーク430になり、多数のサブネットワーク430、450、および470は、ロボットと通信する無線ネットワークを構築する。図13に示すように、各々のサブネットワークは、複数のセンサーを有する。センサーの第1サブネットワーク430は、複数のセンサー432、434および436を有し、各々のセンサーは異なる場所にある。センサーの第2サブネットワーク450は、複数のセンサー452、454および456を有し、各々のセンサーは異なる場所にある。センサーの第3のサブネットワーク470は、複数のセンサー472、474および476を有し、各々のセンサーは異なる場所にある。センサーの各々のサブネットワーク430、450および470は、無線センサーのネットワークの一部である。サブネットワークは無線であるので、各々のサブネットワーク430、450および470は、センサーの他の部材に加えてそれ自身が電源およびトランシーバーを有する。センサーの各々のサブネットワークは、一緒につながれて、それぞれそれ自身の処理ユニット440、460および480に接続されている。適当な処理ユニットは、信号442、462または482を受信し、信号データを処理444、464または484し、離れたロボットへ無線ネットワークを通じて信号データを送信する。続いて、ロボットへの信号データの伝送後、信号データは受信490されて、続いて分析492される。データ分析のステップ492は、信号データ、マッピング信号データ、フィルタリングデータを圧縮または解凍すること、および/または信号データがしきい値に達したかどうかを決定することを包含することができる。データ分析のステップ492の後、信号が物理的運動信号の場合は信号に関連するアセンブリを制御するモータに送信494され、また聴覚器官データの場合はスピーカに送られる。システムは、その後センサーからの伝送に何らかのエラーがあったかどうか決定するために信号をチェック496する。したがって、この実施例は、各々のネットワークが自分自身の処理ユニットを通じて信号データを伝達するリモートセンサの複数のネットワークを示しており、センサー信号データの処理後、データはリアルタイム制御モードにおいて離れたロボットに無線で送信される。
【0028】
図11、12および13に示すように、センサーは離れたロボットと通信する。センサーデータは、絶えずモニタされて、処理される。図14は、離れたアクチュエータにセンサーデータを伝送するための処理のプロセスを例示しているフローチャート1000である。センサーデータが読み取り1002であるとき、信号プロセッサは、信号がアナログからデジタルへの変換プロセス1004を要求するかどうか決定しなければならない。センサー上のスイッチがアナログスイッチである場合、信号プロセッサはアナログ形式からデジタル形式にセンサーデータの変換を実行する1006。しかし、スイッチがデジタルスイッチである場合、信号プロセッサは、信号データのフィルタリングが必要かどうか決定するためにステップ1004からステップ1008へ進む。1008の質問に対する答えがポジティブの場合、信号プロセッサは信号データにフィルターをかける1010。信号データにフィルターをかけた1010後、または1008の質問に対する答えがネガティブの場合、信号プロセッサはそれから、対応しているアクチュエータに対する信号データのマッピングが実施されなければならないかどうか決定する1016。マッピングステップ1016が必要であると決定された場合、センサーからの信号データは出力のための適当なアクチュエータに位置付ける1018。システムは、それから信号データの入力がアクチュエータの出力にマップされるかどうか質問する1020。ステップ1020の質問に対する答えがネガティブの場合、信号データは捨てられて1022、システムはセンサーからの信号データを受けるために戻る1024。しかし、ステップ1016でセンサー信号をアクチュエータにマップする必要がないと決定された場合、または、ステップ1020でセンサー信号の入力がアクチュエータにマップされると決定された場合、システムは信号データと最小のしきい値とを比較しなければならないかどうか決定する1026。信号データが最小のしきい値レベルを満たさなければならないかどうかの質問に対する答えがポジティブの場合、しきい値データが獲得され1028、信号プロセッサはセンサーからの信号データが定められたしきい値に接触したかまたは上回ったかどうか決定する1030。しかし、センサー信号データが定められたしきい値と接触または上回らなかった場合、信号データは捨てられて1022、システムは、センサーからの信号データを受けるために戻る1024。あるいは、ステップ1026でセンサー信号データが最小のしきい値に到達する必要はないと決定された場合、または、ステップ1030でセンサー信号が定められたしきい値に到達または上回ったと決定された場合、信号プロセッサはそれから信号データを暗号化するかどうか決定しなければならない1032。信号データが圧縮されるべき場合1012。ステップ1012の質問に対する答えがポジティブの場合、信号データは圧縮される1014。1014において信号データの圧縮後、または、1012の質問に対する答えがネガティブの場合、信号プロセッサはそれから信号データが暗号化されなければならないかどうか決定する。信号データが暗号化される場合、信号データはステップ1034で暗号化される。その後、信号データは、直接アクチュエータの出力への送信に進む。あるいは、ステップ1032においてデータが暗号化される必要はないと決定される場合、信号データはアクチュエータの出力に送信のために進む。したがって、図14は、ロボットの信号プロセッサに信号を送信するまでの信号データ処理に関係しているステップを概説している。
【0029】
センサーからの信号データの処理、センサー、センサーネットワーク、またはコンソールからの信号データの送信の処理後、信号データは、ロボットの信号プロセッサによって受信される。図15は、ロボットの信号プロセッサによって受信された信号データを解析する処理1052を示しているフローチャート1050である。信号プロセッサは、第一に、信号データがアナログ/デジタル変換1060に進むことを必要とするかどうかを決定しなければならない。通常、このステップは、信号データがデジタル形式で送信され、処理ユニット150がアナログフォーマットのデータの受信に適応している場合に必要である。アクチュエータが要求する場合、信号プロセッサはステップ1062へ進み、デジタルフォーマットからアナログフォーマットに信号データを変換する。データフォーマットの変換後、またはステップ1060において信号データがステップ1062の変換過程に進む必要がない場合、信号プロセッサは、受信した信号データが暗号化されている場合に信号データが必要とするかどうか決定する1054。信号データが暗号化されている場合、信号データは復号1055されなければならない。信号データの復号1055の後、または信号データが暗号化されていない場合、システムはそれから信号データが圧縮されているかどうか決定しなければならない1056。信号データが圧縮されている場合、信号データは解凍されなければならない1058。1058において信号データの解凍の後、または信号データが圧縮されていないと決定された場合、信号プロセッサは、続いて信号がフィルターをかける必要があるかどうかの決定に進む。ステップ1064の質問に対する答えがポジティブの場合、システムは信号データにフィルターをかけるためにステップ1066へ進む。1066で信号データにフィルターをかけた後、または信号データがフィルターをかけることを必要としない場合、信号プロセッサは、アクチュエータおよび関連するモータに信号データを送信する1068前に信号データが圧縮を必要とするかどうか決定する。処理ユニット150が圧縮されたデータの受信に適応する場合、信号プロセッサは信号データを圧縮1070し、信号データが適当なアクチュエータのためのマッピング手順に進むことを必要とするかどうか決定するためのステップ1072へ進む。同様に、ステップ1068で信号データが圧縮される必要はないと決定される場合、信号プロセッサはマッピング判定のためのステップ1072へ進む。付加的なマッピングを信号データが必要とする場合、信号プロセッサは信号データを適当なアクチュエータのマップ1074へ進む。しかし、受信した信号データがアクチュエータにマップされない場合1076、信号プロセッサは信号データを廃棄し1078、信号プロセッサは次の信号データを受信し処理するために戻る1080。
【0030】
ステップ1072で信号プロセッサは、付加的なマッピングが必要でないと決定された場合、またはステップ1076で信号プロセッサが適切に信号データを適当なアクチュエータにマップした場合、信号プロセッサは信号データが定められたしきい値と比較する必要があるかどうか決定する1082。あらかじめプログラムされたしきい値に基づいて、信号プロセッサは、しきい値のデータを得て1084、信号データがしきい値に達しているかまたはしきい値を上回っているかどうか決定する1086。信号データがしきい値データに達していないかまたは上回っていない場合1086、信号データは廃棄されて1078、信号プロセッサは、次の信号データの受信および処理のために戻る1080。しかし、信号データがしきい値に達したかまたはしきい値を上回った場合、またはステップ1082で信号データが所定のしきい値を満たす必要はないと決定された場合、信号プロセッサはそれから処理ユニットがアナログデジタル変換処理を通じて進む信号を必要とするかどうか決定する1088。信号データがアクチュエータによって受け取られるために互換性を持つフォーマットであると決定された場合、信号データは適当なアクチュエータへ送られ、信号プロセッサは追加の信号データを受けるために戻る1080。しかし、信号データがアクチュエータによって受信できる互換性を持つフォーマットではない場合、信号データは、適当なアクチュエータに送られる前にアナログデジタル変換1090を通じて処理される。したがって、図15は、ロボットの信号プロセッサによって受け取られた信号データの分析に関連するステップを概説している。
【0031】
図11、12および13に示すように、システムは、アクチュエータと無線通信するセンサーまたはセンサーのネットワークと共同して機能することができる。加えて、システムは、ロボットから離れたコンソールに取り付けられたセンサーから機能することができる。コンソール310は、4つのモード:リアルタイム502、レコード504、プレイ506、または、レコードおよびリアルタイム制御508のうちの一つのなかで作動するように適合している。図16は、モード選択能力を有するコンソールのブロック図500である。ロボット10と対話型を始める前に、ユーザーは作動モードを選ばなければならない。図16に示すように、コンソールは、ボタンと関連する作動モードを示すためのインジケータを有する各々のボタンを有するボタン502、504、506、および508の列を包含する。コンソールは、モジュール部分312、314、316、318、320および322を装備している。加えて、コンソールはグラフィカルユーザーインタフェースおよび中央処理ユニットを含むために拡大されることができる。本実施例において、ユーザーはモジュールインタフェースを通じてロボットの作動モード510を選ぶことができる。したがって、コンソールは、オペレータが作動モードを選ぶことを可能にするモジュールモードセレクタを含むために拡大されることができる。
【0032】
図17は、コンソール、またはコンソールに関連するグラフィカルユーザーインタフェースを通じた作動モードの選択を例示しているフローチャート550である。デフォルト作動モードは、リアルタイム制御である。セッションの開始時552に、モードはリアルタイム制御のデフォルトモードに初期化される554。その後、モードは、モード選択555を通じてユーザーによって変更することができる。モード選択555は、コンソール556の適切な制御から得られる。モード選択のデータは、それから分析される558。それは、ユーザーが作動モード560の変更を選んだ場合それから決定されなければならない。ユーザーがデフォルト作動モード以外のモードまたは代わりに割り当てられたモードを選んだ場合、作動モードは、更新されて562、コンソール556の適切な制御から得られる。そうでなければ、デフォルトモードまたは代わりに選択された作動モードは、効力が残る。したがって、ユーザーおよび/またはオペレータは、セッションの初めにまたはロボット10の操作の次の段階で、作動モードを選ぶことができる。
【0033】
コンソールユニットは、ロボット装置へのコンソールに固定されたセンサーからデータ通信するためのユニットとして機能する。同様に、コンソールは、センサーからのデータの記録されたファイルを蓄積するためと、ロボット装置10へ保存されたデータのファイルを送信するための中央処理ユニットを含むことができる。図19に示すように、通信システム650は、ロボット装置10と無線通信し、同様に無線(ウェアラブル)センサーまたは無線センサー670のネットワークを無線通信するコンソール660を包含することができる。ロボット装置と通信するコンソール660の機能は、モード選択と信号通信を含む複数の機能である。ロボット装置と通信するセンサー670のネットワークの機能は、図11、12、および13に示して概説されている。加えて、システム650は、ロボット装置10およびコンソール660と通信する無線センサー670のネットワークによって設定されることができる。コンソール660へのメモリの追加で、コンソールは、コンソールユニット660に接続されているセンサーに加えて、無線センサー670からセンサーデータを受信して蓄積するために拡大することができる。したがって、ロボット装置は、コンソールに固定されて離れているセンサー、同様に独立した物や人に固定されて離れているセンサーからロボット装置と無線通信できるように拡大することができる。コンソールおよび遠隔のセンサー670またはセンサーネットワークからセンサーデータを通信するシステムの展開に加えて、コンソールは、中央処理ユニットを含むために拡大されることができる。中央処理ユニットの目的は、コンソールの保存および記憶容量を拡大することである。これは、保存されたセンサーデータおよび後で再生されたセンサーデータのコンソール660での使用を可能にする。加えて、コンソール660の中央処理ユニットは、パーソナルコンピュータ680および690、または外部サーバ685に接続のための通信ポート675を含むために拡大されることができる。通信ポート675は、コンソールと拡大された能力を有するコンピュータ680との間のデータ転送を可能にする。コンピュータ680は、それから外部コンピュータ690と、直接またはイーサネット(登録商標)や他の通信プラットフォームを通した外部サーバ685を経て通信することができる。加えて、コンソール660は、通信ポート675を伴う中央処理ユニットを踏むために拡大される場合、コンソールは直接離れているパーソナルコンピュータ690と、またはイーサネット(登録商標)接続または他の通信プラットフォームを通じてネットワークサーバ685と通信することができる。外部コンピュータ685からコンソール660まで接続を維持することによって、システムから離れているユーザーは、様々な方法:セッションのモニタ、遠隔でのロボットとの対話、セッションからのデータのダウンロード、およびローカルユーザーとの情報交換により、システムと相互に対話することができる。離れているPC690への間接的なリンクを提供することに加えて、外部サーバ685とコンソール660またはローカルPC680との間の通信接続によっても、ローカルユーザーが外部サーバ685から新規なゲームおよび物語をダウンロードすることができる。したがって、外部コンピュータとの通信のためのコンソールユニットの拡大は、システムの機能性を拡大して、および電気通信ネットワークを通じたシステムと通信するためのサポートを提供する。
【0034】
コンソールおよび関連するロボット10のデフォルト作動モードは、リアルタイム制御である。リアルタイム制御モードにおいて、コンソール上のセンサーは、ロボット10の関連するモータの制御を始めるために作動する。センサーからロボット上の対応するアセンブリおよびモータへのデータの流れは、図11において例示される流れに類似するものである。図18は、コンソールからロボット上のアクチュエータへのデータの流れを例示しているフロー図580である。ユーザーは、動くこと、あるいはコンソール585上の制御の一つを起動させることによって入力する。マイクロフォンがコンソール上のセンサーとして提供される場合、入力は実際には聴覚器官である。その後、センサーデータは、それからコンソール590の制御から得られる。データを得るステップ後、データの流れが分析される592。分析は、一緒に入力されたデータストリームに埋め込まれている多数の制御から得られる信号を切り離して識別するために実行される。分析ステップ592の後、システムは作動モードを決定する。作動モードが以前記録されたデータを再生することになっている場合594、データはおそらくコンソール596から保存された場所から取り込まれて、ロボット装置598へ無線ネットワークを通じて送信される。ロボットへのデータファイルの送信後、データストリームが受信され600、データのなかの信号が続いて分析される602。データ分析のステップは、信号データのマッピング、データのフィルタリング、および/または、信号データが定められたしきい値に到達したかどうか決定することを包含することができる。データ分析602の後、信号データは、信号に関連するアセンブリを制御するモータ604に送信される。システムは、それから、コンソール606からの伝送において何かエラーがあったかどうか決定するために、信号を点検する。したがって、再生モードにおいては、信号データは、センサーと関連するアセンブリを動かすために、データファイルからロボットのモータまで、直接または中央処理ユニットを通して送信される。
【0035】
図18のステップ594において作動モードが以前記録されたデータファイルを再生することになっていないと決定される場合、システムはデータを処理する608。データ処理のステップは、データを圧縮すること、データをマップすること、データをしきい値と比較すること、データをフィルターすること、データのパターンを認識すること、を含む。続いて、作動モードがデータを記録すると設定された場合610、データはファイルに保存される612。この作動モードは、リアルタイムのデータを単にデータを記録するか、または記録して再生するかのいずれかである。現在のモードが単に記録することに設定されている場合614、システムはコンソールの制御から追加のデータを受け入れるためにステップ590に戻る。しかし、現在のモードが記録およびリアルタイム制御が結合したものである場合、データは無線ネットワークを通じてロボット616に送信され、同時にコンソールにおいてデータファイルに保存される。同様に、ステップ610で質問に対するレスポンスがネガティブの場合、システムはデフォルトモード、リアルタイム制御618になって、ロボットに無線ネットワークを通じて処理されたデータを送信する616。ステップ616のロボットに対するデータの伝送後、データが受信されて600、データは続いて分析される602。データ分析のステップは、信号データの圧縮または解凍、信号データのマッピング、データのフィルタリング、および/または信号データが定められたしきい値に達したかどうか決定することを含む。データ分析604の後、信号データは、信号に関連するアセンブリを制御するモータ604に送信される。システムは、それからコンソール606からの伝送に何かエラーがあったかどうか決定するために信号を点検する。したがって、再生、記録とリアルタイム制御、または、リアルタイム制御のいずれであっても、処理されたデータは、コンソールからロボットのモータへ、作動したセンサーと関連するアセンブリを動かすために、直接または中央処理ユニットを通じて送信され、付加的に、現在モードがデータ記録である場合、データは、コンソールの中央処理ユニットで処理されて保存され、後から再生される。
【0036】
図20は、グラフィカルユーザーインタフェース710を含むように拡大されたコンソールユニット700を示す図である。本実施例において、グラフィカルユーザーインタフェースは、ユーザーが視覚的にモード選択と同様に命令選択と入出力を行うことができるように、コンソールで提供されるモニタに示される。基本形式としてグラフィカルユーザーインタフェースは、ロボット装置との対話型モードのための選択機能を含む。モード選択は、リアルタイム制御712、記録714、再生716、および記録とリアルタイム制御の組み合わせ718を包含している。この図において、モード選択は、グラフィカルユーザーインタフェースの一部としてだけ示される。コンソールは、また、図16に示すように、モジュールのセンサー部材312、314、316、318、320および322を含む。したがって、グラフィカルユーザーインタフェースはセンサーのモジュール部材を越えて、コンソールの作動モードを拡大する。
【0037】
図21は、グラフィカルユーザーインタフェースと共にコンソールを例示しているブロック図730である。コンソール上のグラフィカルユーザーインタフェース710は、図20において例示したコンソールユニット700に示されるすべての機能に加えてシステムの対話型作動モードのための選択機能を含む。対話型作動モードは、ロボット装置に、ユーザーの動きおよび音声によって通信することを可能にし、その一方で、ユーザーは動きおよび音声によってロボット装置に応答することができる。対話型作動モードは、対話型ゲーム720、物語725、またはユーザーがロボット装置10との対話型のゲーム/物語730を作成するための機能の形をとる操作を含む。これらの対話型作動モードの各々は、グラフィカルユーザーインタフェースから選択可能である。本実施例において、コンソール710およびロボット装置10は、対話型作動モードと関連する必要な記憶容量に対応するために中央処理ユニットを含む。対話型作動モードの選択は、ユーザーが利用可能なように独立して選択できる。したがって、対話型作動モードは、コンソールユニットおよびグラフィカルユーザーインタフェース710と関係していて、ユーザーに面白い媒体としてのロボット装置と相互に作用することを可能にする。
【0038】
対話型作動モードのうちの2は、あらかじめプログラムされたゲームの選択および/またはユーザーとロボット装置間の対話型のための物語を要求する。図22は、あらかじめプログラムされたゲームおよび/または物語を選択するプロセスを例示しているフローチャート750である。システムのユーザーは、コンソール装置と関連するグラフィカルユーザーインタフェースの選択ボタンを指示することによって選択を始める752。最初の選択752の後、ユーザーは、彼らがロボットシステムとの対話型の用途に希望するゲームおよび/または物語を求めてローカルシステムを検索するかどうか指示する754。ユーザーが754での質問に対する答えにポジティブを提供した場合、ユーザーがゲームおよび/または物語を選択できるようにリストによって紹介される756。各々のゲームおよび/または物語は、コンソールユニットにあらかじめプログラムされている。ユーザーには、各々のゲームおよび/または物語の名称および説明がメニューによって提供される。システムはそれから、ユーザーがメニューからゲームおよび/または物語を選ぶ入力760をするまで休止して待つ758。ユーザー入力後、システムはユーザーが検索要請を出したかどうか照会する。ユーザーがローカルシステムに設置されるゲームおよび/または物語を選んだ場合、システムはそれからゲームおよび/または物語を開始する766。加えて、コンソールにおいて蓄積されている、ロボット装置を伴うゲームおよび/または物語をダウンロードしてプレイすることに、適応するためにコンソールは、図19に示したように、外部のサーバまたはコンピュータと接続のための通信リンクを含む。この構成において、ステップ754において、ユーザーが蓄積された対話型部材をローカルシステムから検索することを選択しない場合、コンソールは、特定の離れたネットワークに記録されているかどうか、およびユーザーが遠隔で検索したいかどうか決定するために質問する768。システムは離れたネットワークのなかに記録される場合、ユーザーには、それから、ローカルコンソールおよび離れたネットワーク場所の両方を通じて利用可能なすべてのあらかじめプログラムされた対話型ゲームのメニューがステップ756で紹介される。しかし、768でコンソールが対話型部材にアクセスするための適当な場所に接続されていないと決定される場合、ユーザーは適当な離れた場所に能動的にログインしなければならない770。その後で、ユーザーには、離れたネットワーク場所によって利用可能なすべてのあらかじめプログラムされた対話型ゲームのメニューがステップ756で紹介される。システムはそれからユーザーがメニューからゲームおよび/または物語を選ぶ760まで休止して待つ758。ユーザー入力後、システムはユーザーが検索要請を出したかどうか照会する。システムは、それから選択されたゲームまたは物語をダウンロードして764、続いてゲームまたは物語を開始する766。したがって、ユーザーは、対話型部材のためのグラフィカルユーザーインタフェースによって利用可能なあらかじめプログラムされたゲームを、ローカルにまたは通信リンクによってコンソールに接続された離れた場所から選択することができる。システムは、プログラムが開始されるごとに、または一日に一度、あるいはその両方で、ネットワーク接続がある場合に、自動的にローカル・コンピューターで利用可能なゲーム/物語が選択できるように更新する。
【0039】
マッピング
ユーザーとロボット装置間の対応関係を定義付けする(マッピング)ために、セラピスト、教育者、または技術者などのような高度なユーザーまたはシステムのオペレータは、マッピングを指示すると同様に、ゲームおよび/または物語を選択することができなければならない。図23は、マッピング選択を支援するグラフィカルユーザーインタフェースの一実施例を示しているブロック図780である。この図において、ユーザーは、リアルタイム制御712、記録714、再生716、記録とリアルタイム制御を含む組み合わせモード718の4つのモードを作動モードとして選ぶことができる。同様に、オペレータは、グラフィカルユーザーインタフェースで、あらかじめプログラムされたゲーム720、あらかじめプログラムされた物語725、または新規な物語の作成730を選ぶことができる。対話型作動モードに加えて、グラフィカルユーザーインタフェースはセンサーとロボットアセンブリのマッピングを設定し735、センサーとロボットアセンブリに関連したしきい値とゲインを設定する740ためのリンク含むために拡大される。したがって、拡大されたグラフィカルユーザーインタフェース780は、ロボット装置の部分と関連する制御の設定をオペレータができるようにする。
【0040】
マッピングは、どんな入力信号が処理されて、いずれの出力ソースとなるかを意志決定するプロセスを実装する処理である。3のマッピングカテゴリがある。(1)1対1、これは1台の入力センサーが1台の出力アクチュエータにリンクされる。(2)1対多、これは、1台の入力センサーが複数の出力アクチュエータにリンクされる。(3)多対1、これは一つ以上のセンサー入力が、一つのアクチュエータにリンクされる。通常、nセンサー入力は、mアクチュエータ出力に割り当てることができる。図24は、グラフィカルユーザーインタフェースによるマッピング設定の処理を示しているフローチャート790である。システムは、ウェアラブルセンサーネットワークおよび/またはコンソールに接続されているセンサーからのセンサー入力を検出し、同様に、ロボット装置794で利用可能なアクチュエータを検出するように促される792。センサーは入力装置と称し、アクチュエータは出力装置と称する。各入力装置および各出力装置は、グラフィカルユーザーインタフェース上に一覧され、ユーザーおよび/またはオペレータはそれから所望する任意の配置で出力装置に入力装置を割り当てることが許される796。出力への入力の割り当て後、システムはロボットアクチュエーターおよびセンサーの調整を実行する798。ロボット装置のアクチュエータおよびセンサーの調整の処理は、図25に示されて後述するように、他のグラフィカルユーザーインタフェースをオペレータに提供する。グラフィカルユーザーインタフェースはまた、現在のマッピングを試し、入出力マッピングと関連するしきい値とゲインを調整するためにリンクを提供する808。したがって、センサーおよびアクチュエータのマッピングを選択する処理は、ユーザーおよび/またはオペレータによって制御することができる。
【0041】
マッピング構成を設定する処理は、センサーおよびアクチュエータの調整の処理を含む。図25は、センサーおよびアクチュエータの調整の処理を示すフロー図810である。798で調整グラフィカルユーザーインタフェースを始めると、即座に、システムは、それらが適切に調整されるかどうか決定するためにマップされたセンサーおよびアクチュエータ上の試験を行う812。マップされたセンサーおよびアクチュエータのいずれかが適切に調整されていない場合、システムはマップされたセンサーおよびアクチュエータが調整されていないことを検出する814。しかし、マップされたセンサーおよびアクチュエータが適切に調整されている場合、インタフェースはユーザーに、再調整のためにすべてのマップされたセンサーおよびアクチュエータを選択すること816、または再調整のために特にマップされたセンサーおよびアクチュエータを選択すること818を可能にする。814、816または818が選択されると、システムは、デフォルトで環境が設定されていない調整環境820をロードする。調整環境は、ユーザーにゲームまたは物語の文脈の範囲内で、運動を行うことを促す。環境モードか否かで、ユーザーは、個々のセンサーごとの範囲が測定される方法のなかで行動するように促され822、センサー能力とユーザー能力を与えられる。センサーがアナログセンサである場合、センサー入力とアクチュエータ出力間のデフォルトゲインを設定することができる828。デフォルトゲインは、最大センサー値が最大アクチュエータ出力値に対応し、最小センサー値が最小アクチュエータ出力値に対応する比例関係である。調整ルーチンはそれから、センサー休止レベルを記録する826。それは、ユーザーがそれを起動させようとしない間のセンサーからの値である。これは、センサーの雑音レベルの読み込みを与える。デフォルトのしきい値は、その後設定することができる824。デフォルトしきい値は、センサー休止レベルより上で、それに選ばれた値になり、センサー範囲として作用する。デフォルトのしきい値およびゲインを計算する正確な方法は、オペレータ(不図示)によって調整することができる。
【0042】
マッピングプロトコル、調整プロトコルを設定する処理を通じて、またはメイングラフィカルユーザーインタフェースウィンドウから、リンクがセンサーおよびアクチュエータと関連するしきい値とゲインを設定するために、グラフィカルユーザーインタフェースに提供される808。しきい値は、アクチュエータが移動する上での定められた限度である。ユーザーからの入力がしきい値未満の場合、関連するモータからの応答はない。同様に、ゲインは、比例したセンサーのためにセンサーの範囲の値に対する出力モータの範囲の値とを結びつける。図26は、アクチュエータおよびセンサーにそれぞれ割り当てられたペアと関連するゲインとしきい値を設定する処理を例示しているフロー図830である。実施の問題として、マッピング構成が、マッピングに関連するしきい値およびゲインの設定の前に設定されなければならないことである。図26における第1ステップは、システムがアクチュエータ出力へのセンサー入力の割り当てを検出するためにある832。各々の割り当ては、その後リストでユーザーに提示される834。ユーザーおよび/またはオペレータは、それから以下の中の一つまたはすべてを選ぶことができる:各割り当てのためのしきい値設定の手動調整836、各割り当てのためのゲイン設定の手動調整838、および適正なしきい値および/またはゲイン設定のために各々の割り当ての試験840。一つ以上のセンサー入力が一つのアクチュエータ出力にマップされる場合、デフォルトの関係は、すべてのセンサレベルが、アクチュエータが作動するために、それらのそれぞれのしきい値より上になければならない。加えて、センサー入力からの最小ゲインの算出は、アクチュエータ出力の大きさをセットするために選択される。このデフォルトの関係は、オペレータによって変えることができる(不図示)。したがって、しきい値およびゲイン設定の処理は、システムのユーザーおよび/またはオペレータによって手動調節可能である。
【0043】
図27は、ユーザー制御852、ゲームまたは物語の環境853、およびロボット装置854の間をマップする基本的なモードの図850である。ユーザーは、ユーザーに取り付けられた無線センサー、コンソールに固定されたセンサー、またはそれらの組み合わせを制御することができる。図27において、ユーザーは、ロボット装置の聴覚、機能を含むすべての身体的なものを制御する854。ユーザーは、センサーのうちの1台以上の作動を通じてロボット装置のすべての動きを始める854。センサーの作動に応答して、ロボット装置は、設定されたマッピング、ゲイン、しきい値に基づいて、一つ以上モータを動作させる。このマッピングの実施例において、ゲームまたは物語環境853は、ロボットに対する制御を行っていない。この実施例は、デフォルトマッピングのステップであり、そして、それは、ユーザーが、リアルタイム、記録、再生、またはリアルタイムと記録モードにおいてロボットを操作しているところの具体例と同一である。
【0044】
図28は、ユーザー制御858、ゲームまたは物語環境859、およびロボット装置860の間の第2マッピングの実施例を示すグラフ図856である。ユーザーは、ユーザーに取り付けられた無線センサー、コンソールに固定されたセンサー、またはそれらの組み合わせを制御することができる。このマッピング実施例において、ユーザーの入力は、ロボットにマップされていない、したがって、ユーザーは全くロボットの機能を制御できない。ゲームまたは物語環境だけがロボットを制御し、ユーザーは受動的な観察者である。したがって、この操作のモードにおいて、ゲームおよび/または物語が、ロボット装置の指定された身体部分の動きと、関連するモータを制御している。
【0045】
図29は、ユーザー制御882、ゲームまたは物語環境883、およびロボット装置884の間の第3のマッピング実施例を示すグラフ図880である。そこにおいて、ロボットの制御は、ユーザーとゲーム/物語環境で分配される。特に、ゲーム/物語環境は、ロボットのスピーカ出力、ヘッドの動き、左腕、および左車輪を制御する。このマッピング実施例は、ユーザーが、センサーの作動によるロボットの左の腕および車輪の動きを、ロボットの右の腕および車輪の動きで再現するようにユーザーに命じるような単純なゲームをプレイすることができる。第2の単純なゲーム実施例は、ユーザーに運動を実行するように言うことであり、そして、ゲーム環境はそれらが正しいときに動きを反映させる。したがって、この作動モードは、ゲーム/物語およびユーザーはそれぞれ、ロボット装置の物理的操縦の制御を制限し、ゲーム/物語は聴覚機能を制御している。
【0046】
対話型のより複雑な形態は、入出力マッピングが時間と共に変化するまたは動的マッピングされるゲームまたは物語環境によって提供される。図30は、対話型のこのようなゲームまたは物語で起こることになっているイベントの全体的な概要を例示しているフローチャート890である。図21におけるステップ766において、ユーザーがゲームまたは物語の選択処理を終えたとき、ゲームまたは物語は初期化される892。図28で示すように、初期化を通じて、ゲーム/物語がロボットの完全な制御を有するようにマッピングが設定される。ゲーム/物語のパラメータはまた初期化892のなかで設定され、消極的な支援を提供されても積極的な支援形式を含み、試みの数だけユーザーは、促されたことに反応し、ゲームまたは物語を終えることの条件となる。ゲームまたは物語がロボットの制御を完全に行う一方、ロボットはゲームまたは物語をユーザーにもたらす894。ユーザーはそれから特定のアクション896を実行することを促され、その後で、ロボットのいくつかの制御をユーザーに与えるマッピング実施例880(図29)のように、またはロボットのすべての制御をユーザーに与えるマッピング実施例850(図27)のように、更新される。システムは、それからユーザーのレスポンス900を待つ。ユーザーからの入力902後、システムは、ユーザーからロボット制御のいくつか/すべてを削除するためにマッピングを更新する904。システムは、ユーザーからの入力が正しいレスポンス906であったかどうか決定する。ユーザーからの入力が正しいレスポンスである場合、ロボット装置は積極的な支援の形式としてユーザーにマップされたモータを作動させることで応答する908。しかし、ステップ906で、ユーザーレスポンスが不正確だったと決定された場合、システムはそれから、消極的な支援がユーザーに提供されなければならないかどうか決定しなければならない910。不正確なレスポンスは、(a)レスポンスがないこと、(b)レスポンスは正しかったがしきい値未満であること、(c)不正確なセンサー動作、(d)および不正確な聴覚信号、またはそれら何かの組合せ、である。対話型式のゲームまたは物語の場合は、不正確なレスポンスの場合に、ユーザーに消極的な支援を提供するようにプログラムされ912、そこにおいて、ロボットは、不正確な入力または入力がない指示をするユーザーに対して視覚または聴覚の応答を提供する。908における積極的な支援、910における消極的な支援、または消極的な支援に決定されなかった後、ゲームまたは物語の状況が更新される914。更新は、ゲームまたは物語の最後のステップを繰り返し(特に不正確なレスポンスの後)、またはゲームまたは物語を続行することである。システムはそれから、ゲームまたは物語が終了に到達したかどうか決定する916。終了の状態は、初期化ステップ892における設定、および持続時間、試みの数、正確なまたは不正確な試みの数、またはその他の終了条件に基づく。ゲームまたは物語がこの状態に達しなかった場合、ゲームまたは物語は応答をユーザーに促すために、ステップ896に戻る。しかし、ステップ916でユーザーがゲームまたは物語の終了に到達したと決定された場合、環境のための設定が保存されて918、センサーと関連するモータのマッピングはそれらのデフォルト値に変更され920、ゲームまたは物語は終結する922。マッピングは、ゲーム/物語のなかの2つの時点898および904、それはユーザーがプロンプトに応答する機会を与えられるすべての時の前後で、ゲーム/物語環境ソフトウェアによって描写されるどんな構成にも変化可能であるゆえに動的である。
【0047】
あらかじめプログラムされた物語およびゲームのライブラリから、対話型物語およびゲームを選ぶことに加えて、ユーザーはまた、物語および/またはゲームをつくることができる。これを行うことは、ゲームまたは物語を著すための専門知識のレベルに関係なく、ユーザーによって実施することができる。加えて、対話型環境は、セラピスト、教育者、または対話型治療および/または教育的環境を開発するための他専門家によって開発されることができる。図21に示すように、オペレータは、このグラフィカルユーザーインタフェース710を与えられたゲームまたは物語をつくるための手段730にアクセスすることができる。
【0048】
ユーザー、セラピスト、教育者、プログラマ、技術者、またはその他のタイプの専門家オペレータは、特注ゲームおよび/または物語を作成するためにそれを可能にすることを目指しているシステムの能力を利用する。図31は、図21および23に示されるコンソールデザインのなかでリンク730の選択によりユーザーに提供されるグラフィカルユーザーインタフェース1160の一形式の実施例である。グラフィカルユーザーインタフェース1160は、編集される2本のトラックを有する。第1部材はゲームおよび/または物語にサウンド入力を埋め込むためのサウンドトラック1170であり、第2部材はゲームおよび/または物語に選択されたアセンブリの動作を埋めるための動作トラック1171である。各々のこれらのトラック1170および1171は、時間のグラフィカルな表現であり、グラフィカルユーザーインタフェース1160の残りの部材は、これらのトラックを既存のサウンドライブラリ1174および既存の動作ライブラリでつくられたサウンドおよび動作信号で充填されるために利用することができる。これらのリンクは、他のグラフィカルユーザーインタフェースを開き、そこにおいて、ユーザーは、サウンドまたは動作の切り抜きを選び、サウンドトラック1170または動作トラック1171に加えることができる。さらに、ユーザーは、リンク1186を用いてライブラリを増すために新しいサウンドをつくることができる。このリンクはグラフィカルユーザーインタフェース710を開き、そして、図20に例示されているように、ユーザーがサウンドを録音し、ライブラリにそれを保存することができる。同様に、リンク1188を用いてライブラリを増すために、ユーザーはロボットの聴覚出力にマップされるマイクロフォンを使用して、新たな動作シーケンスをつくることができる。このリンクはグラフィカルユーザーインタフェース710を開き、そして、図20に例示されているように、ユーザーが、ウェアラブルセンサーおよび/またはロボットのアクチュエータにマップされるコンソール上のセンサーを使用して、動作シーケンス記録し、ライブラリにそれを保存する。サウンドトラック1170および動作トラック1171は、以前トラックのなかに加えられたサウンドまたは動作シークエンスに、削除すること1178、コピーすること1176、移動すること1198、およびペーストすることによって編集することができる。ユーザーは、また、動作およびサウンドデータ(不図示)をドラッグアンドドロップすることができる。ユーザーは、また、ユーザーがサウンドまたは動作刺激をつくるのを待つ1200ための時間のセクションを、サウンドトラック1170および/または動作トラック1171に加えることによって、ゲームまたは物語に対話型部材をつくることができる。同様に、ユーザーは、ユーザー入力がゲームまたは物語環境によって検出される時間のセクションをつくることができる。ゲーム/物語の生成に続くどの時点でも、ユーザーはまた、ゲーム/物語に埋め込まれた聴覚的および物理的動作の点検として作成されたゲーム/物語のテスト1196を選ぶことができる。ゲーム/物語の作成の後、またはゲーム/物語をつくる処理のいつの時点でも、ユーザーはゲーム/物語の保存を選択することができる1206。例示したグラフィカルユーザーインタフェースは、非常に単純なまたは複雑な対話型ゲームまたは物語をつくるために十分に柔軟なゲームまたは物語を作成するための単純で直観的な手段の一実施例である。利用可能なカスタム化機能を利用することによって、ユーザーは、固有のゲーム/物語をつくるために、グラフィカルユーザーインタフェースの各々のリンクのなかから選択することができる。このグラフィカルユーザーインタフェースはまた、ローカルに示されている間、または以下により非常に詳しく記述されているように離れた場所から、セッションでローカルに示されるかまたは離れた場所からのモニタリングセッションのどちらかで、実質的にロボット装置の物理的および聴覚的機能を制御し、さらに固有のゲーム/物語を作成し、またはシステムの他の機能を利用するために、オペレータに許可を与える。したがって、グラフィカルユーザーインタフェースは、ユーザーに固有のゲームまたは物語をつくることを可能にして、援助するための選択の配列を提供する。
【0049】
図23は、記録、再生、およびリアルタイムのモードでロボットを制御する基礎的な能力を使用することで既存のゲームおよび物語をプレイに加えて、ロボットを備えた対話型のゲーム/物語の作成によるロボット装置の能力を拡張することを求める上級ユーザーのためのコンソール設計の実例を示す図面である。しかし、オペレータがローカルまたは離れた場所から、評価またはプログラムの目的のためのどちらでも、ロボット装置を管理している場合には、これらの機能の使用を強化するために、グラフィカルユーザーインタフェースはさらに拡大することができる。図19に示すように、オペレータは、ローカルPC680、離れたPC690、またはコンソール660を通して、ユーザーのロボット装置10およびそのセンサーを備えたセッションをモニタし修正することができる。図32は、ローカルにまたは離れた場所からロボットシステムの高度な機能を使用しようとしているオペレータのためのコンソールユニットのグラフィカルユーザーインタフェースを例示しているブロック図1140である。グラフィカルユーザーインタフェース1145は、図23に示されるインタフェースに類似している。本実施例において、ユーザーは4つのモードから作動モードを選ぶことができる:リアルタイム制御712、記録714、再生716、または記録とリアルタイム制御を包含している組み合わせモード718。同様に、グラフィカルユーザーインタフェースでオペレータは、前もってプログラムされたゲームを選択すること720、前もってプログラムされた物語を選択すること725、または新規な物語の作成をすること730ができる。グラフィカルユーザーインタフェースはまた、センサーとロボットアセンブリのマッピングの設定735、およびセンサーとロボットアセンブリに関連するしきい値とゲインを設定するためのリンクを包含する。加えて、グラフィカルユーザーインタフェース1145は、高度な機能を可能にするための付加的なリンクを包含する。オペレータは、以下のリンクから選択することができる:リアルタイムでのユーザーのセッションをモニタすること1115、セッションの完成後のセッションからデータを得ること1120、またセッションを無効にすること1125。したがって、拡大されたグラフィカルユーザーインタフェース1145で、セラピスト、教育者、または類似のオペレータは、ロボットシステムの強化された能力を利用することができる。
【0050】
図32に示すように、ローカルにまたは離れた場所からセッションをモニタしているオペレータは、患者、学生、または類似のユーザーのそれからの能力を拡大することができる。図33は、リアルタイム制御でのロボット装置と対話している患者の発展を評価する処理を例示しているグラフィカルユーザーインタフェース1250である。評価処理における第1ステップは、患者を選ぶことである1252。オペレータは、いつでもセッションにおいて次の再検討および分析のために患者データ1254の保存を選択することができる。患者の選択後、オペレータは、オンライン表示のために、センターおよび関連するモータに関連する信号を選ぶことができる1256。選択された各々の信号のために、ウィンドウが信号の活動を表示するために開かれる。オペレータは、その後、いつでも信号の表示方法を変えること1258を選択することができる。オペレータは、ロボット装置1260と対話している患者の治療の手動評価を実施することを選択することができる。手動評価は、オペレータがユーザーと直接通信し、および/または、要求された動きを実行するようにユーザーに促すためにロボットの機能を操作するものです。オペレータは、センサーと関連するモータの手動設定による調整1262を選択することができ、それから、オペレータはいつでもセッションの開始1264を選択をすることができる。セッションの間に、オペレータはロボット装置に聴覚性信号および/または特定のモータの物理的動作を始めさせること1266を選択することができる。加えて、オペレータは、遠隔セッションに介入して無効にするグラフィカルユーザーインタフェース1268を選ぶことができる。手動評価を実行すること1256に加えて、オペレータはまた、前もってプログラムされたゲーム/物語を有する対話型を通してユーザーを評価するために選択することができる1270。この種の評価において、ユーザーは対話型環境によって要求された活動を実行することを促される。ゲーム/物語の選択に、オペレータは、センサーおよびモータの初期設定を調整するのにグラフィカルユーザーインタフェース1271を選ぶことができる。いつでもゲーム/物語の選択に続いて、オペレータはセッション1272の始動を選ぶことができる。ゲーム/物語の選択で、さらにセンサーとの通信によるユーザーからの入力で、ロボット装置の動作が始まり、その結果ロボット装置の動作が引き起こされる。対話型環境がプログラムされる方法によって、オペレータは要求されるかも知れないし、またはいずれの環境パラメータでも調整するオプションを有するかもしれない。オペレータが要求されたかまたは評価プログラムによってゲームまたは物語を調整するために要求したかどうか、オペレータは、プログラムされたゲーム/物語環境のプロトコルによってロボット装置に送信されるシステムの制御を無効にするためにグラフィカルユーザーインタフェースを選ぶことができる1276。加えて、オペレータは、いつでもプログラムされたゲーム/物語環境の間で、直接ロボットと話しまたは動くことができる1274。評価処理のいつでも、オペレータは、セッションデータを保存するためにグラフィカルユーザーインタフェースを開くことができる1254。したがって、オペレータは、ローカルにまたは離れた患者を伴うロボット装置のセッションをモニタするための複数の制御を有する。
【0051】
図33に示すように、オペレータは、セッションの間に、または、それに先行して、センサーとロボット装置のモータに対する調整を行うことができる。図34は、図33のリンク1262またはリンク1271の選択によりユーザーに提供されるグラフィカルユーザーインタフェース1280を示す図である。このグラフィカルユーザーインタフェース1280は、オペレータにロボット装置、ユーザー、および評価環境との間の関係を管理している設定を調整する機会を提供する。特に、オペレータは、センサーとモータ間のマッピングプロトコルを設定するためのリンク1282、センサーとモータに関連するしきい値とゲインを設定するリンク、およびセンサーとモータを調整するためのリンク1286が提供される。各々のこれらのリンクは、関連する図面に示されて、述べられている。
【0052】
評価セッションの間、オペレータは、いつでもロボットに話させ、または動作させることができる。これは、手動評価のための状況の第一のモードであり、そこにおいて、オペレータは、ロボットに話させまたは動作させるために、図33のリンク1266を選ぶ。あるいは、オペレータは、ロボットに話させまたは動作させるために、図33のリンク1274を選ぶことによってゲームまたは物語の環境に埋め込まれている評価を中断することができる。いずれのリンクも、図35において例示されているように、ロボットを制御するために、グラフィカルユーザーインタフェース1210を開ける。オペレータは、ライブラリで蓄積されたサウンドを選択することによってロボットのサウンドを制御することができ1212、それはそれから所望のサウンドを選択するために他のグラフィカルユーザーインタフェースを開ける(不図示)。同様に、オペレータはライブラリで蓄積されたサウンドを選択することによってロボットのサウンドを制御することができ1182、それはそれから所望のサウンドを選択するために他のグラフィカルユーザーインタフェースを開ける(不図示)。サウンドまたは動作が蓄積されたライブラリから選択することの他に、オペレータは直接、リアルタイムにロボットの発生を可能にすることができて、またはリアルタイムに個々のロボットの動作を可能にすることができる1190。具体的には、オペレータはヘッド動作1192または左腕動作1194を可能にすることができる。一般に、すべての検出可能なロボット動作は、リンク1192および1194のような個々に制御するグラフィカルユーザーインタフェースが示される。オペレータは、サウンドおよび動作制御1190、1192および1194を起動させるとき、オペレータが与えられた介入を終えるまで、現在与えられた制御によって影響されるマッピング設定が一時的に放棄される。オペレータは、また、より複雑なやり方、それは一度に一つのロボットアクションを超えるオペレータ制御で、リアルタイムにロボットに話させまたは動作させること選ぶことができる。オペレータは、グラフィカルユーザーインタフェース1204のなかの仮想制御を提供するリンクを選ぶ。果として生じるグラフィカルユーザーインタフェースは、オペレータに一度に、一つ、複数、またはすべてのロボット機能の制御を許す仮想制御のセットを含む。オペレータがロボットを制御している間、いくつかの又はすべての現在マッピングの設定は、オペレータが与えられた介入を終わるまで、一時的に放棄される。したがって、グラフィカルユーザーインタフェース1210は、リアルタイム評価セッションの間に、いつでも選択された任意の方法でロボットを直接制御するために、オペレータに付加的な制御を提供する。
【0053】
セッションを始めて、直接ロボットに話させまたは動作させる前に、セッションの設定を調整することに加えて、オペレータは、図33のリンク1266および1276、および図32のリンク1125によっていかなる時点でもセッションを無効にする能力を提供される。進行中のセッションを無効にする目的は、オペレータが、マッピング、しきい値、ゲイン、および/または調整をリアルタイムで調整できるようにすることである。これらのプロトコルを調整するためにセッションを無効にするための多数の理由があり、そして、それは専門オペレータが利用可能である必要があることである。このような調整は、セッションの間に明確で不適当な設定に基づくものであるかもしれない。あるいは、オペレータは、患者がしきい値より向上した能力があるか、または患者が定められたしきい値の以下の能力でしか実行できないと決定することができる。したがって無効の有効性は、患者およびセッションの進行、示されている特定の状況に関してオペレータが自分の判断を下すことができることである。図36は、図32のリンク1125、図33のリンク1268またはリンク1276の選択により、オペレータに提供されるグラフィカルユーザーインタフェース1290の図である。オペレータは、センサーとモータ間のマッピングプロトコルを設定するためのリンク1292、センサーとモータに関連するしきい値およびゲインを設定するリンク1294、およびセンサーとモータ1296を調整するためのリンクが提供される。各々のこれらのリンクは、関連する図面に示され、上述されている。加えて、オペレータはセッションの一時停止のリンク1298が提供される。これは、様々な理由のために必要である。例えば、ユーザーは休むことが必要であり、また、オペレータは直接ロボット装置の存在しない患者と情報交換することを必要とする。一方、様々な理由のために、オペレータは、セッションを終了させ1300、および/または患者がすべてのセッションのプロトコルを終えたか否かを決定することができる。したがって、グラフィカルユーザーインタフェース1290は、実質的に休止してまたは早期にセッションを終えるための付加的な制御をオペレータに提供する。
【0054】
評価セッションの開始後、またはリアルタイム評価を実行する処理のなかでいつでも、オペレータはセッションを保存すること1254に選択することができる。これはオペレータに、評価セッションの間に与えられたセンサーによって登録されたすべての評価環境設定とユーザー活動の記録を保存することを可能にする。図33のリンク1254を選ぶと、即座に、オペレータは図37に示めされたグラフィカルユーザーインタフェース1220が提供される。ユーザーは、ファイルを保存する1222ための処理ユニット内での場所と同様にセッションの記録のためのファイル名を選ぶことができる。同様に、ユーザーは、ファイルデータが保存されるフォーマットを選ぶことができる1224。このファイルは、セッションに関連するセンサー信号データ、望まれたセンサーデータと特定のしきい値との比較、セッションの間の請求された活動、およびユーザーの遂行能力を含む。センサー、ユーザー、セッションなどからの各々の量的データのセットは、グラフのなかの個々のデータポイント、グラフのなかの要約したデータポイント(平均値、標準偏差など)、表のなかのデータエントリなどとして示すことができる。さらに、各々のデータセットは、全く示されないこともできる。ファイル内のすべてのデータの表示は、データフォーマットで保存される。ユーザーが求めているファイルフォーマットが利用可能でない場合、ユーザーは、ファイルデータフォーマットの形式を作成して1226、そのデータフォーマットを保存すること1228を選択することができる。ユーザーはデータベース1230を選択し、個々のファイルのなかのデータの保存に加えて、あるいはその保存の代わりに、与えられたファイルがデータベースのなかで保存されるように、好きなデータベースへのファイルを保存することができる。したがって、グラフィカルユーザーインタフェース1220は、いずれかの名前、場所、および/または所望のフォーマットのなかで評価セッションデータを保存することを選択した後、ユーザーに示される。
【0055】
オペレータは、ローカルにまたは離れた場所から、リアルタイムにセッションをモニタすることができ、または、それらは一つのセッションに続くセッションデータをモニタすることができる。オペレータは、セッションに続くデータを得るために、グラフィカルユーザーインタフェース1120を選ぶことができる。同様に、オペレータはローカルにいる場合、特定のセッションからデータを評価するのにグラフィカルユーザーインタフェース1320を選ぶことができる。図32のリンク1120は、図38のグラフィカルユーザーインタフェース1320をオペレータを提供する。このグラフィカルユーザーインタフェースが選択される際に、オペレータはオプションのメニューが提供される。それらは1322から特定のファイルをロードすることができ、または、ファイル情報を取り出しまたは保存するための特定のデータベース1324を選ぶことができる。いずれの選択でも、オペレータは、一つのまたは多数のセッションのいずれかから、特定のユーザーからの記録を取り出しことができる。ファイルまたはデータベース内のすべてのデータの表示は、データフォーマットで保存される。データは、与えられたオペレータおよび/または与えられたユーザーのデータのためのデフォルトフォーマットセットのなかで示される。データフォーマットは、前もってプログラムされたフォーマットの選択から選ぶことができる1326。オペレータは、他のデータフォーマットを選ぶことができ1326、また、それらは前のフォーマットを変更してまたは完全に新規なフォーマットを作成することに基づいて、データのためのフォーマットを作成することができ1328、処理ユニット1330にフォーマットを保存することができる。現在のデータフォーマットは、各々の信号表示を個々に調整することによって調整することができる1332。個々のファイル設定に対する何らかの変更は、リンク1336を選択することによって続いて保存される。同様に、選ばれたデータベースの内容および設定に対するなんらかの変更は、リンク1334を選択することによって続いて保存されることができる。したがって、グラフィカルユーザーインタフェース1320は、オペレータに、選択、フォーマット、および保存データ評価ファイルのためのツールの選択を提供する。
【0056】
ここで示されたグラフィカルユーザーインタフェースは、ロボット装置および関連するセンサーと通信してユーザーまたは専門のオペレータを援助するために使用される単に典型的なインタフェースである。このインタフェースは、ユーザーおよび専門のオペレータの必要によって修正されることができる。加えて、一旦、オペレータが再検討および分析のためにファイルを選択し、それらは患者の発展の分析を実施するためのために異なる道具を使用することができる。
【0057】
従来技術に勝る利点
好ましい実施例のロボット装置は、生物測定ウェアラブルセンサーおよび/またはコンソール上で起動させている制御を通してロボットを操作することをユーザーに可能にする。装置の効果のうちの一つはその柔軟性であり、そして、それは多くの形式において明らかにされる。第1に、ユーザー入力は、生物測定信号を位置、速度、加速、力、音、電気的な活動、温度、ビデオ、または、ユーザーまたはコンソールのいずれかに位置しているセンサーから出る電磁放射を測定すると感じることができる任意のタイプのセンサーからなることができる。第2に、センサー入力およびロボットのアクチュエータの間の関係は、アクチュエータのいずれかの組み合わせを起動させるのに必要なセンサーのいずれかの組み合わせであることができる。一つ以上のセンサーは一つのアクチュエータにマップされることができ、一つ以上のアクチュエータ出力は一つのセンサー入力にマップされることができる。センサー入力からアクチュエータ出力への関係は、さらに、しきい値およびゲインの設定を調整するために修正することができる。
【0058】
柔軟性の第3度は、ユーザーがロボットと対話する方法である。ユーザーは、リアルタイムモードおよび/またはユーザーが再生および記録する能力のなかで、センサー入力を起動させることによって、ロボットと対話することができる。加えて、ユーザーおよびロボットは、対話型ゲームまたは物語の範囲内で連係することができる。対話型ゲームまたは物語の間、入力とロボット出力との間のマッピングおよびしきい値設定は、ロボットがゲームまたは物語のコースと状況内の変更を制御することで、自然に動的となることができる。
【0059】
柔軟性の第4度は、ロボットおよびその入力間の無線接続性に起因する。ユーザーは、ロボットに物理的につなぎとめられることがないので、ユーザーおよびロボットの間の動きに大きな自由度がある。加えて、ロボット、ウェアラブルセンサー、および/または制御コンソールは、ローカル無線通信ネットワークを通じて互いに近くで通信することができ、または、インターネットのような長く遠い通信ネットワークを通じて、互いに離れて通信していることができる。この柔軟性は、非常に他の実施例の数を強化する。例えば、ユーザーが離れたロボットと相互に作用すること、異なる場所からの多数のユーザーが、1の場所で一つまたは多数のロボットと相互に作用すること、および、オペレータに、ユーザーのロボットとの対話型を、リアルタイムまたは後のセッションのどちらでもモニタすることを可能にすることである。
【0060】
柔軟性の第5度は、対話型ゲームおよび物語の内容を更新する能力によって提供される。ユーザーは、ゲームまたは物語を作成または修正することができ、および/または他の著作者によるゲームおよび/または物語を通信ネットワークにアクセスしてダウンロードすることができる。新しい内容のための手段は、教育、治療、動機付け、および娯楽のアプリケーションのために、重要な連続した興味価値を提供して、ロボット装置の新さを維持する。
【0061】
ロボット装置を伴ったセッションから記録されたデータを保存する能力は、システムの教育と治療の使用に対する適応性を増強する。データはたとえどんな表示がオペレータによって選択されても、ローカルで、または離れた場所からリアルタイムに見ることができる。加えて、データはオペレータによって選択された表示で、保存することおよび後から見ることができる。さらに、データは、時間の経過を超えて、ロボットシステムを伴うユーザー機能の便利なモニタリングのために、データベースに蓄積することができる。
【0062】
他の実施例
いうまでもなく、本発明の特定の実施例が本願明細書において例示の目的のために述べられたが、様々な変更態様は本発明の精神と範囲から逸脱することなく、行われることができる。特に、無線センサーと通信するロボット装置は、モータおよびアクチュエータによって制御されるアセンブリを有する物理的装置として示された。しかし、ロボットアセンブリは、また、仮想形態であることができる。本実施例において、ロボットアセンブリは、モニタ上で提供され、ユーザーはこのモニタ上のロボットの様々な部分を制御する。様々なセンサーの入力は、仮想ロボット装置に、異なるアセンブリを移動させ、または仮想環境のなかで特定の方向に移動させる。例えば、ロボット工学的な装置は、対話型ゲームをコンピューターモニターに表示することができ、そこでセンサーの動きが、ユーザーにゲームの異なる様相を制御することを可能にする。
【0063】
ロボット装置の物理的形態において、装置は、モータと通信するためのセンサーと同様に、様々なアセンブリの動作を制御するためにモータを包含する。センサーおよびモータは、デジタルおよびアナログを含む様々な形態になりうる。例えば、センサーまたはセンサーのネットワークは、手袋または類似部材にあることができる。手袋は、手および/または手首と同様に、異なる指の動きを検知するためのセンサーを包含することができる。ロボット装置は、コンピュータを組み入れるように設計されることができる。コンピュータは、コンソールにあることができ、また、それはコンソールの通信ポートと通信することができ、また、それはロボット装置の部分としてあることができる。
【0064】
これらの実施例のいずれにおいても、装置から外部コンピュータおよび/またはサーバへファイルのダウンロード、装置へファイルをアップロード、およびセンサーデータの遅れた評価と同様にリアルタイムの両方で、離れた場所から装置の一般的な制御を可能にするために、コンピュータは外部のパーソナルコンピュータおよび/またはサーバに接続されることができる。ユーザーは、また、ネットワークにつながれているコンソールを通じてロボットを制御し、ロボットと離れて位置することができる。ロボット装置の柔軟なネットワーク能力は、介護人と患者が異なる場所にいる場合に、特にテレヘルスアプリケーションに価値がある。
【0065】
ロボット装置は、また、多数のユーザーおよび多数のコンソールを伴う多数のロボット、およびそれらの任意の数の組み合わせとして構成することができる。この実施例のバリエーションは、装置上の環境および生物測定センサーの多数を取り入れており、ビデオ、超音波、赤外線、圧力センサー、および聴覚を含むが、これらに限定されない。ロボット装置は、自主的に障害を検出して避ける能力、ユーザーを検出して続く能力、または、操作環境に関連してロボットの場所検出および決定する能力、のような高度な性質を伴って構成することができる。したがって、本発明の保護の範囲は、以下の請求項およびそれらの均等物だけによって制限される。
【図面の簡単な説明】
【0066】
【図1】図1は、インタフェースおよび関連するロボット部分のブロック図である。
【図2】図2は、ロボットアセンブリの説明図である。
【図3】図3は、ロボットのネックアセンブリの説明図である。
【図4】図4は、ロボットのヘッドアセンブリの説明図である。
【図5】図5は、ロボットの腕アセンブリの説明図である。
【図6】図6は、ロボットのドライブトレインアセンブリの説明図である。
【図7】図7は、中央処理ユニットを有するロボットのブロック図である。
【図8】図8は、離れたアクチュエータと通信する一つの無線センサーの説明図である。
【図9】図9は、中央ユニットと通信するセンサーネットワークの説明図である。
【図10】図10は、コンソールのブロック図である。
【図11】図11は、センサーの作動およびセンサーデータの処理を例示しているフロー図である。
【図12】図12は、無線センサーからのデータの通信と処理を例示しているフロー図である。
【図13】図13は、無線センサーのネットワークの部分である無線センサーの作動を例示しているフロー図である。
【図14】図14は、センサーデータの処理プロセスを例示しているフローチャートである。
【図15】図15は、センサーデータの解析プロセスを例示しているフローチャートである。
【図16】図16は、モード選択能力を有するコンソールのブロック図である。
【図17】図17は、作動モードの選択を例示しているフローチャートである。
【図18】図18は、コンソールからロボットまでデータの流れを例示しているフロー図である。
【図19】図19は、システムの通信能力を例示しているブロック図である。
【図20】図20は、グラフィカルユーザーインタフェースを有するコンソールを例示しているブロック図である。
【図21】図21は、グラフィカルユーザーインタフェースを有するコンソールを例示しているブロック図である。
【図22】図22は、対話型ゲーム/物語を選ぶプロセスを例示しているフローチャートである。
【図23】図23は、マッピング選択を支えているグラフィカルユーザーインタフェースを例示しているブロック図である。
【図24】図24は、センサーおよびアクチュエータのマッピングを設定するためのプロセスを例示しているフロー図である。
【図25】図25は、センサーおよびアクチュエータを調整するプロセスを例示しているフロー図である。
【図26】図26は、しきい値およびゲインを設定するためのプロセスを例示しているフロー図である。
【図27】図27は、操作の対話型ノードのマッピングの説明図である。
【図28】図28は、対話型動作モードのマッピングの説明図である。
【図29】図29は、対話型作動モードのマッピングの説明図である。
【図30】図30は、対話部材のためのマッピングプロセスのフローチャートである。
【図31】図31は、対話型物語をつくるための説明図である。
【図32】図32は、グラフィカルユーザーインタフェースを有するコンソールを例示しているブロック図である。
【図33】図33は、ロボット装置を有するセッションのリアルタイム評価を実施するためのフローチャートである。
【図34】図34は、初期設定の調整のための説明図である。
【図35】図35は、対話型ゲーム/物語に音および運動を埋め込むための説明図である。
【図36】図36は、セッションを無効にするための説明図である。
【図37】図37は、つくられた対話型ゲーム/物語をセーブするための説明図である。
【図38】図38は、ロボット装置を有するセッションのセッション後の評価を実施するための説明図である。
【特許請求の範囲】
【請求項1】
信号通信システムにおいて:
ロボット装置のアクチュエータと通信する動作センサであって、人間に取り付けられており、この人間の動作を測定する動作センサを具え;
前記動作センサが電源と送受信機と通信し;
前記送受信機が前記ロボット装置の中央処理ユニットと通信し;
前記中央処理ユニットがセンサ信号を受信して処理し、前記センサが検出した入力を前記アクチュエータに通信し;
会話型動作モードを提供する動的制御システムであって、前記アクチュエータと通信する前記ロボット装置が動作を介して前記人間と通信し、前記人間が前記アクチュエータと通信する前記センサの動きを介して前記ロボット装置に応答する動的制御システムを具え;
前記ロボット装置の前記アクチュエータと通信する前記動作センサが、前記人間による位置、速度、加速度および力の入力を検出し、前記ロボット装置の動きを前記人間の測定した動作に対応させる;
ことを特徴とする信号通信システム。
【請求項2】
請求項1に記載の信号通信システムにおいて、前記動作センサがワイヤレスセンサであることを特徴とする信号通信システム。
【請求項3】
請求項1に記載の信号通信システムにおいて、前記ロボット装置が物理的ロボットあるいはバーチャルロボットであることを特徴とする信号通信システム。
【請求項4】
請求項1に記載の信号通信システムにおいて、前記ロボット装置を用いて前記センサから受信したデータを保存して評価するアッセンブリマネージャを具えることを特徴とする信号通信システム。
【請求項5】
請求項1に記載の信号通信システムにおいて、前記中央処理ユニットが前記アクチュエータと通信する部分内、前記センサと通信する部分内、または、前記アクチュエータと通信する部分外の位置、に設けられていることを特徴とする信号通信システム。
【請求項6】
請求項1に記載の信号通信システムが更に、前記検出した入力の評価を可能にするオペレータインターフェースを具え、当該オペレータインターフェースが前記アクチュエータと前記センサから遠隔位置で、または、前記アクチュエータと前記センサに対して局所的な位置からアクセス可能であることを特徴とする信号通信システム。
【請求項7】
請求項6に記載の信号通信システムにおいて、前記評価がリアルタイムで、または非リアルタイムで行われることを特徴とする信号通信システム。
【請求項8】
請求項1に記載の信号通信システムにおいて、前記動作センサが、前記ロボット装置の対応するアクチュエータにマッピングされていることを特徴とする信号通信システム。
【請求項9】
信号通信システムにおいて:
ロボット装置のアクチュエータと通信する動作センサであって、当該動作センサが人間と通信しており、当該人間によって与えられる動作を測定するセンサを具え;
前記動作センサが電源と送受信機と通信しており;
前記送受信機が前記ロボット装置の中央処理ユニットと通信しており;
前記中央処理ユニットがセンサ信号を受信してこれを処理し、前記センサが検出した入力を前記アクチュエータに通信し;
会話型動作モードを提供する動的制御システムであって、前記アクチュエータと通信する前記ロボット装置が動作を介して前記人間と通信し、当該人間が前記アクチュエータと通信する前記センサが測定した動作を介して前記ロボット装置に応答する動的制御システムを具え;
前記ロボット装置の前記アクチュエータと通信する前記動作センサが、前記人間による位置、速度、加速度、および力の入力を検出し、前記ロボット装置の動きを前記人間の動作に対応させる;
ことを特徴とする信号通信システム。
【請求項10】
請求項8に記載の信号通信システムにおいて、ユーザの入力がバーチャルあるいは物理的な入力であることを特徴とする信号通信システム。
【請求項11】
請求項8に記載の信号通信システムにおいて、前記センサが、グリップセンサ、ジョイスティック、プッシュボタン、スライダ、およびダイアルの少なくとも一つを具えることを特徴とする信号通信システム。
【請求項1】
信号通信システムにおいて:
ロボット装置のアクチュエータと通信する動作センサであって、人間に取り付けられており、この人間の動作を測定する動作センサを具え;
前記動作センサが電源と送受信機と通信し;
前記送受信機が前記ロボット装置の中央処理ユニットと通信し;
前記中央処理ユニットがセンサ信号を受信して処理し、前記センサが検出した入力を前記アクチュエータに通信し;
会話型動作モードを提供する動的制御システムであって、前記アクチュエータと通信する前記ロボット装置が動作を介して前記人間と通信し、前記人間が前記アクチュエータと通信する前記センサの動きを介して前記ロボット装置に応答する動的制御システムを具え;
前記ロボット装置の前記アクチュエータと通信する前記動作センサが、前記人間による位置、速度、加速度および力の入力を検出し、前記ロボット装置の動きを前記人間の測定した動作に対応させる;
ことを特徴とする信号通信システム。
【請求項2】
請求項1に記載の信号通信システムにおいて、前記動作センサがワイヤレスセンサであることを特徴とする信号通信システム。
【請求項3】
請求項1に記載の信号通信システムにおいて、前記ロボット装置が物理的ロボットあるいはバーチャルロボットであることを特徴とする信号通信システム。
【請求項4】
請求項1に記載の信号通信システムにおいて、前記ロボット装置を用いて前記センサから受信したデータを保存して評価するアッセンブリマネージャを具えることを特徴とする信号通信システム。
【請求項5】
請求項1に記載の信号通信システムにおいて、前記中央処理ユニットが前記アクチュエータと通信する部分内、前記センサと通信する部分内、または、前記アクチュエータと通信する部分外の位置、に設けられていることを特徴とする信号通信システム。
【請求項6】
請求項1に記載の信号通信システムが更に、前記検出した入力の評価を可能にするオペレータインターフェースを具え、当該オペレータインターフェースが前記アクチュエータと前記センサから遠隔位置で、または、前記アクチュエータと前記センサに対して局所的な位置からアクセス可能であることを特徴とする信号通信システム。
【請求項7】
請求項6に記載の信号通信システムにおいて、前記評価がリアルタイムで、または非リアルタイムで行われることを特徴とする信号通信システム。
【請求項8】
請求項1に記載の信号通信システムにおいて、前記動作センサが、前記ロボット装置の対応するアクチュエータにマッピングされていることを特徴とする信号通信システム。
【請求項9】
信号通信システムにおいて:
ロボット装置のアクチュエータと通信する動作センサであって、当該動作センサが人間と通信しており、当該人間によって与えられる動作を測定するセンサを具え;
前記動作センサが電源と送受信機と通信しており;
前記送受信機が前記ロボット装置の中央処理ユニットと通信しており;
前記中央処理ユニットがセンサ信号を受信してこれを処理し、前記センサが検出した入力を前記アクチュエータに通信し;
会話型動作モードを提供する動的制御システムであって、前記アクチュエータと通信する前記ロボット装置が動作を介して前記人間と通信し、当該人間が前記アクチュエータと通信する前記センサが測定した動作を介して前記ロボット装置に応答する動的制御システムを具え;
前記ロボット装置の前記アクチュエータと通信する前記動作センサが、前記人間による位置、速度、加速度、および力の入力を検出し、前記ロボット装置の動きを前記人間の動作に対応させる;
ことを特徴とする信号通信システム。
【請求項10】
請求項8に記載の信号通信システムにおいて、ユーザの入力がバーチャルあるいは物理的な入力であることを特徴とする信号通信システム。
【請求項11】
請求項8に記載の信号通信システムにおいて、前記センサが、グリップセンサ、ジョイスティック、プッシュボタン、スライダ、およびダイアルの少なくとも一つを具えることを特徴とする信号通信システム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図22】
【図23】
【図24】
【図25】
【図26】
【図27】
【図28】
【図29】
【図30】
【図31】
【図32】
【図33】
【図34】
【図35】
【図36】
【図37】
【図38】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図22】
【図23】
【図24】
【図25】
【図26】
【図27】
【図28】
【図29】
【図30】
【図31】
【図32】
【図33】
【図34】
【図35】
【図36】
【図37】
【図38】
【公開番号】特開2008−178973(P2008−178973A)
【公開日】平成20年8月7日(2008.8.7)
【国際特許分類】
【出願番号】特願2007−339674(P2007−339674)
【出願日】平成19年12月28日(2007.12.28)
【分割の表示】特願2002−568610(P2002−568610)の分割
【原出願日】平成14年2月27日(2002.2.27)
【出願人】(503310279)アンソロトロニックス インコーポレイテッド (1)
【出願人】(304032206)ユニバーシティー オブ メリーランド (1)
【Fターム(参考)】
【公開日】平成20年8月7日(2008.8.7)
【国際特許分類】
【出願日】平成19年12月28日(2007.12.28)
【分割の表示】特願2002−568610(P2002−568610)の分割
【原出願日】平成14年2月27日(2002.2.27)
【出願人】(503310279)アンソロトロニックス インコーポレイテッド (1)
【出願人】(304032206)ユニバーシティー オブ メリーランド (1)
【Fターム(参考)】
[ Back to top ]