説明

移動ロボットを遠隔操作するための方法およびシステム

【課題】移動ロボットの遠隔操作の方法および移動ロボットを遠隔操作するための直観的ユーザ・インタフェースを提供する。
【解決手段】ポイント−アンド−クリック装置405を用いることによって、ユーザは、移動ロボットの移動する方向へ、ヘッドアップ・ディスプレイ内に目標位置430を選択することができる。非同期通信を有するシステムにおいてさえもユーザのナビゲーションを支援するために、さらなるグラフィカル・オーバーレイ410、412が提供される。

【発明の詳細な説明】
【技術分野】
【0001】
本願は、2000年5月1日に出願した特許出願番号第60/201,054号の米国仮出願への優先権を主張する。
【0002】
発明の分野
本発明は、一般に、移動ロボットの遠隔操作に関し、より詳細には、直観的なグラフィカル・インタフェースでロボットを遠隔操縦するための方法およびシステムを取り扱う。
【背景技術】
【0003】
背景
本発明は、様々な遠隔操縦型ロボットおよび輸送手段の遠隔操作によるユーティリティを有する。本明細書中に示された記載は、特定の移動ロボットに関する本発明の方法およびシステムを述べているが、本発明はそれに限定されない。当業者は、ここに記載された方法およびシステムがロボット装置の遠隔操作に対する幅広い適用性を有するということを認識するであろう。
【発明の概要】
【発明が解決しようとする課題】
【0004】
ロボットがますます一般的かつ有能になると、ロボットを遠隔操作するための直観的な方法およびシステムに対する必要性が増大する。例えば、ユーザは、ユーザがよく知らない違ったロボットへ遠隔アクセスするかもしれない。運転免許を持っているドライバが今までに運転したことがないレンタカーを操作する場合に快適さを感じるように、よく知らないロボットを遠隔操縦する場合でも快適さを感じるようにすべきである。すなわち、今日に至るまで、これは可能ではなかった。
【0005】
多くの状況においてロボットは、ロボットを視覚的に確認しながら(in visual contact with the robot)ユーザにより局所的に操作することができるが、多くのその他の状況においては、ロボットが遠隔操縦されることは有利である。例えば、有害物質の移送、捜索および救助、軍および警察の応用のような、有害または危険な状態でロボットを操作しなければならないような状況において、ロボットの遠隔操作は、特に有益である。
【0006】
ある既存のシステムでは、カメラがロボットによって担持され、カメラからの視界の写真が通信リンクによって遠隔操作局に送信され、そこで輸送手段の環境に関するある視覚情報をオペレータに与えるためにディスプレイ画面上に再生される。さらにその他の既存のシステムでは、ユーザは、遠隔的に操縦するためにロボットの環境の地図または詳細なフロアー・プランを苦心して構築する。このようなシステムによって生じる複合エラーのために、これらのシステムは、しばしば不適切である。
【0007】
使用することが最も難しいシステムは、ジョイスティックのようなインタフェースを効果的に用いて、ユーザが速度を特定するインタフェースである。写真が撮影された時とユーザがそれを見ることができる時との間に時間の遅れが存在し、そして再びユーザがジョイスティックで動きを停止する時とロボットによってそのコマンドが受け取られた時との間に時間の遅れが存在するので、このアプローチは、通信回線の影響を被る。一般に、この種のインタフェースは、“オーバーシューティング”の不利を招く。ユーザは、所望の位置にあるロボットの画像を見て、動きを指示する命令を停止する。しかしながら、その画像は古くなっているので、ロボットは、所望の位置を実際には既にオーバーシュートしてしまう。また、動くことを停止するコマンドは、目的地に到達するまでに時間がかかるので、ロボットは、このコマンドが移送中の間にオーバーシュートし続ける。
【0008】
オーバーシューティング問題に対する解決策の一つは、インタフェース上に、移動時間または距離を特定することによって一定の移動量を指示する、簡単な、クリック可能な矢印を含ませることである。この簡単なインタフェースは、時間遅れ問題の不利を招かないロボットへの絶対移動指示(absolute motion command)を供給するという望ましい特性を有する。しかしながら、このインタフェースは、限定された機能を供給する。
【0009】
さらに別の可能な解決策は、動かない目標をポイントする固定形カメラを用い、ユーザに、固定された画像内でロボットの移動位置を選択させることを含む。この解決策は、三次元空間でカメラを任意に位置決めしかつ回転するための能力を欠く。さらに、この解決策は、ロボットが移動することができる全ての場所にカメラを配置することを必要とし、従って柔軟性がなくかつ高価な解決策である。
【0010】
既存のシステムは制御することがしばしば難しいため、さらなる解決策が提案された。例えば、米国特許第6,108,031号では、ユーザは、三次元情報をユーザに送信するための“仮想現実”グラス(またはヘッドセット)が与えられる。この向上した視覚情報を用いることによって、ユーザは、次いで、制御ボックスを用いて輸送手段を遠隔操縦する。
【0011】
しかしながら、ロボットまたは輸送手段を遠隔操作するこれらの方法に対して制限が存在する。上記したように、これらの場合の多くにおいて、リアルタイム視覚情報がカメラからユーザに送信され、ユーザがロボットにリアルタイム制御情報を戻すように送信することができるということが仮定される。しかしながらある種類の通信リンクに対して、かかるリアルタイム通信は可能ではない。特に、インターネット接続は、接続のスピードによって(例えば、DSL、ケーブル・モデム、ダイアル−アップ接続)、およびインターネット・トラヒックのその時点でのレベルによって、劇的に変化し得る。従って、インターネット接続形ロボットに対して、かかるリアルタイム送信を保証することができない。
【課題を解決するための手段】
【0012】
発明の概要
従って、本発明の目的は、ロボットの直観的な遠隔操作のための方法を提供することである。
【0013】
本発明の別の目的は、ロボットを遠隔操作するための直観的なユーザ・インタフェースを提供することである。
【0014】
本発明のさらに別の目的は、非同期通信を伴うシステムに特に適するロボットを遠隔操作するための方法およびシステムを提供することである。
【0015】
本発明の目的は、遠隔的に制御されるロボットのナビゲーションを改良するためにグラフィカル・オーバーレイでユーザにさらなる情報を提供することである。
【0016】
本発明のその他の目的および利点は、本発明の好適な実施形態の以下の記載、添付した図面、および特許請求の範囲から明らかであろう。
【図面の簡単な説明】
【0017】
【図1】遠隔ユーザによって制御することができる移動ロボットと、遠隔ユーザと、好適な制御手段とを示す。
【図2】移動ロボットのヘッド/カメラの拡大平面図を示す。
【図3】ロボットを遠隔操作するためのユーザ・インタフェースの好適な実施形態を示す。
【図4】ユーザ・インタフェースのヘッドアップ・ディスプレイ部分の詳細を示す。
【図5】ユーザ・インタフェースの動きコントロールまたはジョイスティック部分の詳細を示す。
【図6】ユーザ・インタフェースのパノラマ・ディスプレイ部分の詳細を示す。
【図7】ユーザ・インタフェースのオーバーヘッド・マップ部分の詳細を示す。
【図8】ユーザ・インタフェースのステータスバーまたはエリア部分の詳細を示す。
【図9】ユーザ・インタフェースのカメラ・コントロール部分の詳細を示す。
【図10】ユーザ・インタフェースのポーズ、ネックおよびヘッド・コントロール部分を示す。
【図11】中間地点(または目標)が選択され、ロボットが目標位置に移動する場合の、ヘッドアップ・ディスプレイの順次的な図を示す。
【図12】中間地点(または目標)が選択され、ロボットが目標位置に移動するようなヘッドアップ・ディスプレイの順次的な図を示す。
【図13】中間地点(または目標)が選択され、ロボットが目標位置に移動するようなヘッドアップ・ディスプレイの順次的な図を示す。
【図14】中間地点(または目標)が選択され、ロボットが目標位置に移動するようなヘッドアップ・ディスプレイの順次的な図を示す。
【図15A】ヘッドアップ・ディスプレイ内における選択から目標位置を選択する好適な方法を示すフロー図を提供する。
【図15B】ヘッドアップ・ディスプレイ内における選択から目標位置を選択する好適な方法を示すフロー図を提供する。
【図16】グローバル・マップ内の位置に対応するヘッドアップ・ディスプレイ内の画素位置を生成する処理を示すフロー図を含む。
【発明を実施するための形態】
【0018】
好適な実施形態の詳細な説明 この詳細な説明のために、第1に好適な実施形態のハードウェアを説明し、第2にユーザ・インタフェースの好適な実施形態の詳細な説明を提供し、第3に本発明を操作する方法を説明し、最後にシステムおよび方法の必要な計算の詳細を供給する。
1.好適な実施形態のハードウェア 図1は、パーソナル・コンピュータ210から遠隔ユーザ200によって制御することができる移動ロボット100を示す。本発明の全ての可能な機能を記載する目的のために、ここに説明するロボットは、いくつかの関連機構を含む。
【0019】
好適な実施形態のロボットは、特定の回転半径内で回転する機能を含む、全ての方向にロボットを移動させることができるホイール110を備えている。この好適な実施形態では、一組のホイール160は、ヒンジまたはたわみによって(by a hinge or flexure)シャーシの順方向部分に取付けられており、この“フリッパ”の操作によって、ロボットを上昇または降下させることができる。図示した設計は、マサチューセッツ州、SomervilleのiRoboto Corporationによって製造され、引用により本明細書中に組み込まれる米国特許出願第09/826,209号に詳細が開示されるロボット、iRobot−LEに類似するロボットを示す。この設計は、ロボット100を同じ場所で回転させることができ、それは明らかな利点を有し、好適な実施形態の方法で利用される。当業者は、ロボットは、多くの方法で構成することができ、あらゆる構成のホイール、トラック、アーム・リンク機構またはそれらの組合せを含むいかなる数の種々のモビリティ・プラットフォームをも備えることができるということを認識するであろう。
【0020】
また、ロボット100は、ロボットの環境に関する情報を集めることができる一つ以上のセンサと、および遠隔ユーザ200に情報を送信する手段とを包含しなければならない。本発明の好適な実施形態で用いられるロボットでは、主要センサは、ロボットの本体125(またはシャーシ)の上に取付けられたビデオ・カメラ140を備えている。好適な実施形態のロボットは、標準NTSC出力信号を生成する小型カメラ140を用いており、かかる信号は既成の(off the shelf)フレーム・グラバー・カードを用いてデジタル化される。このカメラは、USBまたはファイヤ・ワイヤ・カメラ、または遠隔エンド・ユーザ200へのアナログ送信を用いるカメラのような、エンド・ユーザのユーザ・インタフェース内に画像を結果として供給するようなあらゆる装置でありうる。カメラ取付けは、シャーシに関して固定でありうるか、またはカメラは、ロボット・シャーシ125に関して1、2、3またはそれ以上の度の自由度で動くことができる“アーム”または“ネック”120に取付けられうる。好適な実施形態では、カメラ140は、ネック120の上にある、ヘッド130内に取付けられる。ネック120は、ロボットのシャーシ125内の点のまわりに回転し、1の自由度を有する。
【0021】
さらに、好適な実施形態では、カメラ装置それ自体は、パン150、ティルト160およびズーム・コントロールを有する。さらにまた、ロボット100は、ロボットのヘッド130の上に取付けられたスピニング・ソナー・スキャナ135、および図示しないがロボット本体125内に配置された様々な赤外線エミッタおよび検出器を有する。好適な実施形態では、赤外線エミッタおよび検出器のペアは、ロボット・シャーシ125の周囲360度の適用範囲を供給するように配置される。
【0022】
図2は、好適な実施形態のロボット100のヘッド130の拡大平面図を示す。ヘッド130は、パン150を制御するための電動式リンク機構およびティルト160を制御するためのモータに接続され、(ピンホールであると仮定する)カメラ・レンズ145を有する、カメラ140を包含する。当業者は、ロボットが、ソナー・トランスデューサおよび受信機、レーザ・スキャナ、レーダ、赤外線カメラ、ステレオ・ビジョン、動き検出器、オムニカムズ(omnicams)およびその他の類似する装置を含む、あらゆる数のセンサを包含しうるということを認識するであろう。
【0023】
好適な実施形態では、ユーザに情報を送信するための手段は、アンテナ170を介した無線インターネット・リンクである。インターネットへのロボットのリンクは、無線モデムを通して、または無線送信(例えば、ホームRFまたはIEEE802.11)をまず通して、インターネットに接続された定置形コンピュータ(stationary computer)を指向することができる。上記は、好適な実施形態であるが、別のアプローチは、ブルートゥース(Bluetooth)またはシリア・ラジオ・モデムのような、ロボットと静止コンピュータとの間の低スピード・デジタル・ラジオ・リンクを用いるもの、それからロボットから定置形コンピュータの近くのアナログ・ビデオ受信機へのブロードキャスト・アナログ・ビデオおよびサウンドを用いるものでありうる。定置形コンピュータのオーディオ−イン・ジャックおよび定置形コンピュータに接続された安価なUSBフレーム・グラバーは、ロボットからオーディオおよびビデオを入手するために用いることができる。その他の実施形態では、エンド−ユーザからロボットへ、デジタル無線ラジオを経由したインターネットからのオーディオ・リンクを用いることができる。代替では、定置形コンピュータのオーディオ−アウト・ジャックに接続されたアナログ・オーディオ・ブロードキャスタを用いることができ、それからの信号は、ロボットのラジオによって受信されかつロボットのスピーカを通してプレーされる。
【0024】
この無線インターネット・リンクにわたって用いられるプロトコルは、H261のようなビデオ・テレカンファレンシング・プロトコル、MJPEGのようなビデオ・プロトコル、およびGSMのようなオーディオ・エンコーディングを含むことができる。これらは、無線リンクにわたり直接実行することができるか、またはHTTP、HTTPSまたはこのタスク用に作られた専用プロトコルのようなプロトコルに便乗することができる。
【0025】
また、図1は、ユーザ200および制御手段の好適な実施形態も示す。図1では、ユーザ200は、インターネットに接続されたパーソナル・コンピュータ210を通してロボット100と通信する。パーソナル・コンピュータは、コンピュータ・モニタ240、キーボード220およびマウス230を備えている。当業者は、制御手段が、タッチ・スクリーン、ジョイスティック、無線コントロール、仮想実現ヘッドセットおよびセンサ・グローブのような、あらゆる数の既知のコンピュータ入力装置を含むように構成できるということを認識するであろう。さらに、ユーザは、ロボットから物理的に遠隔な場所に存在する必要はない。ユーザがロボットに対して物理的に近くにいるときには、ロボットにコマンドを与えるために、ロボットへの直接的なボタンや制御、またはテレビジョン遠隔操作に類似する赤外線遠隔操作を含む、さらなる制御をラジオ・リンクとは別個に用いることができる。
【0026】
好適な実施形態では、制御手段は、あらゆるインターネットに接続されたコンピュータからのロボットの制御を許容する、標準ウェブ・ブラウザ上で実行するように実装されたユーザ・インタフェースを備えている。ロボットを操作する好適な方法では、ユーザは、ウェブ・ブラウザにログし、ユーザ名およびパスワードを入力することによってセキュアなウェブサイトにアクセスする。次いでユーザは、ここに記載したユーザ・インタフェースを包含するJava(登録商標)アプレットにアクセスすることができる。別の実施形態は、ブラウザへプラグ−インをインストールすることであり、エンド−ユーザのパーソナル・コンピュータ上でのソフトウェアインストール段階を必要とするというコストを払って、アプリケーションにおけるより良いパフォーマンスを可能にする。さらに別の実施形態は、ウェブ−ドライビング・インタフェースを包含するパーパス・ビィルット・アプリケーション(purpose built application)をインストールすることであり、このアプリケーションを用いて、エンド−ユーザのパーソナル・コンピュータ上のあらゆるウェブ・ブラウザから独立して、必要な全てのネットワーク操作を実行する。
【0027】
2.ユーザ・インタフェースの詳細な説明 ロボットを遠隔操縦するための方法およびシステムの詳細な説明をする前に、ユーザ・インタフェースの好適な実施形態の説明をする。
【0028】
図3は、ロボットを制御するためのユーザ・インタフェース300の好適な実施形態を示す。ユーザ・インタフェースの好適な実施形態は、ヘッドアップ・ディスプレイ310、ジョイスティックまたはダイレクト・ドライブ・コントロール320、パノラマ・ディスプレイ330、オーバーヘッド・マップ340、ステータスバー350、カメラ・コントロール360、およびヘッド/ネック・コントロール370を含む。当業者は、ユーザ・インタフェースをユーザの特定の必要性に合致するように設計することができ、ユーザ・インタフェースの内容とディスプレイ内のあらゆる要素の配置の両方を変えることができるということを認識するであろう。図3に示すこれらの要素のそれぞれは、以下により詳細に説明され、かつ図4〜10により詳細に示される。
【0029】
本発明の好適な実施形態を実行するために必要なユーザ・インタフェースの唯一の部分は、ヘッドアップ・ディスプレイ310である。ヘッドアップ・ディスプレイ310は、ロボットから受信した最新のカメラ画像を連続的に示す。好適な実施形態では、カメラ・レチクル(camera reticle)312、フロアー・プレーン・グリッド314、およびローテーション・テープ(rotation tapes)316および318を含む、多数のコンピュータ生成画像が、カメラ画像上に重畳される(overlaid)。以下に説明するように、目標位置または中間地点を選択することにおいてユーザを支援する目的でカーソルがヘッドアップ・ディスプレイ310内に一度配置されたならば、その他のヘッドアップ・ディスプレイ・オーバーレイ(例えば、ターゲティング・サークルおよびパースペクティブ・ボックス)が用いられる。
【0030】
好適な実施形態では、二つのローテーション・テープ316および318がヘッドアップ・ディスプレイ内に表されている。ローテーション・テープ316および318は、(カメラに対する)ロボットの相対的な回転の角度を示し、ロボットの遠隔操作を支援するために、ユーザにさらなる視覚情報を供給する。好適な実施形態では、ローテーション・テープ316は、ロボットのシャーシ125の前方1メートルの距離に描かれ、ローテーション・テープ318は、2メートルの距離に描かれる。
【0031】
特定の実施形態では、ヘッドアップ・ディスプレイの上またはその近くで、角度でマークが付けられたテープは、回転を指示するために用いることができる。ローテーション・テープの角度マーキングは、画像内での回転角度に揃えられており、画像上のアイテムのすぐ下のテープの部分をクリックすることにより、ロボットを回転させ、画像上のアイテムにロボットのレチクルが合うようになる。さらにその他の実施形態では、画像の両方の辺からちょっと入ったところにある、テープのマーキングによって、非線形かつ急速な180度までの回転を行うことができる(just in from both edges of the image, the markings on the tape can go non-linear and rapidly count up to 18- degrees of rotation)。また、インジケータは、回転を示すデッド・センター(dead center showing rotation)に配置することができる。ロボットがドライブ・モードにあり、現在空らの中間地点リストを有しているとき、テープをクリックした場合には、目標インジケータが示され、ロボットは、そのヘッディングまで回転する。回転すると、目標は中心に向けてスライドし、残りの回転を連続的に示す。
【0032】
そして、ヘッドアップ・ディスプレイ310の内容は、カメラからのビデオである必要がないということに注目すべきである。例えば、光がないときの操作のために設計されたシステム(例えば、水中または鉱山探査のためのシステム)では、ヘッドアップ・ディスプレイは、三次元ソナーまたはレーダ・イメージングのグラフィカル表現を包含することができる。
【0033】
図7に示すように、ユーザ・インタフェース300の好適な実施形態は、オーバーヘッド・マップ340を含む。オーバーヘッド・マップ340は、ロボット342およびロボットのすぐ周辺の環境に関するさらなるグラフィカル情報の表現を包含する。このディスプレイは、ワールド−オリエンテーション・ベース・マップ(ロボットがその内で回転する)、または、図7に示すように、ロボットの向きに関するマップ(ロボット342が同じ方向をポイントしているようにいつも見える)のいずれかでありうる。このマップは、中間地点や、壁344、移動した前のパス、方向ベクトル等のようなアーキテクチャ的な特徴の更なる情報を含むことができる。
【0034】
好適な実施形態では、オーバーヘッド・マップ340は、ソナー・スキャナ135から受信した信号のグラフィカル表現を包含する。ある実施形態では、オーバーヘッド・マップは、受信したデータの経年変化を示すようにさら更新することができる。例えば、最初に検出したときに、ソナー・スキャナ135からのエコーは、明るい緑色で表示されるが、これらの信号が古くなると、暗い緑色で表示される。同様に、赤外線エコーによって検出された赤外線信号は、明るい赤色で表示され、次にそれらが古くなると暗い赤色になり、それから消えてしまう。また、オーバーヘッド・ディスプレイは、ディスプレイ上の動画要素(animated element)として、現在の中間地点、ロボットの現在の方向およびスピードを示したり、ロボットが行った最新位置のトレール(trail)を示すために用いることもできる。
【0035】
また、ユーザ・インタフェース300は、中間地点を生成しないでロボット100の動きを制御するための手段を含むこともできる。図5では、例えば、本発明の好適な実施形態は、4つのボタン(左、右、前進、後退)で構成された、4矢印アイコンによって表された、ジョイスティック320を含む。ロボットが駆動モードにある間、上方(前進)または下方(後退)の矢印の先端(arrowhead)をクリックする都度、ロボットは、選択された方向に予め設定された距離(例えば0.1m)だけ移動する。右または左の矢印の先端の各クリックに対して、ロボットは、選択された方向に予め設定された角度(例えば5度)だけ回転する。好適な実施形態では、コンピュータ・キーボードの対応する矢印キーもまた、同様な動きをもたらす。当業者は、ロボットの動きに対する多くの制御インタフェースを単独または様々な組合せで利用することができるということを認識するであろう。例えば、特定の位置にロボットを動かす(“応接間に行く”)、または特定のパターンでロボットを動かす(“2メートル前進し、それから左に45度回る”)ために、別々のボタンを生成することができる。さらに、ボタン325は、カメラが現在ポイントしている角度方向にロボットを自動的に回転させるために用いることができる。
【0036】
ある実施形態では、ユーザ・インタフェース300は、図3および図6に示すような、一つ以上のパノラマ・ディスプレイ330を含むことができる。ロボット100のある実施形態では、オムニカムのようなカメラがロボットのまわりに取付けられ、ロボットにその場所で回転することを要求することなく360度の画像を捕えることができる。その他の実施形態では、ロボットは、360度の画像を捕えるために、その場所で回転することができる。
【0037】
かかる機能が利用できる場合、ユーザ・インタフェースのエリアは、パノラマ・ビューの表示専用とすることができる。各パノラマ画像は、実際には、近接して表示されるカメラからの一連の写真である。ある実施形態では、ユーザは、パノラマ的画像を捕えることをロボットに要求することができる。その他の実施形態では、選択したカメラ(パノラマではない)の画像を記憶するためにユーザ・インタフェースの専用部分を用いることができる。図6は、戸口およびランプ335を含む、サンプル・パノラマ・ビューを示す。これらの同じ機構は、図7に示したソナー画像において可視であり、それは、(図7におけるような)対象物のグローバル位置とパノラマ・ビューにおけるそれらの出現との間の関係の表示を供給する。
【0038】
ユーザ・インタフェース300の好適な実施形態は、ステータスバーまたはステータスエリア350を含み、それは、様々な情報および/または一般的な機能を制御するボタンを包含する。例えば、ユーザ・インタフェース300は、インタフェース300の下側左手の角にステータスバー350を包含する。ステータスバーの好適な実施形態の詳細を図8に示す。このエリアは、ロボットに全ての動きをすぐに中止させる赤色停止ボタン351を含む。また、ステータスエリア350は、ロボットの現在のモードに関するあるテキスト的またはアイコン的情報も含む。以下に説明するように、モードは、目標または中間地点を探している間にロボットが用いる慎重な動きおよび/または障害物回避のレベルを示しうる。モードは、ロボットの動き、またはユーザ・インタフェースにおけるユーザ入力の解釈のいずれかを制御することができる。一つのユーザ・インタフェース・モードでは、マウス・クリックを、新しい中間地点を生成するためのコマンドの代わりに、パン/ティルト・カメラへのコマンドとして解釈するであろう。別のモードでは、全ての動きを停止し、そのモードがクリアされるまで停止したままでいることもできる。別のモードでは、ロボットのセンサが途中に障害物があるということを示しているにも係わらず、慎重な動きを無効にして、ロボットを中間地点の方へ移動させることができる。また、ステータスエリア350は、緑色の移動ボタン354を含み、それは、押されたときに、感知した障害物の存在にも係わらずロボットを移動させる。
【0039】
また、ステータスエリアは、ロボット100の現在のバッテリ・レベルをグラフィカルに表示するバッテリ・アイコン357も含む。ある実施形態では、バッテリを充電することが必要であるときを示すアイコン、例えば電圧が予め選択したレベルまたは実際の電圧レベル以下に降下するときを示すアイコンを含むことも有用である。ロボットが現在再充電されているということを示すために別個のアイコンを用いることができる。
【0040】
また、ロボットのある実施形態では、データ送信レート355(例えば300キロバイト/秒)およびビデオ送信レート356(例えば10フレーム/秒)に関する情報を含むこともできる。ロボットの現在のスピード、現在の向き、どの部屋内にそれが配置されているか、ロボットに現在ログ・インしているユーザの数、ロボットにログしたユーザ間のチャット・ページ、またはロボットからユーザ・インタフェースに受け渡されたその他の感知または計算された情報を示すために、このエリアに他の表示を含むことができる。
【0041】
図9に詳細に示すように、ユーザ・インタフェース300はまた、ロボットのカメラ140の仕様に合わせたカメラ・コントロール360も含む。好適な実施形態では、カメラ140は、パン、ティルトおよびズーム・コントロールを包含し、従って遠隔ユーザ200がカメラ140を望むように制御できることが好ましい。本発明の好適な実施形態は、カメラのパンおよびティルトを選択するための二次元グリッド361を含む。好適な実施形態では、カメラの現在の位置は、グリッド361内のカーソル362によって表され、フィールド364の上部部分に数値的にも表示される。パン/ティルト・カーソル362は、マウス230を用いてグリッド361内でクリックすることで動かすことができ、それによりカメラ140は直ちに新たに選択した位置に調整される。さらに、スライドバー365制御は、カメラのズームを制御するために、パン−ティルト・グリッド361の左側に配置される。当業者は、カメラまたはその他の感知装置に対する位置および焦点距離を制御するために、あらゆる数の制御(キーパッド入力、スライドバー、回転ノブ等)を用いることができるということを認識するであろう。好適な実施形態では、新しい中間地点が生成されたときにはいつでも、パン/ティルト角度が中心にリセットされ、カメラ・ズームが広角にリセットされるジャンプ・バック機構が用いられる。
【0042】
上述したように、好適な実施形態では、カメラ140は、ロボット100のヘッド130に取付けられ、カメラの高さは、ロボットのネック要素120の角度およびロボットの“フリッパ”要素160の伸びという、二つの要因によって調整される。これらの要因の両方は、iRobot−LEの使用に特定されるが、当業者は、特定の実施形態に本明細書中に開示された制御を容易に適応することができるであろう。図10は、ネック角度372およびフリッパ位置374を制御するためにスライドバー制御が供給される好適な実施形態を示す。ロボットの動画表示378は、ロボットの現在のポーズを示す。さらに、3つのポーズ・ボタン376がロボットの動画表示の上に(above the animated robot)配置される。これらのボタンをクリックすることによって、ロボットは、表現した様々なポーズをとる(assume)ように予め設定される。
【0043】
ヘッド要素のピッチを制御することができるその他の実施形態では、垂直テープが供給され、角度がマークされ、ヘッド・ピッチを制御するために用いることができる。かかる実施形態では、小さい赤色の矢印または三角形のようなインジケータが、現在のピッチを示す。ユーザがテープ上をクリックした場合には、新しい目標インジケータがピッチ・テープ上に配置され、ヘッドは、新たに特定されたピッチまで上下に回転することを直ちに開始する。ヘッドがそのピッチに達したならば、目標インジケータは消える。当業者は、制御が、特定のロボットまたは輸送手段に適応されるということを認識するであろう。
【0044】
当業者は、パーソナル・コンピュータ、またはPDAコンピュータや移動電話のような液晶ディスプレイを有するハンドヘルド装置に、上述したユーザ・インタフェースを実装することができるということを直に認識するであろう。
【0045】
上記で紹介したように、ヘッドアップ・ディスプレイ310は、ロボットを遠隔操作するために有用なユーザ200への情報を供給するために、様々なオーバーレイを包含する。上述しかつ図4に示したように、マウスで制御されるカーソルがヘッドアップ・ディスプレイ・ウィンドウ内にないときでも、カメラ・レチクル312、フロアー・プレーン・グリッド314およびローテーション・テープ316および318は、可視である。その他の実施形態では、これらは、省略することができるか、または選択的に示すことができる。例えば、ユーザ・インタフェースは、ロボットが駆動モードにあるときにのみ、これらのオーバーレイを含むことができる。
【0046】
ロボットの動きを遠隔操作するためにヘッドアップ・ディスプレイを用いるときに、さらなるオーバーレイを供給することができる。二次元ビデオ情報によりロボットをナビゲートすることは難しい。なぜなら、視野内の対象物は正確なナビゲーションに必要な視覚的な手がかりをユーザに多く供給することができないからである。これは、ロボットからかなり距離がある中間地点または目標を選択するときに特にそうである。本発明の好適な実施形態は、パースペクティブ、距離および視角に関するさらなる情報をユーザに供給するために、様々なオーバーレイ・ガイドラインを含む。
【0047】
好適な実施形態では、図4に示すように、緑色のプレーン・グリッド314は、0.5m×0.5mの四角によりロボットの前方に重畳される。グリッド314は、ヘッドアップ・ディスプレイ310の水平軸全体に沿って拡張し、ロボットの直ぐ前方のエリアの1mだけをカバーする。当業者は、グリッドの寸法が、ロボットの移動特性およびユーザの好みに一致するように選択されるべきであるということを認識するであろう。グリッド314は、視野内の様々な対象物の相対距離の表示度数をユーザに供給する。好適な実施形態では、ユーザ・インタフェース300は、ロボットが水平面で動作していると仮定する。その他の実施形態では、グラウンド・プレーンの傾斜に関するロボットからのデータを、必要によりグリッド314を調整するために用いることができる。
【0048】
グリッド314がユーザに対して汎用的なパースペクティブ情報を供給する一方、二つのさらなるオーバーレイが、ロボットの目標として中間地点を正確に選択することにおいてユーザを支援するために用いられる:目標サークルおよびパースペクティブ・ボックス。
【0049】
目標サークル。図11に示すように、カーソル矢印405がヘッドアップ・ディスプレイ310内で移動するときに、特定の中間地点が選択された場合にロボットが移動するエリアを表す一つ以上の投影が、ヘッドアップ・ディスプレイ上に重畳される。好適な実施形態では、このエリアは、一つ以上の目標サークル410および412によって表される。ただし、このエリアを、特定のロボットの寸法および輪郭を近似するように選択された形状を含む、(二次元または三次元の)あらゆる形状によって表すことができる。目標サークル410および412は、現在の視界のパースペクティブにより、ヘッドアップ・ディスプレイ上に楕円として表される。好適な実施形態では、目標のために二つの同心円が用いられる。内側の円410は概ねロボットの寸法であり、外側の円412はロボット・システムに固有な不正確性に基づく目標のよりルーズな近似を供給する。好適な実施形態では、これらの円410および412の半径は、リアル・タームにおいて(in real terms)一定のままである(しかしながら、円は、中間地点がロボットからかなり離れた距離にあるときには、より小さくなるように見える)。その他の実施形態では、外側の円412は、ロボットに近い中間地点に対しては内側の円410と一致し、中間地点の距離が増大すると離れていく。
【0050】
パースペクティブ・ボックス。目標サークルまたは同様な投影でさえも、ユーザが中間地点の選択を判断することは、しばしば困難である。これは、高さが可変で、さらなるパン、ティルトおよびズーム・コントロールを有するカメラを組入れたロボット・システムにおいて、しばしば言えることである。ユーザをさらに支援するために、好適な実施形態は、ヘッドアップ・ディスプレイ310上に重畳されたにパースペクティブ・ボックス430を含む。好適な実施形態では、パースペクティブ・ボックス430は、現在の中間地点の上方0.5mに位置し、パースペクティブ・ボックスの上部および底部はフロアー平面に並行である。好適な実施形態では、パースペクティブ・ボックス430は、幅0.5m、深さ0.5mおよび高さ0.25mのワイヤフレーム・オーバーレイである。カメラがパースペクティブ・ボックスと同じ高さに配置されるときは、ボックスの上部および底部は、可視ではない。別の実施形態では、パースペクティブ・ボックスの高さは、カメラの高さの下方0.25mであるように連続的に調整される。このアプローチでは、パースペクティブ・ボックスは、ユーザの水平方向の視界を妨げない。
【0051】
そして、好適な実施形態では、さらなるガイドラインをユーザに供給するために、目標サークルの中心からパースペクティブ・ボックスの底部側の中心へ0.5mの線が描かれる。
【0052】
3.ウェブドライビングの好適な方法 図11〜14は、本発明の方法の実施形態を実行している間のユーザ・インタフェースのヘッドアップ・ディスプレイ部分を示す。図11では、ヘッドアップ・ディスプレイ310は、ロボットのカメラから送信されたビデオを通して、ロボットの環境からの視界を含んでいる。ロボットから視界にあるように、ロボットの前方概ね5メートル、ロボットの多少右側にドア450がある。図11では、カメラ140は、パン・カーソル362およびローテーション・バーの両方によって示されるように、順方向に直接向いている(即ち、カメラ・レチクル312は、ローテーション・バー316および318の角度マークのゼロに一致する)。ユーザがヘッドアップ・ディスプレイ内でカーソル矢印405を動かすと、ユーザ・インタフェースは、カーソル矢印405の位置に対応する目標サークル410および412とパースペクティブ・ボックスとを絶えず描き直す。ユーザがヘッドアップ・ディスプレイのあちこちに(around the heads-up display)カーソルを動かすことにより、ユーザは中間地点を選択することができる。
【0053】
図12は、ヘッドアップ・ディスプレイ・ウィンドウ内でマウスをクリックすることによって中間地点が選択された直後のヘッドアップ・ディスプレイを示す。好適な実施形態では、一度中間地点460が選択されたならば、中間地点は現在の中間地点駆動目標のセットに追加され、目標サークル410および412は影付けされる(shaded)。選択した中間地点が唯一の現在の中間地点(または中間地点リストの最上部にある中間地点)である場合には、ロボットは、選択した中間地点460の方向に向けて動き始める。換言すると、中間地点駆動リストが最新の選択の前に空であって、ロボットが駆動モードにある場合には、ロボットは、選択した中間地点の方向に向けて駆動することを開始する。さらなる選択がなされた場合には、第2の中間地点がリストに追加されることになる。ロボットが中間地点に達すると、その中間地点は、ヘッドアップ・ディスプレイから消える。現在の中間地点リストにさらなる中間地点が存在する場合には、ロボットは、第2の中間地点の方向に向けて駆動することを直ちに開始する。
【0054】
図13は、選択した中間地点460の方向に向けてロボットが移動するときのヘッドアップ・ディスプレイ310を示す。ロボットが中間地点に近づくと、目標サークルは、影付けされたままであるが大きさが増大するようになる。また、パースペクティブ・ボックスも大きさが増大し、ボックスによる三次元パースペクティブを正確に示す。図14は、ロボットが、ドア450のちょうど外側の、中間地点に達したときのヘッドアップ・ディスプレイを示す。目標サークルおよび透視ボックスはヘッドアップ・ディスプレイから除去され、ロボットはさらなる遠隔操作命令を待つ。
【0055】
一定の実施形態では、中間地点は、中間地点ビン(waypoint bin)からアイコンをつかみとり、それをヘッドアップ・ディスプレイ内の所望の目標位置まで移動することによって選択される。これは、標準コンピュータ・デスクトップにおいて、フォルダーにファイルのような対象物をドラッグするのとほとんど同じ方法で行われる。その他の実施形態では、中間地点アイコン上での右クリックは、選択した中間地点で実行可能な動作のポップアップ・メニューを導くことができる。
【0056】
さらに、ロボットは、特定のシステムの設計によって指示されるように、次の中間地点まで駆動することよりも高いかまたは低い優先順位で、さらなる動作を実行することができる。好適な実施形態では、ロボットは、障害物回避を実行するために、そのオン−ボード・ソナー・スキャナ135および赤外線検出器(ロボット本体125内に配置されるが図示を省略する)を用いる。その場合には、障害物の存在(および障害物回避ルーチンの実行)は、中間地点への駆動に対して優先し、回り道をするためにロボットを障害物から離れるように向きを変えさせる。かかるシステムは、リアルタイムデータ送信の保証なしでロボットを制御する状況、ダイナミック環境で動作するロボットを制御する状況において、特に有利である。多数の障害物回避ルーチンがこの技術分野でよく知られている。好適な実施形態では、多くの代替の動きコマンドが、中間地点の方向に向けて駆動すること、障害物の周りで向きを変えること、そしてさらに非常に近い障害物を回避するためにバックすること、に対応する行動から生成される。これらのコマンドのそれぞれは、その動き動作を引き起こす挙動コードによって、優先順位が与えられる。これらのコマンドの優先順位およびその重要度(magnitudes)は、それらがロボットを障害物と接触させるかまたは障害物の近くに移動させるかどうかに依存して、予定動作(the proposed movement)が突発または急激すぎる動きをもたらすかどうかといったその他の基準に関して、調整される。次いで、調整後の最も高い優先順位を有する予定動作が、現在のコマンドとして、動きコントローラへ付与される。この処理は、毎秒何回も起こる。その他の実施形態では、ロボットは、障害物が存在する場合に、その現在の中間地点を解放し、ユーザからのさらなる命令を待機することができる(即ち、駆動モードから抜ける)。ある実施形態では、ユーザは、障害物に対する感度のレベルを遠隔制御することができ、これには、障害物検出を無効とし、駆動モードの状態で継続するためのアイコンを選択する場合が含まれる。
【0057】
4.計算の詳細 詳細に説明したロボットを遠隔操作するための方法およびシステムを用いる、編成、設計および方法として、ヘッドアップ・ディスプレイ内の目標のユーザによる選択を、ロボットに対する目標位置に変換するための好適な実施形態の方法をここで説明する。ヘッドアップ・ディスプレイ内のクリック位置からロボットに対する目標位置への変換を実行する処理は、(a)ロボットの現在の位置及び向きを決定すること、(b)カメラ(またはロボットの周辺の領域を表す画像情報を供給するために用いられるその他の装置)の現在の位置を決定すること、(c)クリック・ベクトル(即ち、カメラに関係するヘッドアップ・ディスプレイ上の位置)を決定すること、および(d)目標位置を生成するためにクリック位置を三次元世界地図に投影することを必要とする。これらの段階を実行するための好適な方法を以下に説明する。
【0058】
好適な実施形態では、システムまたは方法は、ロボットの外部の座標系に基づきグローバル・マップ上でロボットの位置を辿る。その他の実施形態では、ロボット座標系を用いることができる。好適な実施形態の目的のために、方法およびシステムは、ロボットの公称位置(nominal location)がロボットの回転の中心に固定された単一点であるということを仮定する。次いで、ロボットのスタート位置は、x0、y0、z0として表すことができる。好適な実施形態では、ロボットは、純粋に水平な面上を移動すると仮定され、従って地面(the plane of the ground)は、一定(z0=0)あると仮定される。
【0059】
図15Aは、ロボットの現在位置の計算のフロー図を含む。ロボットは、あらゆる所与の時間に移動することができ、例えば、一連の選択した中間地点の第1の方向に向けて移動するので、本発明の好適な実施形態は、そのスタート位置を計算し、ロボットの動きを辿ることによって、ロボットの現在の位置を辿る。好適な実施形態では、ロボットの動きは、モータ・エンコーダの使用を通して決定される。ロボット本体510のスタート位置からの情報を(エンコーダによって辿られたような)ロボット本体の動きと組合せることによって、ロボット本体の路程測定(odometry)は、所与の時間tにおける現在の位置xt、yt、ztとして計算される。路程測定は、モータの回転を計数することによってロボットの位置を決定する単純な一つの方法であり、その他の手段は、この技術分野でよく知られている。位置を決定するこの手段は、ホイールの滑りによりエラーの測定を起しやすく、それは表面の違いによって大いに変化する。その他の実施形態では、三角測量(ローカルまたはGPS)、位置測定、目標物認識またはコンピュータ・ビジョンを含む、ロボットの位置を決定する様々な方法を用いることができる。
【0060】
好適な実施形態では、上述したように、(カメラ・レンズ145を有する)ロボットのカメラ140は、ネック120の動きによって制御される、ロボットの本体125の上方の制御可能な高さに取付けられる。ネック120のトップには、パン/ティルト・カメラ145が取付けられる。
【0061】
ネック120は、ネックの動きが特定の位置を通過するときにシステムがネック位置を絶対的な意味でリセットする、フィジカル・ネック・インデックス・スイッチを含む。ネックの開始角度520およびモータ・エンコーダ524を用いることによって、所与の時間におけるネックの角度位置(θn)を計算することができる528。同様に、カメラのパン位置(538)およびカメラのティルト位置(548)は、スタート位置(それぞれ、530、540)を用いて計算することができる。
【0062】
図15Bに示すように、ロボット要素(本体、ネック・パンおよびティルト)のそれぞれの現在の位置を用いること、およびロボット自体の静止幾何学形状610(例えば、ネックの長さおよびそのアーク長(the length of the neck and its arc of travel)、回転の中心からネックのベースまでの距離等)を用いることによって、各ロボット要素に対する参照フレーム(frame of reference)を生成することが可能である。この場合、各参照フレームは、ロボット要素のx、y、z位置、および順方向、左側および上向きに対する回転ベクトルを与えることにより、4×3のマトリックスによって表される。例えば、ロボット本体が位置xt、yt、ztにあり、ロボットがx軸方向に沿って向いているときに、ロボット本体の参照フレームは以下の式、
【数1】


である。図15Bに示すように、ロボットのベースからカメラ位置の方向に向けて順番に、各要素に対して類似する参照フレームを生成することができる。例えば、ネックに対する参照フレーム628は、本体の参照フレーム618、ネック幾何学形状610を記述するDenavi−Hartenberg Parametersおよび現在のネックの回転角(θn)528を用いて計算することができる。これら3つの入力を用いて、ネックに対して新しい参照フレーム628を計算することができる。同様に、パン参照フレーム638が計算され、ティルト参照フレーム648が計算される。ここで、カメラ140はティルト要素160の終端に取付けられるので、ティルト要素648に対する参照フレームは、カメラ自体に対する参照フレーム650である。
【0063】
ここで、ロボットの位置およびベクトル(参照フレーム)618およびカメラの位置およびベクトル(参照フレーム)650を得ている。好適な実施形態における次の段階は、クリック・ベクトル680の決定である。クリック・ベクトル680を決定するために、システムは、ヘッドアップ・ディスプレイ内に包含された視界を決定し(段階670、675)、クリック位置を得なければならない(段階685、687)。ヘッドアップ・ディスプレイ内に包含された視界を決定するために、システムは、固定したカメラ視角(the camera's fixed angles)およびカメラ・ズームを用いる。好適な実施形態では、カメラの視角は、概ね幅方向に98°および高さ方向に88°であり、カメラは8倍のズームを有する。次いで、ズーム視角(水平および垂直)は、現在のズームで視角を除算することによって決定される。好適な実施形態では、ピンホール・カメラ・モデルが簡略化のために仮定される。
【0064】
クリック位置を決定するために、システムは、画像画素サイズ685および画素クリック位置687を見る。画像画素サイズは、モニタのヘッドアップ・ディスプレイ310の画素で表した寸法によって決定され、それは、好適な実施形態では400画素×320画素のデフォルト値となる。画素クリック位置は、ヘッドアップ・ディスプレイ内のユーザのクリック位置、換言するとポイント−アンド−クリック装置が動作される(activate)ときのカーソル位置によって決定される。(その他の実施形態では、クリック位置は、ロボットに対する目標位置を設定するために、アイコンがドロップされる位置である。)
【0065】
次いで、クリック・ベクトル(またはクリック参照フレーム)は、視角(view angles)、画像画素サイズおよび画素クリック位置を用いて計算することができる。まず、画像の中心からのパーセント・オフセットを決定するために、画像画素サイズ685および画素クリック位置687が用いられる。例えば、ヘッドアップ・ディスプレイの上側右手の四分の一区分におけるクリックに対して、システムは、クリック位置が中心から垂直境界までの距離の40%で、右側水平境界までの距離の85%であるということを計算する。そのパーセントは、カメラの水平および垂直ズーム視角によって乗算され、現在のカメラの参照フレームからのカメラ・フレーム水平および垂直オフセット角を供給する。Denavit−Hartenberg Parametersにおけるものと同じ方法を用いて、しかしゼロ長さ軸(zero length axes)を仮定して、新しいクリックの参照フレーム680が生成される。
【0066】
次いで、あらゆるロールを取り除くために、クリックの参照フレームを再配向する(reorient)。即ち、左側のベクトルがzグラウンド・プレーンに対して水平になるまで(until the left vector is horizontal to the z ground plane)、順方向ベクトルの回りにクリックの参照フレームを回転させる。一度なされたならば、クリックの参照フレームの方向性は、垂直ティルト角および水平回転角によって完全に表される。これがクリック・ベクトルである。
【0067】
次いで、クリック・ベクトルは、三角関数を用いて、目標位置のx、y、およびz座標を決定するためにグローバル・マップに投影される(段階690)。好適な実施形態では、目標のz座標は、ゼロであると仮定される。次いで、ロボットは、その現在の位置から目標位置まで移動するためにグローバル・マップを用いることができる。
【0068】
差動駆動(differential drive)を有するロボットに対する好適な実施形態では、ロボットをその現在の位置(518)から目標位置(690)に移動するための命令を生成するための処理は、順方向速度および回転速度を指示することを含み、回転速度は、現在のロボットの回転角と、現在のロボットの位置と所望のロボットの位置との間の角度と、の間の差の正弦関数である(the rotational velocity is the sine of the difference between the current robot rotational angle and the angle between the current robot position and the desired robot position)。順方向速度は、当該角度の二乗されたものの余弦関数である(The forward velocity is the cosine squared of the same angle)。当業者は、代替のステアリングおよびナビゲーション方法機構を生成することができるということを認識するであろう。
【0069】
上記は、クリック位置(687)をロボットの目標位置(690)に変換する好適な方法(600)を説明した。しかしながら、(目標サークルおよびパースペクティブ・ボックスを含む)オーバーレイ・ガイドラインを供給するために、システムは、目標位置(またはグローバル・マップ内のあらゆる位置)をヘッドアップ・ディスプレイ内の画素位置に変換することができなければならない。この変換を行うために必要なデータの大部分は、クリック位置を目標位置に変換する図15Bに示した処理からのデータの複製である。
【0070】
好適な実施形態では、(グローバル・マップ内に固定された)目標サークルは、ロボットが目標位置に近づくときに、ヘッドアップ・ディスプレイ上で継続的にリフレッシュされる。従って、一定のカメラ・ズーム角およびベクトルを仮定すると、ロボットの現在の位置が目標位置に近づくときに、目標サークルは大きさが増大するように見えるべきである。この処理では目標サークルのx、y、z位置が一定のままであるが、カメラの参照フレームはロボットの動きにより変化する、ということに注目することは重要である。
【0071】
グローバル・マップでの所与のx、y、z位置に対するヘッドアップ・ディスプレイ内の画素位置の計算のための一つの方法700を、図16のフロー図に示す。まず、動画ベクトル(animation vector)720は、動画ベクトルが現在のカメラ位置とマップされるx、y、z位置との間の角度に等しいように決定される。この動画ベクトルは、垂直ティルト角および水平回転角によって表される。次いで、視線(line of sight)730は、カメラの参照フレームを用いて動画ベクトルをカメラ・フレームと同じロール・コンポーネントにマッピングすることによって決定される。カメラの参照フレームと視線との間の水平および垂直差740は、水平および垂直視角差を供給する。ズーム・カメラ角675と組合せたこれらの視角差740は、それらの角度オフセットが現在のズーム内であるという条件で、ヘッドアップ・ディスプレイ760にマップすることができる画素オフセット750を供給する。
【0072】
本発明は、テレ−ロボット・インタフェースを通して、“あるものを指す(point at something)”機能を提供する。ここに記載したこの発明の特定の実施形態は、ユーザがフロアー上のスポットを指し、ロボットは、そのスポットの上に移動する(the robot will drive on top of that spot)。しかしながら、また、ここに記載した技法は、ウォール・プレーン(the plane of a wall)が与えられているとして、壁上のスポットを指す場合や、既存の市販されている3D−ステレオ・ビジョン製品によって供給されるような、視対象となるアイテムについての三次元レンジマップが与えられているとして、密集しているアイテム集合の中からある特定のアイテムを指す場合などに用いることもできる。そのように、このインタフェースは、ロボット・アームを把持対象に向ける場合にも用いることができる。例えば、本発明は棚からアイテムをピックアップする食料雑貨買物ロボットの部分として用いることができ、このインターフェースを選択するアイテムを指し示すために用いることができる。このインタフェースは三次元空間を完全に表す同次変換(homogeneous transforms)を用いて構築されるので、このインタフェースは、水平なフロアーを行ったり来たりするのではなく、任意の三次元空間で作業するロボットに用いることができる。例えば、これは、水中ロボット、宇宙ロボット(space-based robots)、または空中ロボット(airborne robots)を管理するために用いることができる。本発明は、エンド・ユーザに写真を提示し、エンド・ユーザにそれらの画像内でポイントさせ、それから、三次元地図の表面かまたはその他の空間の三次元表現とともに、三次元空間のベクトルまたはそのベクトルがプレーンと交叉する三次元空間のスポットのいずれかとして二次元クリックを解釈するために三次元情報を自動的に用いる、汎用的な技法を実現する。
【0073】
これを念頭に置いて、本発明は、本明細書中に示した実施の特定の例とは異なる詳細に関連して実用化することができ、示したものとは異なる装置、システムおよび方法で実施することができるということが、当業者によって理解されるであろう。それゆえに、本明細書中に記載された詳細は、限定というよりむしろ説明のために提供されるものであり、本発明は添付した特許請求の範囲によってのみ限定される。

【特許請求の範囲】
【請求項1】
ある環境下でロボットを遠隔操縦するための方法であって、
前記ロボットの遠隔操縦を制御するためのユーザ・インタフェースを供給する段階と、
前記ロボットに関連付けられたイメージング装置を介して、前記ユーザ・インタフェースに前記ロボットの周辺の前記環境を表す画像情報を供給する段階と、
前記ユーザ・インタフェースにおいて前記ロボットの周辺の前記環境を表すユーザ知覚画像を供給するために前記画像情報を用いる段階と、
前記ロボットが移動する方へ前記ユーザ知覚画像のある場所に目標を指定する段階と、
前記ユーザ・インタフェースにおいて、前記ユーザ知覚画像で指定された前記目標を、前記ロボットの前記環境におけるx、y、およびz座標を有する目標位置に自動的に変換する段階と、
前記環境における前記ロボットの現在の位置から、前記環境の前記目標位置のx、y、およびz座標に移動するために、リアルタイム命令を前記ユーザ・インタフェースから前記ロボットに供給する段階と、
を具備する方法。
【請求項2】
各指定目標に対する前記変換段階は、
前記環境の前記ロボットの現在の参照フレームを決定する段階と、
前記ロボットに関連付けられたイメージング装置に対する現在の参照フレームを決定する段階と、
前記ロボットおよび前記イメージング装置の前記現在の参照フレームに基づいてクリック・ベクトルの一端を識別する段階と、
前記ユーザ知覚画像の視界および前記指定された目標に基づき前記クリック・ベクトルの他端を決定する段階と、
前記目標位置のx、y、z座標を供給するために前記ロボットの環境の三次元グローバル・マップに前記クリック・ベクトルを投影する段階と、
をさらに具備する、請求項1に記載のロボット遠隔操縦方法。
【請求項3】
前記クリック・ベクトル決定段階は、
前記ユーザ知覚画像の前記視界を供給する前記ロボットに関連付けられた前記イメージング装置の固定角およびズームを決定する段階と、
前記ユーザ知覚画像の画素サイズを決定する段階と、
前記指定された目標に対応する前記ユーザ知覚画像の画素位置を識別する段階と、
前記イメージング装置の固定角およびズーム、前記ユーザ知覚画像の前記画素サイズ、および前記指定された目標に対応する前記画素位置を用いて前記クリック・ベクトルの他端を計算する段階と、
をさらに具備する、請求項2に記載のロボット遠隔操縦方法。
【請求項4】
前記目標指定段階は、
前記指定された目標に対応している前記ユーザ知覚画像の位置に可視ポインタを移動する段階と、
前記指定された目標を選択するために前記位置においてポイント−アンド−クリック選択装置を起動する段階と、
をさらに具備する、請求項1に記載のロボット遠隔操縦方法。
【請求項5】
前記目標指定段階は、
アイコンを選択する段階と、
前記指定された目標に対応している前記ユーザ知覚画像の位置に前記アイコンをドラッグする段階と、
前記指定された目標を選択するために前記ユーザ知覚画像の前記位置に前記アイコンをドロップする段階と、
をさらに具備する、請求項1に記載のロボット遠隔操縦方法。
【請求項6】
前記ユーザ知覚画像は、コンピュータ・モニタに供給される、請求項1に記載のロボット遠隔操縦方法。
【請求項7】
前記ユーザ知覚画像は、携帯用液晶ディスプレイに供給される、請求項1に記載のロボット遠隔操縦方法。
【請求項8】
前記ロボットの周辺の環境を表す画像情報は、ビデオ信号によって供給される、請求項1に記載のロボット遠隔操縦方法。
【請求項9】
前記ビデオ信号はインターネットを介して送信される、請求項8に記載のロボット遠隔操縦方法。
【請求項10】
前記イメージング装置はカメラである、請求項1に記載のロボット遠隔操縦方法。
【請求項11】
ある環境下でロボットを遠隔操縦するためのシステムであって、
前記ロボットの前記遠隔操縦を制御するためのユーザ・インタフェースと、
前記ロボットの周辺の前記環境を表す画像情報を供給するための前記ロボットに関連付けられたイメージング装置と、
前記ユーザ・インタフェースに前記画像情報を送信するための手段と、
前記ユーザ・インタフェースにおいて前記画像情報をユーザ知覚画像に変換するための手段と、
前記ロボットが移動すべき方へ前記ユーザ知覚画像の目標を指定するための手段と、
前記ユーザ知覚画像にて指定された前記目標を前記ロボットの環境のx、y、z座標を有している目標位置に自動的に変換するための手段と、
前記環境の前記ロボットの現在の位置から前記環境の目標位置のx、y、z座標に移動するために、前記ユーザ・インタフェースから前記ロボットにリアルタイム命令を供給するための手段と
を備えている、システム。
【請求項12】
前記変換手段は、
前記環境の前記ロボットの現在の参照フレームを決定する手段と、
前記ロボットに関連付けられた前記イメージ装置の現在の参照フレームを決定する手段と、
前記ロボットおよび前記イメージング装置の現在の参照フレームを用いてクリック・ベクトルの一端を識別するための手段と、
前記ユーザ知覚画像の視界および前記指定されたターゲットに基づき前記クリック・ベクトルの他端を決定する手段と、
前記ターゲット位置のx、y、z座標を供給するために前記ロボットの環境の三次元グローバル・マップに前記クリック・ベクトルを投影するための手段と
を備えている、請求項11に記載のロボット遠隔操縦システム。
【請求項13】
前記クリック・ベクトルの他端を決定するための手段は、
前記ユーザ知覚画像の視界を供給する前記ロボットに関連付けられた前記イメージング装置の固定角およびズームを決定するための手段と、
前記ユーザ知覚画像の前記画素サイズを決定するための手段と、
前記指定した目標に対応する前記ユーザ知覚画像上の画素位置を識別するための手段と、
前記イメージング装置の固定角およびズーム、前記ユーザ知覚画像の前記画素サイズ、および前記指定した目標に対応する前記画素位置を用いて前記クリック・ベクトルの他端を計算する手段と
を備えている、請求項12に記載のロボット遠隔操縦システム。
【請求項14】
前記目標指定手段は、ポイント−アンド−クリック選択装置であり、前記ポイント−アンド−クリック選択装置は、前記ユーザ知覚画像内で動作可能な可視ポインタと、ポイント−アンド−クリック選択装置が起動されるときに前記ユーザ知覚画像内の前記可視ポインタの位置が前記ロボットが移動すべき方への前記目標を指定するように前記ポイント−アンド−クリック選択装置を起動する手段とを含む、請求項11に記載のロボット遠隔操縦システム。
【請求項15】
前記目標指定手段は、
アイコンを選択し、前記指定された目標に対応する前記ユーザ知覚画像の位置にドラッグするための手段と、
前記指定された目標を選択するために前記ユーザ知覚画像の前記位置に前記アイコンをドロップするための手段と
を備えている、請求項11に記載のロボット遠隔操縦システム。
【請求項16】
前記イメージング装置はカメラである、請求項11に記載のロボット遠隔操縦システム。
【請求項17】
前記画像情報送信手段はインターネットである、請求項11に記載のロボット遠隔操縦システム。
【請求項18】
ある環境下でロボットを遠隔操縦するためのグラフィカル・ユーザ・インタフェースであって、
前記ロボットの周辺の環境を表すユーザ知覚画像を供給するためのディスプレイ装置と、
前記ロボットが移動すべき方へ前記ユーザ知覚画像の目標を指定するための手段と、
前記目標指定手段の動きに相関して前記ユーザ知覚画像に少なくとも一つの投影を重畳するための手段と
を備え、
前記少なくとも一つの投影は、前記ロボットが目標指定の前に移動することができるエリアを表し、前記ロボットが目標指定に基づいて移動するエリアを表す、
グラフィカル・ユーザ・インタフェース。
【請求項19】
前記重畳手段によって供給された前記少なくとも一つの投影は、目標サークルである、請求項18に記載のグラフィカル・ユーザ・インタフェース。
【請求項20】
前記重畳手段によって供給された前記少なくとも一つの投影は、目標サークルであり、前記重畳手段は、前記目標サークルに関連付けられたパースペクティブ・ボックスを供給するためにさらに動作する、請求項18に記載のグラフィカル・ユーザ・インタフェース。
【請求項21】
前記目標指定手段は、前記ユーザ知覚画像内で動作可能な可視ポインタを備え、前記投影重畳手段は、前記少なくとも一つの投影を前記可視ポインタの上に重ね合せるように動作する、請求項18に記載のグラフィカル・ユーザ・インタフェース。
【請求項22】
ある環境下でロボットを遠隔操縦するためのグラフィカル・ユーザ・インタフェースであって、
前記ロボットの周辺の環境を表すユーザ知覚画像を供給するためのディスプレイ装置と、
前記ロボットが移動すべき方へ前記ユーザ知覚画像上の目標を指定するための手段と、
前記ロボットの現在の位置に基づき前記ロボットの前記環境内の対象物の相対距離の表示を供給するために、前記ユーザ知覚画像の上にフロアー・プラン・グリッドを重畳するための手段と
を備えている、グラフィカル・ユーザ・インタフェース。
【請求項23】
前記ロボットを遠隔操縦することを支援するために、前記ユーザ知覚画像上に少なくとも一つのローテーション・テープを重畳するための手段をさらに備えている、請求項22に記載のグラフィカル・ユーザ・インタフェース。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15A】
image rotate

【図15B】
image rotate

【図16】
image rotate


【公開番号】特開2011−173237(P2011−173237A)
【公開日】平成23年9月8日(2011.9.8)
【国際特許分類】
【外国語出願】
【出願番号】特願2011−40388(P2011−40388)
【出願日】平成23年2月25日(2011.2.25)
【分割の表示】特願2001−580618(P2001−580618)の分割
【原出願日】平成13年5月1日(2001.5.1)
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.Bluetooth
2.GSM
【出願人】(502396144)アイロボット コーポレーション (1)
【Fターム(参考)】