改良された形状特徴化のためのデバイスおよび方法
【課題】非接触でトラッキングデバイスに相対するボディの形状および向きを決定する。
【解決手段】形状特徴化を用いて、剛性または略剛性の移動可能なボディの形状および向きが決定される。センサは、ボディの境界ボリュームを決定するために解析されるボディの異なるパースペクティブ(透視図)の複数表示をキャプチャする。ボディの形状は境界ボリュームに基づいて決定される。ボディは、ボディの位置を検知するトラッキングデバイスを用いて位置決めされる。境界ボリュームと位置情報が組み合わされて、ボディの空間における形状および向き、特に、ボディの対象となるポイントの位置を画定する。
【解決手段】形状特徴化を用いて、剛性または略剛性の移動可能なボディの形状および向きが決定される。センサは、ボディの境界ボリュームを決定するために解析されるボディの異なるパースペクティブ(透視図)の複数表示をキャプチャする。ボディの形状は境界ボリュームに基づいて決定される。ボディは、ボディの位置を検知するトラッキングデバイスを用いて位置決めされる。境界ボリュームと位置情報が組み合わされて、ボディの空間における形状および向き、特に、ボディの対象となるポイントの位置を画定する。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願に対する関連文献]
該当なし
【0002】
[国家支援による研究開発に関する文献]
該当なし
【0003】
[以降のリスト]
該当なし
【0004】
本発明は、剛性または略剛性のボディの形状の決定に係る。より詳細には、本発明は、コンピュータナビゲーションシステムを用いたこのようなボディの形状決定に関する。
【背景技術】
【0005】
ボディの位置のコンピュータによる決定は、長年、製造および医療の分野において使用されてきた。コンピュータナビゲーションは、ナビゲーションシステムによってトラッキングされるべきボディが、公知の形状を有することを必要とすることから、これらのボディの向きおよび位置は、該システムによって適正にトラッキングされ得る。トラッキングは、該ボディにトラッキングデバイスを装着させたり、該トラッキングデバイスを該ボディに埋め込んだりすることによって、達成される。能動的および受動的な光学的トラッキングシステム、磁気システムおよび慣性システムを含む多数のトラッキング技術が提供されている。
【発明の開示】
【発明が解決しようとする課題】
【0006】
多くのアプリケーションにとって、ボディを音場較正(field calibrate)することが必要であり、これによって、その後、ナビゲーションシステムがボディをトラッキングし、コンピュータディスプレイ上で、ボディを、リアリスティック(写実的)に、グラフィカルに、レンダリングすることができる。一般に、これは、ボディと固定関係にあるトラッキングデバイスを装着し、次に、較正デバイスへボディを挿入することによって、実行される。これらのデバイスは、ナビゲーションシステムと公知の関係にあるディボット(くぼみ)と同じくらいシンプルであり得るが、ボディの先端を所定の位置に配置させてナビゲーションシステムに相対して所定の姿勢になるようにボディを制約するデバイスともなり得る。現在のトラッキング較正では、ボディと較正デバイスの間に何らか物理的接触が必要とされる。
【0007】
いくつかの状況において、他のデバイスまたはボディとの接触を最小限とすることが望ましいとされ得る。例えば、外科手術の場合、無菌が必要条件であることから、使用されるボディが無菌でなければならず、いかなる方法であろうと接触する全てのボディが無菌でなければならない。これによって、較正デバイスを滅菌し、無菌領域内に較正デバイスを置くことが必要とされる。外科手術室のスペースの需要過多を考慮した場合、これは問題である。
【0008】
さらに、ねじ回し、ねじ、移植挿入デバイス、その他などのアタッチメント(付属品)を含むボディは、新しい付属品が挿入されるたびに再較正を必要とする。最後に、デバイスによっては、これらのボディの軸方向の形状を有しておらず、その結果、公知の方法ではこのようなボディを音場較正することが難しかった。
【課題を解決するための手段】
【0009】
本発明の一つの態様によれば、システムは、トラッキングデバイスに相対するボディの形状および向きを決定する。検知デバイスは、ボディの一連の表示を生成する。コンピュータナビゲーションシステムによって検出可能なトラッキングデバイスは、コンピュータナビゲーションシステムに相対するボディを位置決めできるようにボディに対応付けられる。中央処理装置(CPU)を有するコンピュータナビゲーションシステムは、トラッキングデバイスに相対するボディの形状および向きを決定するためにボディの一連の表示および相対位置を処理する。
【0010】
本発明の他の態様によれば、エミッタに相対するボディの形状および向きがシステムによって決定される。検知デバイスは、ボディの一連の表示を生成する。コンピュータナビゲーションシステムによって検知可能なエミッタは、ボディがコンピュータナビゲーションシステムに相対して位置決めされるように、ボディに対応付けられる。中央処理装置を有するコンピュータナビゲーションシステムは、エミッタに相対するボディの形状および向きを決定するためにボディの一連の表示および相対的な位置を処理する。
【0011】
本発明の更なる態様によれば、コンピュータナビゲーションシステムを用いてトラッキングデバイスに相対するボディの形状および向きを決定するため方法であって、ボディの一連の表示を生成し、その後、これらの表示を用いて、ボディの複合境界ボリュームを決定するステップを含む。複合境界ボリュームによって、ボディの形状が決定される。コンピュータナビゲーションシステムと通信するボディに対応付けられるトラッキングデバイスを用いて、ボディの位置および向きが決定される。
【0012】
本発明のまた更なる態様において、コンピュータナビゲーションシステムを用いてボディの形状および向きを決定するための方法であって、少なくとも二つのパースペクティブ(透視画)からボディの一連の表示を生成するステップを含む。一連の表示から複合境界ボリュームが決定され、複合境界ボリュームからボディの形状が決定される。ボディの位置および向きが、ボディの形状および一連の表示から決定される。
【発明を実施するための最良の形態】
【0013】
図1は、ボディ102を特徴付けるために有用な形状特徴化システム100の一つの実施の形態を示す。形状特徴化システム100は、ナビゲーションコンピュータ104、位置トラッキングデバイス106、複数のカメラ108−1乃至108−Mおよび複数の背景110−M乃至110−Nを含む。形状特徴化システム100は、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112に相対してボディ102の位置および向きを空間において配置する。具体的には、形状特徴化システム100は、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112に相対して、ボディ102に局所的なボディの軸XB114、YB116、およびZB118の位置および向きを決定する。形状特徴化システム100によって決定されるボディ軸114、116、および118の位置および形状は、ボディの軸114、116、および118によって画定された局所的座標空間におけるボディ102上のポイントをグローバル座標システム112におけるポイントにマッピングする線形変換マトリックスとして表され得る。
【0014】
位置トラッキングデバイス106は、局所的座標システム120を有し、カメラ108−1乃至108−Mは、それぞれ、それ自体の局所的座標システム122−1乃至122−Mを有する。カメラ108−1乃至108−Mとして使用される好適なデバイスには、公知のディジタルビデオカメラ、ディジタルスチールカメラ、および画像キャプチャデバイス等がある。
【0015】
位置トラッキングデバイス106は、ボディ102に対して所定および固定関係を有し、コンピュータナビゲーションシステム104へ較正される。更にまた、位置トラッキングデバイス106は、位置トラッキングデバイス106の座標システム120またはナビゲーションコンピュータ104の座標システム112の二つの座標システムが互いに較正されるので、これら二つの座標システムのいずれかに対するボディ102の表面上の固定点124の位置をトラッキングすることが可能である。二つの座標システムの較正によって、位置トラッキングデバイス106の座標システム120に対するボディ102上のポイント124の任意の測定値が、線形変換によって、ナビゲーションコンピュータ104の座標システム112にマッピングされるのが可能となる。
【0016】
位置トラッキングデバイス106は、ボディ102から物理的に分離しており、あるいは、位置トラッキングデバイス106は、ボディ102に装着されるか、そうでない場合は、ボディ102に組み込まれ、さらに、必要な位置情報を提供することができる。ポイント124は、位置トラッキングデバイス106に相対する固定位置に配置されてよいし、以下に記載される較正方法によって決定されてもよい。ポイント124は、以下に説明されるように、位置トラッキングデバイス106によって使用されるエミッタの位置であってもよい。
【0017】
位置トラッキングデバイス106は、当業者に公知の任意の多数の位置検知デバイスの一つであってよい。図2aは、光位置センサ204を使用する位置トラッキングデバイス200の使用例を示す。光位置センサ204を用いてボディをトラッキングするには、ボディ102上にエミッタ206を配置することが必要となる。ここで、エミッタ206は、放射光(可視または赤外線)源である。また、複数のエミッタ206は公知の構成でボディ102へ固定され得る。光位置センサ206は、ボディ102と共に移動しながら、光源によって放出された光を検出し、放射光源206をトラッキングするように調整される光センサ208を使用する。発光ダイオード(LED)は、代表的な放射光源206であり、電荷結合素子(CCD)は、代表的な光センサ208である。FlashPoint System of Stryker Corporation(Kalamazoo,Michigan)(ストライカー社(ミシガン州、カラマズー)製「フラッシュポイントシステム」)は、図2aに示されるように、光トラッキングシステムの例である。
【0018】
図2bは、他のタイプの光位置センサ212を利用した他のタイプの光位置トラッキングデバイス210を使用した場合を示す。この他の光位置トラッキングデバイス210を使ってボディをトラッキングするには、ボディ102上に反射ボディ(例えば、再帰反射器)214を固定する必要がある。放射光源216は、放射光源216によって生成された光ビーム218が反射ボディ214から反射するように反射ボディ214と位置合わせされ、その後、光位置センサ212における光センサ220が反射された光ビーム218を検出し、これによって、ボディ102と共に移動しながら、光センサ220が反射ボディ214の位置をトラッキングする。図2bに示されるように、位置測定装置としては、Motus System of Peak Performance Technologies,Inc.(Englewood,Colorado)(ピークパフォーマンステクノロジー社(コロラド州、イングルウッド)製「モータシステム」)が挙げられる。
【0019】
図2cは、ボディ102に固定された磁石226を使用する位置トラッキングデバイス224の使用した場合を示す。磁石方向226がボディ102とともに移動するときの磁石226の磁束方向と振幅の変化が磁気位置センサ228によって検知され、磁気226の位置を決定するために使用される。例えば、このタイプのトラッキング技術の製造者としては、Polhemus Incorporated of Colchester,Vermont)(ポヒマス社(バーモント州、コルチェスター))およびAscension Technology Corporation,Burlington,Vermont)(アセンションテクノロジーコーポレーション(バーモント州、バーリントン)が挙げられる。
【0020】
説明を簡単にするために、ボディ102の表面上にトラッキングされている一つのポイント124だけが示されているが、それぞれ別個の位置トラッキングデバイスによって、複数のトラッキングポイントが同一ボディ102上でトラッキングされてもよいことは明確であろう。実際、ボディ102を全回転したときの向きを決定するためには複数のトラッキングポイントが必要となる。複数のボディ102も単一システムによって同時にトラッキングされ得る。
【0021】
図1に戻ってみると、形状特徴化システムは、ボディ102の境界ボリュームを推定し、境界ボリュームの軸を決定することによって、グローバル座標システム112に相対して、それぞれ、114、116、および118と番号付けされたアイテムとして示されるボディ102の軸XB、YB、およびZBの向きを識別する。具体的には、ボディ102の対象となる軸は、軸114、116、および118から、推定される境界ボリュームの解析に基づいて決定され得る。次に、決定された軸以外の軸は、決定された軸に対しておよび互いに対して法線をなす。必要であれば、残りの軸の向きは、トラッキングデバイスと推定された境界ボリュームによってもたらされた位置情報を解析することによってより正確に決定され得る。特定の対象となる一つのポイント124は、ボディ102の先端126である。先端126は、対象となる軸と同軸的に配置されるか(例えば、ボディ軸XB114)、または、対象となる軸以外の任意の他のポイントに配置され得る。
【0022】
ボディの周辺に配置された複数のカメラ108−1乃至108−Mは、異なるパースペクティブ(透視画)から、ボディの画像をキャプチャする。これらのカメラ108−1乃至108−Mは、固定画像カメラやビデオカメラ、または、二つのカメラ技術のいくつかの組合せのいずれかであってよい。ビデオカメラを使用する場合、ビデオカメラによってキャプチャされたビデオの個々のフレーム(コマ)が単一画像として処理される。好ましくは、全てのカメラが、時間的に略同期して、フレームをキャプチャするので、複数の視界ポイントからの画像は、相互に関連付けられる。カメラ108−1乃至108−Mの位置および座標システム122−1乃至122−Mは、互いに、そして、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112へ、較正される。カメラの較正の方法の一つの実施の形態が以下に説明される。好ましい実施の形態において、カメラ108−1乃至108−Mは、デスクトップパーソナルコンピュータにおけるフレームキャプチャハードウェア付きのスタンダードビデオカメラ、または、従来の技術においてよく知られたファイヤーワイヤー(Firewire)またはユーエスビー(USB)ベースのカメラである。
【0023】
固定背景110−1乃至110−Nは、好ましくは、カメラの反対側のボディの周辺に配置される。これらの背景110−1乃至110−Nは、カメラ108−1乃至108−Mによってキャプチャされた画像内に既知のサラウンド(周辺)を提供し、画像内のボディ102のエッジを識別するのを補助する。背景110−1乃至110−Nは、背景110−1乃至110−Nを表す画像の部分と、ボディ102を示す画像の部分との間のコントラストを大きくする中間色、ブラック、ホワイト、または任意のカラーであってもよい。また、これらの背景は、このコントラストをさらに大きくする照光式であってもよい。固定背景を含まずに、本発明の実施の形態による方法を実行することも可能である。しかしながら、この方法は、ボディ102の画像から背景画像を減算しなければならないことによって形状決定がより一層複雑化するので、好ましくない。
【0024】
ナビゲーションコンピュータ104は、カメラ108−1乃至108−Mによってキャプチャされた画像を処理する。ナビゲーションコンピュータ104は、ナビゲーションコンピュータ104が識別しなければならない一般的なボディに関する形状情報によって母集されたボディデータベース130を利用してもよい。ボディデータベース130内のボディの形状情報は、好ましくは、コンピュータ補助されたデザインシステムから一般に利用できるようなボディの頂点の座標である。ナビゲーションコンピュータ104は、カメラ108−1乃至108−Mからの画像処理によって推定される境界ボリュームを、ボディデータベース130に記憶された形状情報と比較することによって、一つ以上の比較測定法を展開させる。ボディデータベース130のボディの一体に対する形状情報が、推定された境界ボリュームと関連性が高いと判断された場合、ナビゲーションコンピュータは、ボディの形状情報を使用して、推定された境界ボリュームを改良してもよい。例えば、ナビゲーションコンピュータは、推定された境界ボリュームの各頂点と、ボディデータベース130のボディの形状情報の一部として記憶された対応する頂点との間の距離を解析することによって、比較測定法を展開させてもよい。例えば、展開され得る他の比較測定法の例としては、推定された境界ボリュームの慣性モーメント軸の特性を解析した結果をボディデータベース130のボディの慣性モーメント軸と比較する比較測定法が挙げられる。比較測定法の追加も当業者に公知である。好ましい実施の形態によれば、推定された境界ボリュームとボディデータベース130に記憶されたボディとの相関関係の度合いを決定するために複数の比較測定法を使用してもよい。
【0025】
カメラ108−1乃至108−Mがボディ全体を画像形成する必要はない。対象となるボディ102の部分のみがカメラ108−1乃至108−Mによって画像形成される必要がある。更に、ボディ102とカメラ108−1乃至108−Mは、好ましくは、相対的に位置決めされ、これによって、各カメラの視界がボディの略同じ部分をキャプチャする。
【0026】
図3は、キャプチャされた画像から境界ボリュームを推定するために使用されるステップからなるフローチャート300を示す。カメラ108−1乃至108−Mのそれぞれによってキャプチャされた各画像302−1乃至302−Mは、ブロック304−1乃至304−Mにおいて、最初に修正される。即ち、画像に関しては、レンズの任意の既知の凹凸の補正、使用されているレンズの既知の焦点長さの正規化、カメラ解像度の調整などが行われる。ブロック306−1乃至306−Mにおいては、ボディの表示を画像の背景の表示から分離するために、ブロック304−1乃至ブロック304−Mにおいて生成された修正画像を処理する。ブロック308−1乃至308−Mにおいては、ブロック306−1乃至306−Mにおいて生成された分離されたボディの画像上でエッジ検出動作を実行する。ブロック310−1乃至310−Mにおいては、ボディに対してKj個の顔を有する一般的な境界ピラミッドを推定するためにブロック308−1乃至308−Mにおいて生成されたエッジ情報を使用する。ここで、1<=j<=M。カメラによってキャプチャされた画像301−1乃至301−Mの各々からこのように計算された境界ピラミッドは、この画像のキャプチャ時間と、ブロック314−1乃至ブロック314−Mにおいて提供されたようなカメラの位置に基づいて、ブロック312によって正規化される。更に、ブロック314−1乃至ブロック314−Mにおいては、ボディの境界ボリュームに達するまで、全ての境界ピラミッドが相互に交差される。ブロック316において、推定された境界ボリュームが、ブロック318において提供されたような位置トラッキングデバイスからのボディの位置と組み合わされ、ボディの位置および向きを推定する。ボディデータベース130がナビゲーションコンピュータ104によって使用可能である場合、ブロック316において、境界ボリュームを、該ボディデータベース130に含まれている全てのボディに関する形状情報と、比較する。ボディデータベース130内のボディが境界ボリュームに対して所定の許容誤差をもった寸法と形状を有すると判断された場合、ナビゲーションコンピュータは、ボディのデータベース内のボディの形状情報を使用して、境界ボリュームの推定値を修正する。好ましい実施の形態において、カメラ108は、ボディ102の画像を連続的に(または、カメラと同様に速く)キャプチャし、ボディ102が回転するにつれて、これらの更なる画像からの境界ピラミッドが予め計算された境界ボリュームと交差されて、ボディ102の推定された境界ボリュームと推定された向きを改良する。
【0027】
図4は、三つのカメラ108−1、108−2、および108−3を用いて生成されるボディ102の境界ボリューム400の初期推定の例を示す。ボディ102の境界ボリュームは、この決定を行うために利用可能な任意の多数の周知の方法によって決定され得る。以下に説明されるように、カメラ108−1乃至108−Mの個数または単一カメラ108−1からの視界(ビュー)の数に応じて、結合された境界ボリュームの交差によってボディ102の形状の近似化が開始される。
【0028】
図5は、本発明の他の実施の形態による形状特徴化システム500を示す。図中例えば、矢印502によって示される経路に沿った空間を介して、ボディ102が回転および移動するとき、1個のカメラ108が、ボディ102の複数の画像をキャプチャするために使用される。図3のブロック304乃至318において、ボディ102に対して異なる視点で、あたかも異なるカメラが各画像をキャプチャしたが如く、ボディ102のカメラ108によってキャプチャされた画像の全てが処理される。
【0029】
図6は、本発明のさらに他の実施の形態による形状特徴化システム600を示す。図中、カメラ108は、ボディ102の画像と、ボディ102のミラー602の反射画像を同時にキャプチャする。この実施の形態において、ナビゲーションコンピュータ104は、カメラ108によってキャプチャされた画像を処理し、画像を二つの画像へ分割する。ここで、一つの画像は、ボディ102の画像を含み、他の画像は、ミラー602において反射されたボディ102の反射画像を含む。事実上、ミラー602は、第2の補助的バーチャルなカメラとして作用する。このようにして、図3に示されたフローチャート300のブロック302乃至318において、あたかも、画像が個別のカメラによってキャプチャされたかの如く、ミラー602に映るボディ102の反射画像が作用する。同様に、一つ以上のミラー602が用いられてもよい。
【0030】
本発明の実施の形態による形状特徴化システム100のカメラ108−1乃至108−Mの座標システム122−1乃至122−Mを、相対的に、および、コンピュータナビゲーションシステムの座標システムに対して、較正するためには、明確に分かっている形状を有する較正ボディを使用することによって行なわれる。図7は、このような較正ボディ700の例を示す。図7aは、較正ボディ700の正面図702を示す。図7bは、較正ボディ700の側面図704を示す。図7cは、較正ボディ706の平面図を示す。
【0031】
図8は、カメラを較正するために必要とされるステップからなるフローチャート800を示す。ブロック804−1乃至804−Mにおいては、各カメラからの画像802−1乃至802−Mが修正され、ボディから分離され、そのエッジが識別される。ここで、各画像802−1乃至802−Mは、較正ボディの既知の透視図(例:正面図702、側面図704、および平面図706)の画像である。ブロック806−1乃至806−Mは、各カメラ108の位置および向きを推定し、この位置と向きの推定に基づいて、ブロック804−1乃至804−Mにおいて生成されたエッジを補正する。ブロック808において、ブロック806−1乃至806−Mにおいて補正されたエッジを較正ボディの透視図の既知のエッジ情報と比較する。補正されたエッジが既知のエッジの所定の許容誤差の範囲内であれば、カメラ108−1乃至108−Mの較正済みと判断され、ブロック806において生成された位置および向き情報がナビゲーションコンピュータ104によって使用可能となる。補正されたエッジが既知のエッジの所定の許容誤差外である場合、補正されたエッジと既知のエッジの間の差がブロック810において計算され、ブロック806へ送られ、各カメラの位置および向きの推測が更新される。ブロック806、808および810は、全てのカメラ108が較正されるまで、反復される。
【0032】
図9は、本発明の他の実施の形態による形状特徴化システム900を示す。背景110−1乃至110−Nをバックにボディ102の画像をキャプチャするためにカメラ108−1乃至108−Mを使う代わりに、本実施の形態では、センサ904−1乃至904−Nに相対して位置決めされた光源902−1乃至902−Mが使用される。光源902−1乃至902−Mとセンサ904−1乃至904−Nの位置は、互いに所定の固定関係を有し、ナビゲーションコンピュータ104には既知である。或いは、ナビゲーションコンピュータ104が、光源902−1乃至902−Mの全てとセンサ904−1乃至904−Nの位置の全てをトラッキングし、これらのセンサからの情報をシステムために得られる情報と同等になるように変換することができる。ここで、光源902−1乃至902−Mの位置はセンサ904−1乃至904−Nの位置と固定関係にある。更に、ナビゲーションコンピュータ104は、光源902−1乃至902−Mまたはセンサ904−1乃至904−Nの位置変化をトラッキングする。更にまた、光源902−1乃至902−Mおよびセンサ904−1乃至904−Nは、相対的に、そして、ボディに対して、位置決めされ、これによって、ボディ102は、光源902−1乃至902−Mの各々からの光を遮断し、光源902−1乃至902−Mおよびボディ102と同一直線状にあるセンサ904−1乃至904−Nの一つへシャドウ(影)を投射する。センサ904−1乃至904−Nは、ボディ102のシャドウ906−1乃至906−N内にある領域をそれ以外の領域と区別すること可能な2次元検知デバイスである。センサ904−1乃至904−Nの各々は、ナビゲーションコンピュータ104へシャドウ906−1乃至906−N内領域に関する情報を提供する。対象となるボディ102の部分のシャドウ906−1乃至906−Nだけがセンサ904−1乃至904−Nへ入射されなければならない。好ましいセンサタイプは、2次元電荷結合素子(CCD)アレイである。このようなCCDアレイは、一般に、各画素が一つの2次元アレイのCCD素子に対応する画素からなる、画像を形成する。
【0033】
図10は、センサ904−1乃至904−Nによって生成された画像から境界ボリュームを推定するために使用されるステップからなるフローチャート925を示す。ブロック928−1乃至928−Nにおいて、各センサ904−1乃至904−Nからの各画像926−1乃至926−Nが最初に修正される。即ち、ブロック928−1乃至928−Nにおいて、センサにおける任意の既知の凹凸に対して画像が補正されたり、センサ904−1乃至904−Nの解像度のシャドウ情報が修正されたりする。ブロック930−1乃至930−Nにおいては、ブロック928−1乃至928−Nによって生成された修正画像が処理され、シャドウの投射を示す画像の部分が分離される。ブロック932−1乃至932−Nにおいて、ブロック930−1乃至930−Nにおいて生成された分離されたシャドウの画像上でエッジ検出動作を実行する。ブロック934−1乃至934−Nにおいては、ブロック932−1乃至932−Nにおいて生成されたエッジ情報を使用して、ボディのN個のフェースによって一般的な境界ピラミッドを推定する。センサによって生成される画像926−1乃至926−Nの各々からこのように計算された境界ピラミッドは、ブロック938−1乃至938−Nにおいて提供された画像のキャプチャ時間およびカメラ108−1乃至108−Mの位置に基づいて、ブロック936において、正規化される。ブロック936において、全ての境界ピラミッドが更に互いに交差され、ボディの境界ボリュームを推定する。ブロック940において、推定された境界ボリュームと位置トラッキングデバイスからのボディの位置が組み合わされ、ブロック942において、ボディの位置と向きが推定される。ブロック940において、使用可能であるならば、データベースからのボディの形状情報が使用される。具体的には、ボディデータベース130におけるボディが、境界ボリュームに相対して所定の許容誤差範囲内の寸法と形状を有すると判断された場合、ナビゲーションコンピュータ104は、ボディデータベースのボディに対する形状情報を使用して、境界ボリュームの推定値を更新する。好ましい実施の形態において、センサ904−1乃至904−Nは、ボディ102のシャドウ906−1乃至906−Nを連続的に表示し(または、センサと同じ速さで)、ボディ102が回転するにつれて、これらの追加的な表示から得られた境界ボリュームが予め計算された境界ボリュームと交差され、推定された境界ボリュームと推定されたボディ102の向きを修正する。
【0034】
図11は、本発明の他の実施の形態による形状特徴化システム950を示す。図中、例えば、矢印R502が付された経路に沿って、一つの光源902によって照射されながら、ボディ102が、空間を移動する間、ボディ102のシャドウ906の表示を有する複数の画像を生成するために一つのセンサ904が使用される。図10のブロック928乃至940は、あたかも異なるセンサが各画像を生成したように、ボディ102のセンサ904によって生成される全ての画象を処理することができる。
【0035】
シャドウ検知デバイスは、既知の形状および寸法のボディを用いて較正される。図7aには、較正に使用され得る表示ボディ700が示され、シャドウ検知デバイスを較正するためのボディの使用については、シャドウ906−1乃至906−Nからの画像がカメラ108からの画像に代わって使用される以外は、上記のカメラ較正プロセスと同じである。
【0036】
ボディ102の形状を推定するために使用されるアルゴリズムは、コンピュータグラフィックスの分野で使用されている周知のアルゴリズムのいずれかであってよい。このようなアルゴリズムは、本明細書中に参照することによって組み込まれている、Computer Graphics: Principles and Practice,James D.Foley,et al(Addison−Welsey)(コンピュータグラフィックス、「基本原理と実践」(1990年)ジェームス D.フォリー他(アディソン−ウェルシー)に開示されている。決定されたボディ102の形状に基づいて、システムは、先端126の位置を決定することができる。
【0037】
少なくとも二つの検知デバイス(カメラ108またはシャドウ検知デバイス904のいずれか)が使用された場合、エミッタ124と位置トラッキングデバイス106は必要でない。というのは、複数のデバイスの一つのためのボディ102の画像が(またはボディ102のシャドウ)は他のデバイスについてのボディ102の相対位置についての情報を提供する。この情報は、例えば、ボディ102の少なくとも二つのカメラ視点において複数の同種のポイントペアを立体図形的に決定することによってナビゲーションコンピュータ104の座標システム112に相対してボディ102の位置を決定するために使用され得る。これは、ナビゲーションコンピュータ104の座標システム112に相対して検知Hデバイス(108または904)の位置が既知であり、形状特徴化システムの動作中にトラッキングされるからであり、したがって、検知デバイス108または904の座標システムとナビゲーションコンピュータ104をマッピングするために線形変換を使用することができる。
【0038】
さらに、ディスプレイモニタにディスプレイする際に、ボディ102をより一層本物に近づけるために着色またはテクスチャも公知の方法によって任意を作成することもできる。この場合、一つ以上の光源128は、コンピュータグラフィックスクリーン上でボディ102のレンダリングされた視界に陰影付けするために任意にシミュレートされ得る。
【図面の簡単な説明】
【0039】
【図1】本発明の一つの実施の形態を概略的に示す表示である。
【図2a】本発明の更なる実施の形態を概略的に示す図である。
【図2b】本発明の更なる実施の形態を概略的に示す図である。
【図2c】本発明の更なる実施の形態を概略的に示す図である。
【図3】本発明の一つの実施の形態による形状を決定する方法を示すフローチャートである。
【図4】図3の形状決定方法のグラフィカルな描画を示す図である。
【図5】本発明の更なる実施の形態を概略的に示す図である。
【図6】本発明によるまた更なる実施の形態を概略的に示す図である。
【図7a】好ましい較正ボディを示す斜視図である。
【図7b】図7aの好ましい較正ボディを示す正面図である。
【図7c】図7aの好ましい較正ボディを示す側面図である。
【図7d】図7aの好ましい較正ボディを示す平面図である。
【図8】カメラ較正プロセスを示すフローチャートである。
【図9】本発明の他の実施の形態を概略的に示す表示である。
【図10】図9に示された本発明の実施の形態による形状を決定する方法を示すフローチャートである。
【図11】本発明のまた他の実施の形態を示す図である。
【技術分野】
【0001】
[関連出願に対する関連文献]
該当なし
【0002】
[国家支援による研究開発に関する文献]
該当なし
【0003】
[以降のリスト]
該当なし
【0004】
本発明は、剛性または略剛性のボディの形状の決定に係る。より詳細には、本発明は、コンピュータナビゲーションシステムを用いたこのようなボディの形状決定に関する。
【背景技術】
【0005】
ボディの位置のコンピュータによる決定は、長年、製造および医療の分野において使用されてきた。コンピュータナビゲーションは、ナビゲーションシステムによってトラッキングされるべきボディが、公知の形状を有することを必要とすることから、これらのボディの向きおよび位置は、該システムによって適正にトラッキングされ得る。トラッキングは、該ボディにトラッキングデバイスを装着させたり、該トラッキングデバイスを該ボディに埋め込んだりすることによって、達成される。能動的および受動的な光学的トラッキングシステム、磁気システムおよび慣性システムを含む多数のトラッキング技術が提供されている。
【発明の開示】
【発明が解決しようとする課題】
【0006】
多くのアプリケーションにとって、ボディを音場較正(field calibrate)することが必要であり、これによって、その後、ナビゲーションシステムがボディをトラッキングし、コンピュータディスプレイ上で、ボディを、リアリスティック(写実的)に、グラフィカルに、レンダリングすることができる。一般に、これは、ボディと固定関係にあるトラッキングデバイスを装着し、次に、較正デバイスへボディを挿入することによって、実行される。これらのデバイスは、ナビゲーションシステムと公知の関係にあるディボット(くぼみ)と同じくらいシンプルであり得るが、ボディの先端を所定の位置に配置させてナビゲーションシステムに相対して所定の姿勢になるようにボディを制約するデバイスともなり得る。現在のトラッキング較正では、ボディと較正デバイスの間に何らか物理的接触が必要とされる。
【0007】
いくつかの状況において、他のデバイスまたはボディとの接触を最小限とすることが望ましいとされ得る。例えば、外科手術の場合、無菌が必要条件であることから、使用されるボディが無菌でなければならず、いかなる方法であろうと接触する全てのボディが無菌でなければならない。これによって、較正デバイスを滅菌し、無菌領域内に較正デバイスを置くことが必要とされる。外科手術室のスペースの需要過多を考慮した場合、これは問題である。
【0008】
さらに、ねじ回し、ねじ、移植挿入デバイス、その他などのアタッチメント(付属品)を含むボディは、新しい付属品が挿入されるたびに再較正を必要とする。最後に、デバイスによっては、これらのボディの軸方向の形状を有しておらず、その結果、公知の方法ではこのようなボディを音場較正することが難しかった。
【課題を解決するための手段】
【0009】
本発明の一つの態様によれば、システムは、トラッキングデバイスに相対するボディの形状および向きを決定する。検知デバイスは、ボディの一連の表示を生成する。コンピュータナビゲーションシステムによって検出可能なトラッキングデバイスは、コンピュータナビゲーションシステムに相対するボディを位置決めできるようにボディに対応付けられる。中央処理装置(CPU)を有するコンピュータナビゲーションシステムは、トラッキングデバイスに相対するボディの形状および向きを決定するためにボディの一連の表示および相対位置を処理する。
【0010】
本発明の他の態様によれば、エミッタに相対するボディの形状および向きがシステムによって決定される。検知デバイスは、ボディの一連の表示を生成する。コンピュータナビゲーションシステムによって検知可能なエミッタは、ボディがコンピュータナビゲーションシステムに相対して位置決めされるように、ボディに対応付けられる。中央処理装置を有するコンピュータナビゲーションシステムは、エミッタに相対するボディの形状および向きを決定するためにボディの一連の表示および相対的な位置を処理する。
【0011】
本発明の更なる態様によれば、コンピュータナビゲーションシステムを用いてトラッキングデバイスに相対するボディの形状および向きを決定するため方法であって、ボディの一連の表示を生成し、その後、これらの表示を用いて、ボディの複合境界ボリュームを決定するステップを含む。複合境界ボリュームによって、ボディの形状が決定される。コンピュータナビゲーションシステムと通信するボディに対応付けられるトラッキングデバイスを用いて、ボディの位置および向きが決定される。
【0012】
本発明のまた更なる態様において、コンピュータナビゲーションシステムを用いてボディの形状および向きを決定するための方法であって、少なくとも二つのパースペクティブ(透視画)からボディの一連の表示を生成するステップを含む。一連の表示から複合境界ボリュームが決定され、複合境界ボリュームからボディの形状が決定される。ボディの位置および向きが、ボディの形状および一連の表示から決定される。
【発明を実施するための最良の形態】
【0013】
図1は、ボディ102を特徴付けるために有用な形状特徴化システム100の一つの実施の形態を示す。形状特徴化システム100は、ナビゲーションコンピュータ104、位置トラッキングデバイス106、複数のカメラ108−1乃至108−Mおよび複数の背景110−M乃至110−Nを含む。形状特徴化システム100は、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112に相対してボディ102の位置および向きを空間において配置する。具体的には、形状特徴化システム100は、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112に相対して、ボディ102に局所的なボディの軸XB114、YB116、およびZB118の位置および向きを決定する。形状特徴化システム100によって決定されるボディ軸114、116、および118の位置および形状は、ボディの軸114、116、および118によって画定された局所的座標空間におけるボディ102上のポイントをグローバル座標システム112におけるポイントにマッピングする線形変換マトリックスとして表され得る。
【0014】
位置トラッキングデバイス106は、局所的座標システム120を有し、カメラ108−1乃至108−Mは、それぞれ、それ自体の局所的座標システム122−1乃至122−Mを有する。カメラ108−1乃至108−Mとして使用される好適なデバイスには、公知のディジタルビデオカメラ、ディジタルスチールカメラ、および画像キャプチャデバイス等がある。
【0015】
位置トラッキングデバイス106は、ボディ102に対して所定および固定関係を有し、コンピュータナビゲーションシステム104へ較正される。更にまた、位置トラッキングデバイス106は、位置トラッキングデバイス106の座標システム120またはナビゲーションコンピュータ104の座標システム112の二つの座標システムが互いに較正されるので、これら二つの座標システムのいずれかに対するボディ102の表面上の固定点124の位置をトラッキングすることが可能である。二つの座標システムの較正によって、位置トラッキングデバイス106の座標システム120に対するボディ102上のポイント124の任意の測定値が、線形変換によって、ナビゲーションコンピュータ104の座標システム112にマッピングされるのが可能となる。
【0016】
位置トラッキングデバイス106は、ボディ102から物理的に分離しており、あるいは、位置トラッキングデバイス106は、ボディ102に装着されるか、そうでない場合は、ボディ102に組み込まれ、さらに、必要な位置情報を提供することができる。ポイント124は、位置トラッキングデバイス106に相対する固定位置に配置されてよいし、以下に記載される較正方法によって決定されてもよい。ポイント124は、以下に説明されるように、位置トラッキングデバイス106によって使用されるエミッタの位置であってもよい。
【0017】
位置トラッキングデバイス106は、当業者に公知の任意の多数の位置検知デバイスの一つであってよい。図2aは、光位置センサ204を使用する位置トラッキングデバイス200の使用例を示す。光位置センサ204を用いてボディをトラッキングするには、ボディ102上にエミッタ206を配置することが必要となる。ここで、エミッタ206は、放射光(可視または赤外線)源である。また、複数のエミッタ206は公知の構成でボディ102へ固定され得る。光位置センサ206は、ボディ102と共に移動しながら、光源によって放出された光を検出し、放射光源206をトラッキングするように調整される光センサ208を使用する。発光ダイオード(LED)は、代表的な放射光源206であり、電荷結合素子(CCD)は、代表的な光センサ208である。FlashPoint System of Stryker Corporation(Kalamazoo,Michigan)(ストライカー社(ミシガン州、カラマズー)製「フラッシュポイントシステム」)は、図2aに示されるように、光トラッキングシステムの例である。
【0018】
図2bは、他のタイプの光位置センサ212を利用した他のタイプの光位置トラッキングデバイス210を使用した場合を示す。この他の光位置トラッキングデバイス210を使ってボディをトラッキングするには、ボディ102上に反射ボディ(例えば、再帰反射器)214を固定する必要がある。放射光源216は、放射光源216によって生成された光ビーム218が反射ボディ214から反射するように反射ボディ214と位置合わせされ、その後、光位置センサ212における光センサ220が反射された光ビーム218を検出し、これによって、ボディ102と共に移動しながら、光センサ220が反射ボディ214の位置をトラッキングする。図2bに示されるように、位置測定装置としては、Motus System of Peak Performance Technologies,Inc.(Englewood,Colorado)(ピークパフォーマンステクノロジー社(コロラド州、イングルウッド)製「モータシステム」)が挙げられる。
【0019】
図2cは、ボディ102に固定された磁石226を使用する位置トラッキングデバイス224の使用した場合を示す。磁石方向226がボディ102とともに移動するときの磁石226の磁束方向と振幅の変化が磁気位置センサ228によって検知され、磁気226の位置を決定するために使用される。例えば、このタイプのトラッキング技術の製造者としては、Polhemus Incorporated of Colchester,Vermont)(ポヒマス社(バーモント州、コルチェスター))およびAscension Technology Corporation,Burlington,Vermont)(アセンションテクノロジーコーポレーション(バーモント州、バーリントン)が挙げられる。
【0020】
説明を簡単にするために、ボディ102の表面上にトラッキングされている一つのポイント124だけが示されているが、それぞれ別個の位置トラッキングデバイスによって、複数のトラッキングポイントが同一ボディ102上でトラッキングされてもよいことは明確であろう。実際、ボディ102を全回転したときの向きを決定するためには複数のトラッキングポイントが必要となる。複数のボディ102も単一システムによって同時にトラッキングされ得る。
【0021】
図1に戻ってみると、形状特徴化システムは、ボディ102の境界ボリュームを推定し、境界ボリュームの軸を決定することによって、グローバル座標システム112に相対して、それぞれ、114、116、および118と番号付けされたアイテムとして示されるボディ102の軸XB、YB、およびZBの向きを識別する。具体的には、ボディ102の対象となる軸は、軸114、116、および118から、推定される境界ボリュームの解析に基づいて決定され得る。次に、決定された軸以外の軸は、決定された軸に対しておよび互いに対して法線をなす。必要であれば、残りの軸の向きは、トラッキングデバイスと推定された境界ボリュームによってもたらされた位置情報を解析することによってより正確に決定され得る。特定の対象となる一つのポイント124は、ボディ102の先端126である。先端126は、対象となる軸と同軸的に配置されるか(例えば、ボディ軸XB114)、または、対象となる軸以外の任意の他のポイントに配置され得る。
【0022】
ボディの周辺に配置された複数のカメラ108−1乃至108−Mは、異なるパースペクティブ(透視画)から、ボディの画像をキャプチャする。これらのカメラ108−1乃至108−Mは、固定画像カメラやビデオカメラ、または、二つのカメラ技術のいくつかの組合せのいずれかであってよい。ビデオカメラを使用する場合、ビデオカメラによってキャプチャされたビデオの個々のフレーム(コマ)が単一画像として処理される。好ましくは、全てのカメラが、時間的に略同期して、フレームをキャプチャするので、複数の視界ポイントからの画像は、相互に関連付けられる。カメラ108−1乃至108−Mの位置および座標システム122−1乃至122−Mは、互いに、そして、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112へ、較正される。カメラの較正の方法の一つの実施の形態が以下に説明される。好ましい実施の形態において、カメラ108−1乃至108−Mは、デスクトップパーソナルコンピュータにおけるフレームキャプチャハードウェア付きのスタンダードビデオカメラ、または、従来の技術においてよく知られたファイヤーワイヤー(Firewire)またはユーエスビー(USB)ベースのカメラである。
【0023】
固定背景110−1乃至110−Nは、好ましくは、カメラの反対側のボディの周辺に配置される。これらの背景110−1乃至110−Nは、カメラ108−1乃至108−Mによってキャプチャされた画像内に既知のサラウンド(周辺)を提供し、画像内のボディ102のエッジを識別するのを補助する。背景110−1乃至110−Nは、背景110−1乃至110−Nを表す画像の部分と、ボディ102を示す画像の部分との間のコントラストを大きくする中間色、ブラック、ホワイト、または任意のカラーであってもよい。また、これらの背景は、このコントラストをさらに大きくする照光式であってもよい。固定背景を含まずに、本発明の実施の形態による方法を実行することも可能である。しかしながら、この方法は、ボディ102の画像から背景画像を減算しなければならないことによって形状決定がより一層複雑化するので、好ましくない。
【0024】
ナビゲーションコンピュータ104は、カメラ108−1乃至108−Mによってキャプチャされた画像を処理する。ナビゲーションコンピュータ104は、ナビゲーションコンピュータ104が識別しなければならない一般的なボディに関する形状情報によって母集されたボディデータベース130を利用してもよい。ボディデータベース130内のボディの形状情報は、好ましくは、コンピュータ補助されたデザインシステムから一般に利用できるようなボディの頂点の座標である。ナビゲーションコンピュータ104は、カメラ108−1乃至108−Mからの画像処理によって推定される境界ボリュームを、ボディデータベース130に記憶された形状情報と比較することによって、一つ以上の比較測定法を展開させる。ボディデータベース130のボディの一体に対する形状情報が、推定された境界ボリュームと関連性が高いと判断された場合、ナビゲーションコンピュータは、ボディの形状情報を使用して、推定された境界ボリュームを改良してもよい。例えば、ナビゲーションコンピュータは、推定された境界ボリュームの各頂点と、ボディデータベース130のボディの形状情報の一部として記憶された対応する頂点との間の距離を解析することによって、比較測定法を展開させてもよい。例えば、展開され得る他の比較測定法の例としては、推定された境界ボリュームの慣性モーメント軸の特性を解析した結果をボディデータベース130のボディの慣性モーメント軸と比較する比較測定法が挙げられる。比較測定法の追加も当業者に公知である。好ましい実施の形態によれば、推定された境界ボリュームとボディデータベース130に記憶されたボディとの相関関係の度合いを決定するために複数の比較測定法を使用してもよい。
【0025】
カメラ108−1乃至108−Mがボディ全体を画像形成する必要はない。対象となるボディ102の部分のみがカメラ108−1乃至108−Mによって画像形成される必要がある。更に、ボディ102とカメラ108−1乃至108−Mは、好ましくは、相対的に位置決めされ、これによって、各カメラの視界がボディの略同じ部分をキャプチャする。
【0026】
図3は、キャプチャされた画像から境界ボリュームを推定するために使用されるステップからなるフローチャート300を示す。カメラ108−1乃至108−Mのそれぞれによってキャプチャされた各画像302−1乃至302−Mは、ブロック304−1乃至304−Mにおいて、最初に修正される。即ち、画像に関しては、レンズの任意の既知の凹凸の補正、使用されているレンズの既知の焦点長さの正規化、カメラ解像度の調整などが行われる。ブロック306−1乃至306−Mにおいては、ボディの表示を画像の背景の表示から分離するために、ブロック304−1乃至ブロック304−Mにおいて生成された修正画像を処理する。ブロック308−1乃至308−Mにおいては、ブロック306−1乃至306−Mにおいて生成された分離されたボディの画像上でエッジ検出動作を実行する。ブロック310−1乃至310−Mにおいては、ボディに対してKj個の顔を有する一般的な境界ピラミッドを推定するためにブロック308−1乃至308−Mにおいて生成されたエッジ情報を使用する。ここで、1<=j<=M。カメラによってキャプチャされた画像301−1乃至301−Mの各々からこのように計算された境界ピラミッドは、この画像のキャプチャ時間と、ブロック314−1乃至ブロック314−Mにおいて提供されたようなカメラの位置に基づいて、ブロック312によって正規化される。更に、ブロック314−1乃至ブロック314−Mにおいては、ボディの境界ボリュームに達するまで、全ての境界ピラミッドが相互に交差される。ブロック316において、推定された境界ボリュームが、ブロック318において提供されたような位置トラッキングデバイスからのボディの位置と組み合わされ、ボディの位置および向きを推定する。ボディデータベース130がナビゲーションコンピュータ104によって使用可能である場合、ブロック316において、境界ボリュームを、該ボディデータベース130に含まれている全てのボディに関する形状情報と、比較する。ボディデータベース130内のボディが境界ボリュームに対して所定の許容誤差をもった寸法と形状を有すると判断された場合、ナビゲーションコンピュータは、ボディのデータベース内のボディの形状情報を使用して、境界ボリュームの推定値を修正する。好ましい実施の形態において、カメラ108は、ボディ102の画像を連続的に(または、カメラと同様に速く)キャプチャし、ボディ102が回転するにつれて、これらの更なる画像からの境界ピラミッドが予め計算された境界ボリュームと交差されて、ボディ102の推定された境界ボリュームと推定された向きを改良する。
【0027】
図4は、三つのカメラ108−1、108−2、および108−3を用いて生成されるボディ102の境界ボリューム400の初期推定の例を示す。ボディ102の境界ボリュームは、この決定を行うために利用可能な任意の多数の周知の方法によって決定され得る。以下に説明されるように、カメラ108−1乃至108−Mの個数または単一カメラ108−1からの視界(ビュー)の数に応じて、結合された境界ボリュームの交差によってボディ102の形状の近似化が開始される。
【0028】
図5は、本発明の他の実施の形態による形状特徴化システム500を示す。図中例えば、矢印502によって示される経路に沿った空間を介して、ボディ102が回転および移動するとき、1個のカメラ108が、ボディ102の複数の画像をキャプチャするために使用される。図3のブロック304乃至318において、ボディ102に対して異なる視点で、あたかも異なるカメラが各画像をキャプチャしたが如く、ボディ102のカメラ108によってキャプチャされた画像の全てが処理される。
【0029】
図6は、本発明のさらに他の実施の形態による形状特徴化システム600を示す。図中、カメラ108は、ボディ102の画像と、ボディ102のミラー602の反射画像を同時にキャプチャする。この実施の形態において、ナビゲーションコンピュータ104は、カメラ108によってキャプチャされた画像を処理し、画像を二つの画像へ分割する。ここで、一つの画像は、ボディ102の画像を含み、他の画像は、ミラー602において反射されたボディ102の反射画像を含む。事実上、ミラー602は、第2の補助的バーチャルなカメラとして作用する。このようにして、図3に示されたフローチャート300のブロック302乃至318において、あたかも、画像が個別のカメラによってキャプチャされたかの如く、ミラー602に映るボディ102の反射画像が作用する。同様に、一つ以上のミラー602が用いられてもよい。
【0030】
本発明の実施の形態による形状特徴化システム100のカメラ108−1乃至108−Mの座標システム122−1乃至122−Mを、相対的に、および、コンピュータナビゲーションシステムの座標システムに対して、較正するためには、明確に分かっている形状を有する較正ボディを使用することによって行なわれる。図7は、このような較正ボディ700の例を示す。図7aは、較正ボディ700の正面図702を示す。図7bは、較正ボディ700の側面図704を示す。図7cは、較正ボディ706の平面図を示す。
【0031】
図8は、カメラを較正するために必要とされるステップからなるフローチャート800を示す。ブロック804−1乃至804−Mにおいては、各カメラからの画像802−1乃至802−Mが修正され、ボディから分離され、そのエッジが識別される。ここで、各画像802−1乃至802−Mは、較正ボディの既知の透視図(例:正面図702、側面図704、および平面図706)の画像である。ブロック806−1乃至806−Mは、各カメラ108の位置および向きを推定し、この位置と向きの推定に基づいて、ブロック804−1乃至804−Mにおいて生成されたエッジを補正する。ブロック808において、ブロック806−1乃至806−Mにおいて補正されたエッジを較正ボディの透視図の既知のエッジ情報と比較する。補正されたエッジが既知のエッジの所定の許容誤差の範囲内であれば、カメラ108−1乃至108−Mの較正済みと判断され、ブロック806において生成された位置および向き情報がナビゲーションコンピュータ104によって使用可能となる。補正されたエッジが既知のエッジの所定の許容誤差外である場合、補正されたエッジと既知のエッジの間の差がブロック810において計算され、ブロック806へ送られ、各カメラの位置および向きの推測が更新される。ブロック806、808および810は、全てのカメラ108が較正されるまで、反復される。
【0032】
図9は、本発明の他の実施の形態による形状特徴化システム900を示す。背景110−1乃至110−Nをバックにボディ102の画像をキャプチャするためにカメラ108−1乃至108−Mを使う代わりに、本実施の形態では、センサ904−1乃至904−Nに相対して位置決めされた光源902−1乃至902−Mが使用される。光源902−1乃至902−Mとセンサ904−1乃至904−Nの位置は、互いに所定の固定関係を有し、ナビゲーションコンピュータ104には既知である。或いは、ナビゲーションコンピュータ104が、光源902−1乃至902−Mの全てとセンサ904−1乃至904−Nの位置の全てをトラッキングし、これらのセンサからの情報をシステムために得られる情報と同等になるように変換することができる。ここで、光源902−1乃至902−Mの位置はセンサ904−1乃至904−Nの位置と固定関係にある。更に、ナビゲーションコンピュータ104は、光源902−1乃至902−Mまたはセンサ904−1乃至904−Nの位置変化をトラッキングする。更にまた、光源902−1乃至902−Mおよびセンサ904−1乃至904−Nは、相対的に、そして、ボディに対して、位置決めされ、これによって、ボディ102は、光源902−1乃至902−Mの各々からの光を遮断し、光源902−1乃至902−Mおよびボディ102と同一直線状にあるセンサ904−1乃至904−Nの一つへシャドウ(影)を投射する。センサ904−1乃至904−Nは、ボディ102のシャドウ906−1乃至906−N内にある領域をそれ以外の領域と区別すること可能な2次元検知デバイスである。センサ904−1乃至904−Nの各々は、ナビゲーションコンピュータ104へシャドウ906−1乃至906−N内領域に関する情報を提供する。対象となるボディ102の部分のシャドウ906−1乃至906−Nだけがセンサ904−1乃至904−Nへ入射されなければならない。好ましいセンサタイプは、2次元電荷結合素子(CCD)アレイである。このようなCCDアレイは、一般に、各画素が一つの2次元アレイのCCD素子に対応する画素からなる、画像を形成する。
【0033】
図10は、センサ904−1乃至904−Nによって生成された画像から境界ボリュームを推定するために使用されるステップからなるフローチャート925を示す。ブロック928−1乃至928−Nにおいて、各センサ904−1乃至904−Nからの各画像926−1乃至926−Nが最初に修正される。即ち、ブロック928−1乃至928−Nにおいて、センサにおける任意の既知の凹凸に対して画像が補正されたり、センサ904−1乃至904−Nの解像度のシャドウ情報が修正されたりする。ブロック930−1乃至930−Nにおいては、ブロック928−1乃至928−Nによって生成された修正画像が処理され、シャドウの投射を示す画像の部分が分離される。ブロック932−1乃至932−Nにおいて、ブロック930−1乃至930−Nにおいて生成された分離されたシャドウの画像上でエッジ検出動作を実行する。ブロック934−1乃至934−Nにおいては、ブロック932−1乃至932−Nにおいて生成されたエッジ情報を使用して、ボディのN個のフェースによって一般的な境界ピラミッドを推定する。センサによって生成される画像926−1乃至926−Nの各々からこのように計算された境界ピラミッドは、ブロック938−1乃至938−Nにおいて提供された画像のキャプチャ時間およびカメラ108−1乃至108−Mの位置に基づいて、ブロック936において、正規化される。ブロック936において、全ての境界ピラミッドが更に互いに交差され、ボディの境界ボリュームを推定する。ブロック940において、推定された境界ボリュームと位置トラッキングデバイスからのボディの位置が組み合わされ、ブロック942において、ボディの位置と向きが推定される。ブロック940において、使用可能であるならば、データベースからのボディの形状情報が使用される。具体的には、ボディデータベース130におけるボディが、境界ボリュームに相対して所定の許容誤差範囲内の寸法と形状を有すると判断された場合、ナビゲーションコンピュータ104は、ボディデータベースのボディに対する形状情報を使用して、境界ボリュームの推定値を更新する。好ましい実施の形態において、センサ904−1乃至904−Nは、ボディ102のシャドウ906−1乃至906−Nを連続的に表示し(または、センサと同じ速さで)、ボディ102が回転するにつれて、これらの追加的な表示から得られた境界ボリュームが予め計算された境界ボリュームと交差され、推定された境界ボリュームと推定されたボディ102の向きを修正する。
【0034】
図11は、本発明の他の実施の形態による形状特徴化システム950を示す。図中、例えば、矢印R502が付された経路に沿って、一つの光源902によって照射されながら、ボディ102が、空間を移動する間、ボディ102のシャドウ906の表示を有する複数の画像を生成するために一つのセンサ904が使用される。図10のブロック928乃至940は、あたかも異なるセンサが各画像を生成したように、ボディ102のセンサ904によって生成される全ての画象を処理することができる。
【0035】
シャドウ検知デバイスは、既知の形状および寸法のボディを用いて較正される。図7aには、較正に使用され得る表示ボディ700が示され、シャドウ検知デバイスを較正するためのボディの使用については、シャドウ906−1乃至906−Nからの画像がカメラ108からの画像に代わって使用される以外は、上記のカメラ較正プロセスと同じである。
【0036】
ボディ102の形状を推定するために使用されるアルゴリズムは、コンピュータグラフィックスの分野で使用されている周知のアルゴリズムのいずれかであってよい。このようなアルゴリズムは、本明細書中に参照することによって組み込まれている、Computer Graphics: Principles and Practice,James D.Foley,et al(Addison−Welsey)(コンピュータグラフィックス、「基本原理と実践」(1990年)ジェームス D.フォリー他(アディソン−ウェルシー)に開示されている。決定されたボディ102の形状に基づいて、システムは、先端126の位置を決定することができる。
【0037】
少なくとも二つの検知デバイス(カメラ108またはシャドウ検知デバイス904のいずれか)が使用された場合、エミッタ124と位置トラッキングデバイス106は必要でない。というのは、複数のデバイスの一つのためのボディ102の画像が(またはボディ102のシャドウ)は他のデバイスについてのボディ102の相対位置についての情報を提供する。この情報は、例えば、ボディ102の少なくとも二つのカメラ視点において複数の同種のポイントペアを立体図形的に決定することによってナビゲーションコンピュータ104の座標システム112に相対してボディ102の位置を決定するために使用され得る。これは、ナビゲーションコンピュータ104の座標システム112に相対して検知Hデバイス(108または904)の位置が既知であり、形状特徴化システムの動作中にトラッキングされるからであり、したがって、検知デバイス108または904の座標システムとナビゲーションコンピュータ104をマッピングするために線形変換を使用することができる。
【0038】
さらに、ディスプレイモニタにディスプレイする際に、ボディ102をより一層本物に近づけるために着色またはテクスチャも公知の方法によって任意を作成することもできる。この場合、一つ以上の光源128は、コンピュータグラフィックスクリーン上でボディ102のレンダリングされた視界に陰影付けするために任意にシミュレートされ得る。
【図面の簡単な説明】
【0039】
【図1】本発明の一つの実施の形態を概略的に示す表示である。
【図2a】本発明の更なる実施の形態を概略的に示す図である。
【図2b】本発明の更なる実施の形態を概略的に示す図である。
【図2c】本発明の更なる実施の形態を概略的に示す図である。
【図3】本発明の一つの実施の形態による形状を決定する方法を示すフローチャートである。
【図4】図3の形状決定方法のグラフィカルな描画を示す図である。
【図5】本発明の更なる実施の形態を概略的に示す図である。
【図6】本発明によるまた更なる実施の形態を概略的に示す図である。
【図7a】好ましい較正ボディを示す斜視図である。
【図7b】図7aの好ましい較正ボディを示す正面図である。
【図7c】図7aの好ましい較正ボディを示す側面図である。
【図7d】図7aの好ましい較正ボディを示す平面図である。
【図8】カメラ較正プロセスを示すフローチャートである。
【図9】本発明の他の実施の形態を概略的に示す表示である。
【図10】図9に示された本発明の実施の形態による形状を決定する方法を示すフローチャートである。
【図11】本発明のまた他の実施の形態を示す図である。
【特許請求の範囲】
【請求項1】
ボディの形状および向きを画定するためのシステムであって、
コンピュータナビゲーションシステムと、
ボディの一連の表示を生成可能な検知デバイスと、
前記ボディと固定関係において対応付けられとともに、前記コンピュータナビゲーションシステムに相対して前記ボディを位置付けるために該コンピュータナビゲーションシステムによって検出可能な、トラッキングデバイスと、
を含み、
前記コンピュータナビゲーションシステムが、前記一連の表示と、該コンピュータナビゲーションシステムに相対する該ボディの位置と、を処理することができる中央処理装置を含み、前記トラッキングデバイスに相対する前記ボディの形状および向きを決定する、
システム。
【請求項2】
前記検知デバイスが複数のディジタルカメラを含み、各表示が該カメラによってキャプチャされた画像である、請求項1に記載のシステム。
【請求項3】
前記検知デバイスがビデオカメラであり、該表示が該ビデオカメラによってキャプチャされたビデオのフレームである、請求項2に記載のシステム。
【請求項4】
前記検知デバイスが前記ボディによって投影されたシャドウを検知し、前記表示が該シャドウの画像である、請求項1に記載のシステム。
【請求項5】
固定背景も含む、請求項2に記載のシステム。
【請求項6】
前記トラッキングシステムが、光学的トラッキングシステムである、請求項1に記載のシステム。
【請求項7】
前記トラッキングデバイスが、前記ボディに対応したアクティブエミッタを含む、請求項6に記載のシステム。
【請求項8】
前記トラッキングデバイスが発光ダイオードを含む、請求項6に記載のシステム。
【請求項9】
前記トラッキングデバイスが非光学的トラッキングデバイスである、請求項1に記載のシステム。
【請求項10】
前記トラッキングデバイスが磁気トラッキングデバイスである、請求項9に記載のシステム。
【請求項11】
前記トラッキングデバイスが前記ボディに固定的に装着される、請求項1に記載のシステム。
【請求項12】
前記トラッキングデバイスが前記ボディと一体化している、請求項1に記載のシステム。
【請求項13】
前記検知デバイスが、前記ボディが前記カメラに相対して移動している間に複数の画像をキャプチャする単一カメラであり、各表示が、該カメラによってキャプチャされた画像である、請求項1に記載のシステム。
【請求項14】
前記検知デバイスが、前記ボディが前記検知デバイスに相対して移動している間に該ボディによって投影される前記シャドウの移動を検知する電荷結合素子のアレイである、請求項4に記載のシステム。
【請求項15】
前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて該ボディ上のランドマークポイントの位置をトラッキングする、請求項1に記載のシステム。
【請求項16】
前記ナビゲーションコンピュータが、前記ボディの形状の推定値を該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項1に記載のシステム。
【請求項17】
ボディの形状および向きを画定するためのシステムであって、
コンピュータナビゲーションシステムと、
前記ボディと前記検知デバイス間の相対的な移動に基づいて該ボディの一連の表示を生成可能な検知デバイスと、
前記ボディと固定関係において対応付けられとともに、前記コンピュータナビゲーションシステムに相対して前記ボディを位置付けるために該コンピュータナビゲーションシステムによって検出可能な、エミッタと、
を含み、
前記コンピュータナビゲーションシステムが、前記一連の画像と、該コンピュータナビゲーションシステムに相対する該ボディの位置と、を処理することができる中央処理装置を含み、前記エミッタに相対する前記ボディの形状および向きを決定する、
システム。
【請求項18】
前記検知デバイスが複数のディジタルビデオカメラを含む、請求項17に記載のシステム。
【請求項19】
固定背景をも含む、請求項18に記載のシステム。
【請求項20】
前記トラッキングデバイスが光学的トラッキングシステムである、請求項17に記載のシステム。
【請求項21】
前記トラッキングデバイスが前記ボディに対応したアクティブエミッタを含む、請求項20に記載のシステム。
【請求項22】
前記トラッキングデバイスが発光ダイオードを含む、請求項20に記載のシステム。
【請求項23】
前記トラッキングデバイスが非光学的トラッキングデバイスである、請求項17に記載のシステム。
【請求項24】
前記トラッキングデバイスが磁気トラッキングデバイスである、請求項23に記載のシステム。
【請求項25】
前記トラッキングデバイスが前記ボディに固定的に装着される、請求項17に記載のシステム。
【請求項26】
前記トラッキングデバイスが前記ボディと一体化している、請求項17に記載のシステム。
【請求項27】
前記検知デバイスが、前記ボディが単一カメラであり、各表示が該カメラによってキャプチャされた画像である、請求項17に記載のシステム。
【請求項28】
前記検知デバイスが、前記ボディによって投影されたシャドウを検知する、請求項17に記載のシステム。
【請求項29】
前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて、該ボディ上のランドマークポイントの位置をトラッキングする、請求項17に記載のシステム。
【請求項30】
前記ナビゲーションコンピュータが、前記ボディの形状の推定値を該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項17に記載のシステム。
【請求項31】
コンピュータナビゲーションシステムを用いたボディの形状を決定する方法であって、該方法が、
前記ボディの一連の表示を生成し、
前記一連の表示から前記ボディの複合境界ボリュームを決定し、
前記複合境界ボリュームから前記ボディの形状を決定し、
前記コンピュータナビゲーションシステムと通信するボディに対応するトラッキングデバイスを用いて前記ボディの位置および向きを決定する
ステップを含む方法。
【請求項32】
前記方法が、前記コンピュータナビゲーションシステムへ前記ボディを較正するステップを更に含み、これによって、該コンピュータナビゲーションシステムが前記ボディの位置および向きをトラッキングすることができる、請求項31に記載の方法。
【請求項33】
前記生成ステップが、ビデオカメラを使用して行われ、各表示がビデオカメラのビデオのフレームである、請求項31に記載の方法。
【請求項34】
前記生成ステップが、前記ボディによって投影されたシャドウを検知することによって行われ、各表示が該シャドウの画像である、請求項31に記載の方法。
【請求項35】
前記トラッキングデバイスが光学的トラッキングシステムである、請求項31に記載の方法。
【請求項36】
前記トラッキングデバイスが前記ボディに対応するアクティブエミッタを含む、請求項31に記載の方法。
【請求項37】
前記トラッキングデバイスが発光ダイオードを含む、請求項36に記載の方法。
【請求項38】
前記トラッキングデバイス 非光学的トラッキングデバイス、請求項31に記載の方法。
【請求項39】
前記トラッキングデバイスが磁気トラッキングデバイスである、請求項38に記載の方法。
【請求項40】
前記トラッキングデバイスが前記ボディに固定的に装着される、請求項31に記載の方法。
【請求項41】
前記トラッキングデバイスが前記ボディに一体化される、請求項31に記載の方法。
【請求項42】
前記生成ステップが、前記ボディが前記カメラに相対して移動している間に複数の画像をキャプチャする単一カメラによって実行される、請求項31に記載の方法。
【請求項43】
前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて、該ボディ上のランドマークポイントの位置をトラッキングする、請求項31に記載のシステム。
【請求項44】
前記決定ステップが、前記ボディの形状の推定値を、前記ナビゲーションコンピュータに記憶されている複数のモデルから選択されたボディのモデル値と比較する、請求項31に記載のシステム。
【請求項45】
コンピュータナビゲーションシステムを用いてボディの形状および向きを決定する方法であって、該方法が、
少なくとも二つのパースペクティブから前記ボディの一連の表示を生成し、
前記一連の表示から前記ボディの複合境界ボリュームを決定し、
前記複合境界ボリュームから前記ボディの形状を決定し、
前記ボディの形状および該ボディの一連の表示から該ボディの位置および向きを決定する、
ステップを含む、方法。
【請求項46】
前記生成ステップが、少なくとも二つのビデオカメラを用いて実行され、各表示が各ビデオカメラからのビデオのフレームである、請求項39に記載の方法。
【請求項47】
前記生成ステップが、前記ボディによって投射された少なくとも二つのシャドウを検知することによって実行され、各表示が前記シャドウの画像である、請求項39に記載の方法。
【請求項48】
前記決定ステップが、前記ボディの形状の推定値を、該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項39に記載の方法。
【請求項1】
ボディの形状および向きを画定するためのシステムであって、
コンピュータナビゲーションシステムと、
ボディの一連の表示を生成可能な検知デバイスと、
前記ボディと固定関係において対応付けられとともに、前記コンピュータナビゲーションシステムに相対して前記ボディを位置付けるために該コンピュータナビゲーションシステムによって検出可能な、トラッキングデバイスと、
を含み、
前記コンピュータナビゲーションシステムが、前記一連の表示と、該コンピュータナビゲーションシステムに相対する該ボディの位置と、を処理することができる中央処理装置を含み、前記トラッキングデバイスに相対する前記ボディの形状および向きを決定する、
システム。
【請求項2】
前記検知デバイスが複数のディジタルカメラを含み、各表示が該カメラによってキャプチャされた画像である、請求項1に記載のシステム。
【請求項3】
前記検知デバイスがビデオカメラであり、該表示が該ビデオカメラによってキャプチャされたビデオのフレームである、請求項2に記載のシステム。
【請求項4】
前記検知デバイスが前記ボディによって投影されたシャドウを検知し、前記表示が該シャドウの画像である、請求項1に記載のシステム。
【請求項5】
固定背景も含む、請求項2に記載のシステム。
【請求項6】
前記トラッキングシステムが、光学的トラッキングシステムである、請求項1に記載のシステム。
【請求項7】
前記トラッキングデバイスが、前記ボディに対応したアクティブエミッタを含む、請求項6に記載のシステム。
【請求項8】
前記トラッキングデバイスが発光ダイオードを含む、請求項6に記載のシステム。
【請求項9】
前記トラッキングデバイスが非光学的トラッキングデバイスである、請求項1に記載のシステム。
【請求項10】
前記トラッキングデバイスが磁気トラッキングデバイスである、請求項9に記載のシステム。
【請求項11】
前記トラッキングデバイスが前記ボディに固定的に装着される、請求項1に記載のシステム。
【請求項12】
前記トラッキングデバイスが前記ボディと一体化している、請求項1に記載のシステム。
【請求項13】
前記検知デバイスが、前記ボディが前記カメラに相対して移動している間に複数の画像をキャプチャする単一カメラであり、各表示が、該カメラによってキャプチャされた画像である、請求項1に記載のシステム。
【請求項14】
前記検知デバイスが、前記ボディが前記検知デバイスに相対して移動している間に該ボディによって投影される前記シャドウの移動を検知する電荷結合素子のアレイである、請求項4に記載のシステム。
【請求項15】
前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて該ボディ上のランドマークポイントの位置をトラッキングする、請求項1に記載のシステム。
【請求項16】
前記ナビゲーションコンピュータが、前記ボディの形状の推定値を該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項1に記載のシステム。
【請求項17】
ボディの形状および向きを画定するためのシステムであって、
コンピュータナビゲーションシステムと、
前記ボディと前記検知デバイス間の相対的な移動に基づいて該ボディの一連の表示を生成可能な検知デバイスと、
前記ボディと固定関係において対応付けられとともに、前記コンピュータナビゲーションシステムに相対して前記ボディを位置付けるために該コンピュータナビゲーションシステムによって検出可能な、エミッタと、
を含み、
前記コンピュータナビゲーションシステムが、前記一連の画像と、該コンピュータナビゲーションシステムに相対する該ボディの位置と、を処理することができる中央処理装置を含み、前記エミッタに相対する前記ボディの形状および向きを決定する、
システム。
【請求項18】
前記検知デバイスが複数のディジタルビデオカメラを含む、請求項17に記載のシステム。
【請求項19】
固定背景をも含む、請求項18に記載のシステム。
【請求項20】
前記トラッキングデバイスが光学的トラッキングシステムである、請求項17に記載のシステム。
【請求項21】
前記トラッキングデバイスが前記ボディに対応したアクティブエミッタを含む、請求項20に記載のシステム。
【請求項22】
前記トラッキングデバイスが発光ダイオードを含む、請求項20に記載のシステム。
【請求項23】
前記トラッキングデバイスが非光学的トラッキングデバイスである、請求項17に記載のシステム。
【請求項24】
前記トラッキングデバイスが磁気トラッキングデバイスである、請求項23に記載のシステム。
【請求項25】
前記トラッキングデバイスが前記ボディに固定的に装着される、請求項17に記載のシステム。
【請求項26】
前記トラッキングデバイスが前記ボディと一体化している、請求項17に記載のシステム。
【請求項27】
前記検知デバイスが、前記ボディが単一カメラであり、各表示が該カメラによってキャプチャされた画像である、請求項17に記載のシステム。
【請求項28】
前記検知デバイスが、前記ボディによって投影されたシャドウを検知する、請求項17に記載のシステム。
【請求項29】
前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて、該ボディ上のランドマークポイントの位置をトラッキングする、請求項17に記載のシステム。
【請求項30】
前記ナビゲーションコンピュータが、前記ボディの形状の推定値を該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項17に記載のシステム。
【請求項31】
コンピュータナビゲーションシステムを用いたボディの形状を決定する方法であって、該方法が、
前記ボディの一連の表示を生成し、
前記一連の表示から前記ボディの複合境界ボリュームを決定し、
前記複合境界ボリュームから前記ボディの形状を決定し、
前記コンピュータナビゲーションシステムと通信するボディに対応するトラッキングデバイスを用いて前記ボディの位置および向きを決定する
ステップを含む方法。
【請求項32】
前記方法が、前記コンピュータナビゲーションシステムへ前記ボディを較正するステップを更に含み、これによって、該コンピュータナビゲーションシステムが前記ボディの位置および向きをトラッキングすることができる、請求項31に記載の方法。
【請求項33】
前記生成ステップが、ビデオカメラを使用して行われ、各表示がビデオカメラのビデオのフレームである、請求項31に記載の方法。
【請求項34】
前記生成ステップが、前記ボディによって投影されたシャドウを検知することによって行われ、各表示が該シャドウの画像である、請求項31に記載の方法。
【請求項35】
前記トラッキングデバイスが光学的トラッキングシステムである、請求項31に記載の方法。
【請求項36】
前記トラッキングデバイスが前記ボディに対応するアクティブエミッタを含む、請求項31に記載の方法。
【請求項37】
前記トラッキングデバイスが発光ダイオードを含む、請求項36に記載の方法。
【請求項38】
前記トラッキングデバイス 非光学的トラッキングデバイス、請求項31に記載の方法。
【請求項39】
前記トラッキングデバイスが磁気トラッキングデバイスである、請求項38に記載の方法。
【請求項40】
前記トラッキングデバイスが前記ボディに固定的に装着される、請求項31に記載の方法。
【請求項41】
前記トラッキングデバイスが前記ボディに一体化される、請求項31に記載の方法。
【請求項42】
前記生成ステップが、前記ボディが前記カメラに相対して移動している間に複数の画像をキャプチャする単一カメラによって実行される、請求項31に記載の方法。
【請求項43】
前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて、該ボディ上のランドマークポイントの位置をトラッキングする、請求項31に記載のシステム。
【請求項44】
前記決定ステップが、前記ボディの形状の推定値を、前記ナビゲーションコンピュータに記憶されている複数のモデルから選択されたボディのモデル値と比較する、請求項31に記載のシステム。
【請求項45】
コンピュータナビゲーションシステムを用いてボディの形状および向きを決定する方法であって、該方法が、
少なくとも二つのパースペクティブから前記ボディの一連の表示を生成し、
前記一連の表示から前記ボディの複合境界ボリュームを決定し、
前記複合境界ボリュームから前記ボディの形状を決定し、
前記ボディの形状および該ボディの一連の表示から該ボディの位置および向きを決定する、
ステップを含む、方法。
【請求項46】
前記生成ステップが、少なくとも二つのビデオカメラを用いて実行され、各表示が各ビデオカメラからのビデオのフレームである、請求項39に記載の方法。
【請求項47】
前記生成ステップが、前記ボディによって投射された少なくとも二つのシャドウを検知することによって実行され、各表示が前記シャドウの画像である、請求項39に記載の方法。
【請求項48】
前記決定ステップが、前記ボディの形状の推定値を、該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項39に記載の方法。
【図1】
【図2a】
【図2b】
【図2c】
【図3】
【図4】
【図5】
【図6】
【図7a】
【図7b】
【図7c】
【図7d】
【図8】
【図9】
【図10】
【図11】
【図2a】
【図2b】
【図2c】
【図3】
【図4】
【図5】
【図6】
【図7a】
【図7b】
【図7c】
【図7d】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2006−258798(P2006−258798A)
【公開日】平成18年9月28日(2006.9.28)
【国際特許分類】
【外国語出願】
【出願番号】特願2006−28557(P2006−28557)
【出願日】平成18年2月6日(2006.2.6)
【出願人】(504409347)シュトリュカー ライビンガー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディト ゲゼルシャフト (6)
【氏名又は名称原語表記】Stryker Leibinger GMBH & Co.KG
【住所又は居所原語表記】Boetzinger Strasse 41, 79111 Freiburg Germany
【Fターム(参考)】
【公開日】平成18年9月28日(2006.9.28)
【国際特許分類】
【出願番号】特願2006−28557(P2006−28557)
【出願日】平成18年2月6日(2006.2.6)
【出願人】(504409347)シュトリュカー ライビンガー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディト ゲゼルシャフト (6)
【氏名又は名称原語表記】Stryker Leibinger GMBH & Co.KG
【住所又は居所原語表記】Boetzinger Strasse 41, 79111 Freiburg Germany
【Fターム(参考)】
[ Back to top ]