説明

連続的にガイドされた内視鏡検査法への適用を伴う高速2D−3D画像重ね合わせ方法

2つのイメージング様式の間で高速かつ連続的な重ね合わせを行うための新規なフレームワークが開示される。本手法は、対応する奥行きマップ及び奥行き勾配を完備した一組の参照画像を計算するか又はキャプチャするステップを含む。これらの画像及び奥行きマップの集積は、参照ソースを構成する。この映像フィードからの1フレームが与えられると、視点の初期推測から開始し、実時間の映像フレームが参照ソースの最も近い視座に合わせて歪曲される。歪曲された映像フレームと参照画像との間の画像差が計算される。ガウス−ニュートン・パラメータ更新によって視点が更新され、視点が収束するか又は次の映像フレームが利用可能になるまで、各フレームについて幾つかのステップが繰り返される。最終視点は、その特定の映像フレームにおけるカメラと参照ソースとの間の相対的な回転及び平行移動の推定を与える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、一般に、画像相関に関し、具体的には、ガイドされた内視鏡検査及び他の分野に適用可能な高速画像重ね合わせ方法に関する。
【0002】
(関連特許出願へのリファレンス)
本出願は、引用によりその内容全体をここに組み入れる、2005年5月23日付で出願された米国特許仮出願番号第60/683,588号に基づく優先権を主張するものである。
【背景技術】
【0003】
同一の環境内の異なる空間的位置及び方向においてカメラにより撮影された画像の重ね合わせ及び位置合わせは、コンピュータ・ビジョン及び医療用イメージングにおける多くの用途にとって重要な課題である。例えば、可動式カメラによって撮影された画像と、固定された監視カメラによる画像とを重ね合わせることは、ロボット・ナビゲーションを支援することができる。他の用途は、画像モザイク及びパノラマ、高ダイナミックレンジの画像、又は超解像度画像を構築する能力、又は2つのソース間での情報の融合を含む。
【0004】
しかしながら、3Dシーンを2Dでイメージングすることでシーンの構造は本質的に失われるので、部分的な重ね合わせ情報しか回復できないことが通例である。多くの用途において、この重ね合わせの問題に構造を再導入するために、画像に付随させるための奥行きマップを生成するか又は推定することができる。
【0005】
今現在利用可能な2D位置合わせアルゴリズムは勾配降下手法を用いるものであり、これは、以下の3点、すなわち、2つの画像間の空間的関係のパラメータ化(例えば、2つの2D画像間の2D回転及び平行移動)、どのパラメータ値の下でもこれらの画像を視覚化できる能力(例えば、30度回転された2D参照画像を表示する)、及び、パラメータ更新の推定値の算出を可能にする関連付けられた画像勾配情報を伴う費用関数、に依存する。こうしたアルゴリズムのうちで最も直接的且つ初期のものが、画像位置合わせをガウス−ニュートンの最小化問題として計算するLucas−Kanadeアルゴリズムである[5]。このアルゴリズムを後に洗練したものは、問題を再計算することによりパラメータ更新の計算を著しく高速化して、全ての勾配及びヘシアン情報を反復毎に計算するのではなく一度で計算することを可能にする、inverse compositional alignmentアルゴリズムを含む[6]。他の幾つかの改良は、パラメータと、これらのパラメータが誘導する対応する画像歪曲との選択を中心としてきた。例えば、同一のシーンを異なる位置から観察する2つの同一のカメラから得られた画像は、アフィン変換によって、又は8パラメータのホモグラフィによって、ほぼ関係付けることができる[7]。
【0006】
このようなタイプのパラメータ化の主要な問題は、そのシステムの物理的に妥当なパラメータを真にキャプチャしないことであり、また、ホモグラフィの場合には、画像のオーバーフィッティングに繋がりかねないことである。より最近のパラメータ選択は、焦点の周囲で任意の3D回転ができる1つのカメラから得られた2つの画像のマッチングを試みている[8]。このアルゴリズムは物理的に妥当なパラメータ(焦点の周りの回転角度)の抽出に成功している。しかしながら、それは小さな平行移動を取り扱うことはできるが、一般的な平行移動を取り扱うことはできずに、誤差の発生源として処理する。
【0007】
一般剛体変換(general rigid transformation)(即ち3D回転及び平行移動)により関係付けられたカメラによって生成される2つの画像の重ね合わせ問題への取り組みは殆どなされていない。その主たる理由は、異なるカメラ位置から見た参照画像の正確な視覚化には、理想的には、その画像に関連付けられた奥行きマップが既知であることが必要とされる点であるが、これは常に当てはまるというわけではない。既知の人工環境におけるロボット操作、又は典型的には手技の前に3Dスキャンが行われる気管支鏡検査法の最中などの特定の状況においては、この情報は既知である。実際に、奥行きマップが未知である状況においてさえも、奥行きマップは画像自体から推定できることがしばしばである。
【0008】
このことの一例が、前述された気管支鏡のガイドにおけるシェイプ・フロム・シェーディング問題である[9]。現行の手法は、医師が、1組のコンピュータ断層撮影(CT)フィルムを自ら解釈したものに基づいて構築しなければならない気道構造の3Dメンタルイメージ程度のものを用いて、気管支鏡を気管から気道樹中のどこかの所定位置までガイドすることを必要とする。この複雑な作業は、ナビゲーション中に医師が気道内で進路を見失う結果をもたらしかねないことがしばしばである[1]。このようなナビゲーションエラーのせいで、医師が誤った位置で多数の生検を行うことがあり、又は医師が再度方向を定めるために余分な時間をかけて既知の位置に戻らなければならないことがあるので、診断ミスを招くか、又は患者に不必要なストレスを生じさせる結果となる。
【0009】
この問題を緩和し、かつ気管支鏡生検の成功率を上げて、それにより、患者のケアを改善するためには、気道樹内のカメラの位置を決めるための何らかの方法が用いられなければならない。X線透視法は内視鏡の位置判定に役立つことができる術中の視像を提供することができる。しかしながら、作成される画像は3Dである気道の2D射影なので、内視鏡位置の限定された情報を与えることしかできない。加えて、X線透視法は常に利用可能とは限らず、患者に当てる放射線量の増加という追加的な損失を伴う。
【0010】
気管支鏡の映像と術前CTデータとのマッチングを試みることによって気管支鏡の位置を判定する技術もまた幾つか存在する。1つの方法は、CT気道表面の3D対3Dの位置合わせを行うために、[2]のようにシェイプ・フロム・シェーディング法を用いて気管支鏡画像から3D表面を推定する。この方法は、照明モデルと気道表面特性に関して多数の仮定を行うことを必要とし、これらの仮定に反している場合には大きな表面誤差をもたらす。これを行う第2の方法は、CTデータからの仮想画像のレンダリングと、それらと実際の気管支鏡映像との相互情報[3]又は画像差[4]を用いたマッチングとを、反復的に行うことである。
【0011】
こうした方法は、様々な成功の度合をもって映像をCTに重ね合わせることはできるが、どれも非常に動作が遅く、シングルフレームの重ね合わせのみに関与する。これらのいずれも実映像とCTボリュームとの間の連続的な重ね合わせを提供できるほど十分に高速ではない。これらは、勾配情報及びCT派生画像の既知の奥行きのいずれも利用しない最適化法に依存しており、従って、非常に計算集約的なパラメータ空間のサーチを必要とする。
【発明の開示】
【0012】
本発明は、2つのイメージング様式の間で高速かつ連続的な重ね合わせを行うための新規な枠組みにある。本発明による画像の重ね合わせ方法は、奥行きマップを伴う1つ又はそれ以上の参照画像の集合を提供するステップと、その参照画像集合の中の少なくとも1つの参照画像に、その参照画像のための奥行きマップを用いて、画像を重ね合わせるステップとを含む。画像と参照集合とは、両方共に実像又は仮想であってもよく、或いは一方が実像で他方が仮想であってもよい。参照画像集合は、内視鏡画像であってもよく、気管支鏡、結腸鏡、腹腔鏡、又は他の器具に由来するものであってもよい。重ね合わせは、実時間又は近実時間で行われることが好ましく、参照画像集合の中の1つ又はそれ以上の画像は、重ね合わせ前、重ね合わせ中、又は重ね合わせ後に更新されることが可能である。
【0013】
強固な実施形態によれば、参照画像集合は、奥行きマップ及び画像勾配で視点を表し、重ね合わされる画像は、複数の連続フレームを有する映像フィードに由来するものである。本方法は、
a)映像の1フレームを参照ソースの最も近い視点に合わせて歪曲するステップと、
b)歪曲された映像フレームと参照画像との間の画像差を計算するステップと、
c)ガウス−ニュートン・パラメータ更新を用いて視点を更新するステップと、
d)視点が収束するか、又は次の映像フレームが利用可能になるまで、各フレームについて、ステップa)からステップc)までを繰り返すステップと、
を含む。
【0014】
本発明は、2つのソースを重ね合わせるために、多数のソースの間の剛体変換を実時間又は近実時間のフレームレートで完全に判定することを可能にする。ガイド下気管支鏡検査に関わる開示される実施形態は、以下のステップを含む。
1.オフライン・フェーズにおいて、対応する奥行きマップ及び画像勾配を完備した、既知の環境における参照画像の集合が計算されるか又はキャプチャされる。これらの画像及び奥行きマップの集積は、参照ソースを構成する。
2.第2のソースは、実況映像フィードからの実時間ソースである。この映像フィードからの1フレームが与えられると、視点の初期推測から開始し、実時間の映像フレームが参照ソースの最も近い視座(viewing site)に合わせて歪曲される。
3.歪曲された映像フレームと参照画像との間の画像差が計算される。
4.ガウス−ニュートン・パラメータ更新によって視点が更新される。
5.視点が収束するか又は次の映像フレームが利用可能になるまで、各フレームについてステップ2−4が繰り返される。最終視点は、その特定の映像フレームにおけるカメラと参照ソースとの間の相対的な回転及び平行移動の推定を与える。
【0015】
本発明は、特に、気管支鏡検査及び結腸鏡検査を含む支援付き内視鏡検査の分野において、広範囲な用途を有する。他の用途は、航空ナビゲーション及び地上ナビゲーションを含む。
【発明を実施するための最良の形態】
【0016】
概説すると、本発明は、画像の奥行きマップの導入により3次元に拡大された2D画像の位置合わせアルゴリズムである。本方法は、既存のマッチング・フレームワークを拡張して一般的な3Dカメラの動きを取り扱うための理想的な手法を提供し、カメラの外因的パラメータについて解を与えて、その環境内でそれを限局化することを可能にする。
【0017】
本方法を非常に具体的な形で説明する目的のために、本論はガイド下気管支鏡検査に用いられるものと同様の状況に焦点を当てることになる。典型的な気管支鏡の手技においては、最初にCTスキャンが行われ、その後これを処理して気道樹表面を抽出することが可能である。中空の気道樹内部が、既知の環境を構成する。気管支鏡検査の最中には、気道に気管支鏡が挿入され、その先端に搭載されたカメラが一連の実際の気管支鏡(RB)映像を実時間で送信する。その内視鏡の較正パラメータが既知であるとすれば、気道樹内の任意の視点における仮想の気管支鏡(VB)画像(管腔内レンダリング)をレンダリングすることが可能である。VB画像の各ピクセルに対応する奥行きを直ちに計算して仮想奥行きマップ(VDM)を形成することができることもまた明白である。
【0018】
気道内部の未知の位置からの固定された実時間RB画像を有しているが、任意の視点から見た同じ中空の気道構造の表示(manifestation)を生成することを可能にする既知の位置及び3D情報を有する既知のVBソースもまた有していることが、問題である。上記の設定を与えられると、目標は、固定されたRB画像と可能なVB管腔内レンダリングのいずれかとの間で最も良好なマッチングを見出すように試みることによって、RB画像のソースの位置を限局化することである。1つの多分に直接的な手法は、仮想画像の観察パラメータ(viewing parameter)(即ち、視点)に関してRB画像とVB画像との間の差の測定値を最小化しようとするガウス−ニュートン勾配降下アルゴリズムを用いて、これを達成する手法である。これを行うための方法は、Lucas−Kanade画像位置合わせアルゴリズムと同様のものである[5]。
【0019】
[5,6]で用いられる目的関数は、2つの画像のピクセル強度の間の合計平方差(sum squared difference)(SSD)であるが、重みづけされたSDもまた同等に実行可能であり、何らかの付加的な弱い推定が為される場合には、重みづけされた又は重みづけされていない、正規化された相互相関(CC)を用いてもよい。従って、SSDを用いると、目的関数は、

(1)
と書くことができ、ここで、pは観察パラメータのベクトルであり、Iv(u,v;p+Δp)は視点p+Δpからレンダリングされた仮想VB画像であり、u及びvは行及び列の指数であり、Irは実RB画像である。[5]の手順に従い、ガウス−ニュートン・パラメータ更新Δpは、

(2)
と求めることが示され、ここでヘシアンHは、ガウス−ニュートンにより、

(3)
と近似され、ここで

は、パラメータ・ベクトルΔpの成分の各々に関して、視点pにおいてレンダリングされたVB画像Iv中のピクセル(u,v)の強度の変化を与えるベクトルである。

は、最急降下画像のベクトルとして解釈してもよく、ここでベクトルの各成分は、実際には、パラメータ・ベクトルの成分に関して画像強度の変動を記述する画像である。最急降下画像

は、視点p毎に変化するので、これら、及びヘシアンは、全ての反復毎に再計算されねばならず、非常に計算コストが高いアルゴリズムとなっている。
【0020】
反復を高速化するために、inverse compositionalアルゴリズムが提案された[6]。この戦略の下では、パラメータ更新を用いて仮想視点を実視点に向かって動かすのではなく、パラメータ更新の逆数を用いて、実視点を仮想視点に向かって動かす。コンピュータが気管支鏡先端部の位置を全く制御できないことは明らかなので、これは実現不可能な戦略に見えるかもしれない。しかしながら、奥行きに基づく歪曲を用いることで、他の視点からの外観をシミュレーションするようにRB画像を歪曲することが可能である。この戦略は、歪曲された形態の実画像を静止した仮想画像と比較することに帰結する。この定式化の下では、最小化することが求められる目的関数は、

(4)
である。歪曲関数W(・)は、RB画像Irの画像座標を歪曲し、従って画像自体を歪曲する。この場合の歪曲は、実画像の奥行きマップZrに依存することに留意することも重要である。4についてのガウス−ニュートン・パラメータ更新について解くと、

(5)
が得られる。これは問題に不必要な複雑性と誤差とを付加するように見えるかもしれないが、実際には反復を著しく高速化する役目を果たし、プリレンダリングされた(又は予めキャプチャされた)画像及び対応する奥行きマップの集積を代わりに有している場合には実行中に任意の視点をレンダリングする必要をなくすという付加的な副次的利点を有する。この顕著な速度の増加の理由は、VB画像とVB画像勾配とは常に参照視座p=0において求められるので、従って、反復が開始される前に、以下の全ての動作を予め計算できることにある。即ち、
1.既知の環境が視座集合としてサンプリングされる。
2.各視座において、仮想画像Ivがプリレンダリングされる。
3.各位置において、仮想奥行きマップZvが計算される。
4.ベクトルpにおける観察パラメータの各々に関して、最急降下画像

が計算される。
5.逆へシアンH-1は、最急降下画像

から式(14)によって推定されたガウス−ニュートンである。
次いで、アルゴリズムの反復部分は以下のステップで実行することができる。即ち、
1.実画像を姿勢pから最も近い参照位置まで歪曲する。
2.誤差画像

を計算する。
3.式(5)によって、パラメータ更新Δpを計算する。
4.古いパラメータを更新の逆数(Δp)-1で増分することによって、新規のpの値を求める。
【0021】
これらのステップは図1に示される。歪曲関数を無視すると、ここまでに提示された全ての方程式は一般的であり、アフィン又はホモグラフィのような2D変換にも、又は3D回転にも、同等に良好に適用できる。しかしながら、ここから焦点は、我々が選択した座標系及びパラメータを伴う完全3Dモーションの場合に絞られる。(4)における歪曲を調べると、各々の参照視像は、

となるように定められ、用いられた視座毎に異なる座標系を生じるので、問題は、幾つかの局所座標系に換算して定義されると理解することができる。しかしながら、フレーム間でパラメータ変換を行うためにこれらの座標系の各々をグローバル座標フレームに関係付けるのは瑣末なことである。従って、グローバル・カメラ・フレームに対して1つのカメラ姿勢が与えられると、パラメータ・ベクトルは、最も近い参照視像に対して3つのオイラー回転角と3つの平行移動とを有する、

(6)
として定義することができる。
【0022】
このパラメータ化によれば、歪曲W(u,v,Z;p)は、行列方程式

(7)
によって支配され、ここでRはオイラー角(θr,θp,θy)によって定められる回転行列であり、u及びvは画像の列及び行であり、fは焦点距離であり、Zは、点(u,v)に対応する奥行きマップZ上のエントリである。ここで(u’,v’)は、注目する歪曲された画像の座標を与え、Z’は、その点に対応する歪曲された奥行きを与える。この問題記述においては、仮想奥行きマップZvが既知であることのみを仮定することに留意されたい。しかしながら、inverse compositionalアルゴリズムを用いる場合、歪曲は実画像Irに適用されるのであり、まず、実奥行きマップZrを、仮想奥行きマップZvをpによって実カメラの現在の推定姿勢へと歪曲させることによって計算しなければならない。これはまた、(7)を用い、次に、得られる歪曲された奥行きマップを実画像の座標系に内挿することによって行うこともできる。この際には、pの推定値は実際の値に比較的近いものであると暗黙の内に仮定されている。そうでなければ、パラメータ誤差が、実奥行きマップZrの大きな誤差をもたらしかねず、従って、画像歪曲の大きな誤差をもたらしかねない。このような状況下においては、(1−2)によって支配される前進勾配降下法の方がよりこの問題に適している場合がある。
【0023】
歪曲関数を適用するために、強度I(u,v)と奥行きZ(u,v)を持つ各ピクセル座標(u,v)において、(7)によって、新規の座標(u’,v’)と奥行きZ’(u’,v’)とが求められる。次いで、元の強度及び奥行きを新規の画像アレイI(u’,v’)にマッピングすることができる。歪曲を行う際には幾らかの特別な配慮が為されなければならない。第一に、(4)における画像差は、両方の画像で座標位置が同じであることを必要とする。従って、得られたアレイは、元のアレイと同じ座標格子に内挿されねばならない。この内挿のせいで、また、奥行きに基づく歪曲がオクルージョンをもたらすことがあるので、出力ピクセルに対応する適切な強度を選択することが困難になる場合がある。このことは、より大きな奥行きに対応する強度を、それがより小さな奥行きに対応する強度と重なる場合に棄却するようにすれば、ある程度は軽減できる。
【0024】
最後に、最急降下画像

の計算である。最急降下画像を生成するには幾つかのやり方がある。それらは、各パラメータの小さい正の値と負の値とに歪曲された参照画像の差を求めることによって数値的に生成することができる。それらはまた、連鎖法則

(8)
によって導関数を拡張することによって解析的に生成することもでき、ここで、

及び、

は、画像の行及び列に関する画像勾配であり、Jpはpに関する歪曲された座標のヤコビアンであって、故に、(7)からのu’とv’とを歪曲パラメータの各々に関して微分し、それを特定の現行値pにおいて求めることによって、得ることができる。inverse compositionalアルゴリズムの場合には、画像導関数は、常に、

において求められ、従って、各参照視座においてヤコビアンは一定であり、即ち、


(9)
である。これで反復パラメータ更新Δpを計算するのに必要な全ての情報を手に入れたことになる。最後のステップは、この更新の逆数をとり、これを現行のpの推定値と合成することである。オイラー角は、

(10)
から得られる回転行列から求めることができ、ここでRdはΔpにおける回転角に関する増分回転行列である。更新された平行移動は、

(11)
から求めることができ、ここでΔtiは、パラメータ更新Δpの平行移動要素である。
【0025】
上記の手法を適用する際の性能を向上させるために、幾つかの最適化技術が用いられる。最大解像度の画像に対して行う演算は非常に計算集約的なものになりがちである。従って、全ての画像、奥行きマップ、及び勾配が、各々のレベルにおいて、好ましくは係数4でダウン・サンプリングされた解像度ピラミッドが用いられる。予め計算される仮想視像及び勾配に関わる計算時間は特に考慮されず、また、殆どの映像キャプチャ・ハードウェアは実画像に対して実時間のハードウェア・サブサンプリングを提供しているので、このサブサンプリングの計算コストは些細なものであり、より迅速な反復時間を提供する。
【0026】
ピラミッド分解を用いて、上述された重ね合わせアルゴリズムを実行する際には、アルゴリズムはピラミッドの最も低い解像度レベルから開始され(本明細書における実験結果は、レベル3、即ち64分の1の解像度から開始して行われた)、より高い解像度レベルに進む前に、合理的な停止基準が満たされるまで実行される。このピラミッド的手法は計算を高速化するだけではなく、高度にサブサンプリングされた画像には最大の特徴のみが存在し、より鮮明な特徴は微調整を助けるためにより高い解像度レベルで導入されることから、局所的最適値への収束を防止する役目も果たす。
【0027】
実際に用いられる第2の最適化は、異なる平均強度と強度範囲とを有する画像の比較を可能にすると共に、個々のピクセル値の重みづけを可能にする、重みづけされた正規化された相互相関目的関数、

(12)
の使用である。inverse compositionalアルゴリズムの下でこの目的関数を用いるには、重みは一定でなければならず、最急降下画像の計算に先立って選択されねばならない(即ち、仮想画像の特徴から派生していなければならない)ことに留意すべきである。正規化されたSSDと正規化された相互相関とが等価であることを利用して、更新は、

(13)
として求めることができ、この場合のヘシアンは、

(14)
である。

は、仮想画像Ivの分散で除算した、平均減算された(mean−subtracted)最急降下画像の集合であり、

は正規化された画像である。
【実施例1】
【0028】
本アルゴリズムを確認するために、仮想から実像への重ね合わせの場合と仮想から仮想への重ね合わせの場合のサンプル結果が与えられる。以下で概説される両方の場合において、仮想環境はh005で表される人間の患者の胸部CTスキャンである。気道表面はKiraly他の方法[10]を用いて自動的に生成された。気道中心線はSwift他の方法を用いて抽出され、仮想視座はこれらの気道中心線に沿って0.3mmから1mmまでのあいだで変動する間隔を空けて選択され、観察方向は気道中心線と平行に選択された[11]。仮想画像及び奥行きマップは、気管支鏡カメラの較正パラメータと一致するように、スポットライト源をカメラの焦点と仮定し、視野を78.2度、画像サイズを264×264と仮定して、OpenGLレンダラにより生成された。
【0029】
仮想から実像への重ね合わせ
仮想から実像への重ね合わせは、レベル3から開始してレベル1で終了するピラミッド分解を用いて行われた。イメージング・ソース間の強度特性の差を説明するために、重みづけされた正規化された相互相関(12)が目的関数として用いられ、気管支鏡映像においてはより多くの情報を有する傾向がある暗い領域を強調するために、重みwu,v

(15)
として選択された。h005に対して行われた気管支鏡検査から取られた映像フレームは、まず、実画像Irを得るため、レンズから幾何学的樽形ひずみを取り除くように処理された。仮想から実像への重ね合わせの場合においては、操作中のスコープ先端部の位置が未知であるため、グランド・トルース位置を与えることは困難である。外部からの限局化なしでは、良好な重ね合わせの質は、ある程度、定性的な性質のものとなる。図2は、重ね合わせ結果の1つのサンプルを示し、重ね合わされていない実視像及び重ね合わされた実視像の上に仮想画像からのエッジがオーバーレイされている。この結果は、位置合わせが定性的に非常に満足できるものであることを示す。
【0030】
仮想から仮想への重ね合わせ
仮想から仮想へ重ね合わせする場合においては、「実」画像は、実際には気道中の指定された位置において生成されたレンダリング画像であるが、全ての奥行き情報は棄却されている。本アルゴリズムは、レベル3から開始してレベル1で終了するピラミッド分解を用い、重みづけされたSSD目的関数が用いられたが、ここで、加重値wu,vは前述の(15)のように選択された。
【0031】
図3は、重ね合わせ前の「実」画像Irと、最も近い参照位置にある仮想画像Ivと、重ね合わせが完了した後の歪曲された実画像Ir(W(u,v,Z;p))とを示す。
【表1】

【0032】
気管支鏡検査の場合には、実ソースと仮想ソースとの重ね合わせのための少なくとも4つの異なる選択肢が利用可能である。これらのシナリオは以下のように概説される。即ち、
1.仮想から実像への重ね合わせ:未知の位置にある気管支鏡からの実時間の又は予め録画された映像Irが、管腔内CTレンダリングIv及び奥行きマップZvの組に重ね合わされる。
2.仮想から仮想への重ね合わせ:未知の位置の、関連する奥行きマップZrを有するか、又は有さない管腔内レンダリングIrが、管腔内CTレンダリングIv及び奥行きマップZvの組に重ね合わされる。
3.実像から実像への重ね合わせ:未知の位置にある気管支鏡からの実時間の映像Irが、既知の又は推定された奥行きマップZvを有する予め記録された映像Ivの組に重ね合わされる。
4.実像から仮想への重ね合わせ:未知の配置の、関連する奥行きマップZrを有するか、又は有さない管腔内レンダリングIrが、既知の又は推定された奥行きマップZvを有する予め記録された映像Ivの組に重ね合わされる。
【0033】
本出願は、特に支援付き内視鏡検査の分野において広範囲な用途を有する。CTボリュームと実時間の気管支鏡映像との間の重ね合わせを行うことは、CT領域と気管支鏡の間で情報の融合を可能にする。これは、CTボリュームでのみ定められた関心領域(ROI)を実像の映像フレームの上に重ね合わせて、これらのROIをナビゲートする医師を支援できるようにする。同様にして、気道中心線、気管支名称、及び壁までの距離といった数値情報を映像フレーム上に表示することが可能である。
【0034】
この概念の当然の拡張は結腸鏡のような他の形態の内視鏡検査にも向けられ、その場合には重ね合わされた結腸鏡画像の上に同様のガイド情報を表示することができる。また、仮想から実像への重ね合わせは、予め録画された内視鏡映像にも適用することができ、内視鏡映像のみで利用可能なテクスチャ及び色情報をCT由来の表面にマッピングして、映像のみでは利用できない視点からの視覚化を可能にするといった、多くの処理後オプションへの扉を開く。
【0035】
この手法に関して想定できる実像から実像への重ね合わせのシナリオの1つの用途は、航空ナビゲーションのためのものである。地形学的な地勢情報と組み合わされた衛星画像は、既知の3D環境を提供し、一方ではこの環境に、航空機に搭載された移動カメラからの実時間画像を重ね合わせて、GPS又はレーダー情報なしに航空機の位置及び方向を与えることが可能である。同様にして、本方法はまた、既知の環境における地上ロボット・ナビゲーションも支援する。立体カメラ設定を用いて、ロボットの作業環境全体を通じて既知の位置における参照画像及び奥行きマップをキャプチャすることができ、ロボットに取り付けられたカメラをこの画像及び奥行きマップの組に重ね合わせることができる。
【0036】
参考文献
1.H.Minami,Y.Ando,F.Nomura,S.Sakai,及びK.Shimokata,“Interbronchoscopist variability in the diagnosis of lung cancer by flexible bronchoscopy,”Chest 105(2),1658−1662頁,1994年6月。
2.I.Bricault,G.Ferretti,及びP.Cinquin,“Registration of real and CT−derived virtual bronchoscopic images to assist transbronchial biopsy,”17,703−714頁,1998年10月。
3.J.Helferty,Image−Guided Endoscopy and its Application To Pulmonary Medicine.博士論文,ペンシルバニア州立大学(The Pennsylvania State University),2002年。
4.D.Deguchi,K.Mori,J.Hasegawa,J.Toriwaki,及びH.Natori他,“Camera motion tracking of real bronchoscope using epipolar geometry analysis and CT derived bronchoscopic images,”SPIE Medical Imaging 2002:Physiol.Func.from Multidim.Images A Clough及びC.Chen(編),4683,30−41頁,2002年。
5.B.Lucas及びT.Kanade,“An iterative image registration technique with an application to stereo vision,”Proceedings of the International Joint Conference on Artificial Intelligence,674−679頁,1981年。
6.S.Baker及びI.Matthews,“Equivalence and efficiency of image alignment algorithms,”Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 1,1090−1097頁,2001年。
7.H.−Y.Shum及びR.Szeliski,“Panoramic image misaiming,”Technical Report MSR−TR−97−23,Microsoft Research。
8.H.−Y.Shum及びR.Szeliski,“Construction of panoramic image mosaics with global and local alignment,”International Journal of Computer Vision 16(1),63−84頁,2000年。
9.T.Okatani及びK.Deguchi,“Shape reconstruction from an endoscope image by shape from shading technique for a point light source at the projection center,”Computer Vision and Image Understanding 66, 119−131頁,1997年5月。
10.A.P.Kiraly,E.A.Hoffman,G.McLennan,W.E.Higgins,及びJ.M.Reinhardt,“3D human airway segmentation for virtual bronchoscopy,”SPIE Medical Imaging 2002: Physiology and Funct. from Multidim. Images,A.V.Clough及びC.T.Chen,編.4683,16−29頁,2002年。
11.R.Swift,A.Kiraly,A.Sherbondy,A.L.Austin,E.A.Hoffman,G.McLennan,及びW.E.Higgins,“Automatic axes−generation for virtual bronchoscopic assessment of major airway obstructions,”Computerized Medical Imaging and Graphics 26,103−118頁,2002年3月−4月.
【図面の簡単な説明】
【0037】
【図1】ガイド下気管支鏡検査のための重ね合わせアルゴリズムのブロック図である。
【図2A】仮想−実像重ね合わせにおける実像の映像フレームである。
【図2B】仮想−実像重ね合わせにおける初期視点における歪曲された実画像である。
【図2C】仮想−実像重ね合わせにおけるオーバーレイされた最終参照画像からのエッジの図である。
【図2D】仮想−実像重ね合わせにおける最終重ね合わせに対応する参照仮想画像である。
【図2E】仮想−実像重ね合わせにおける最終視点における歪曲された実画像である。
【図2F】仮想−実像重ね合わせにおけるオーバーレイされた対応する仮想画像のエッジの図である。
【図3A】仮想−仮想重ね合わせにおける実画像である。
【図3B】仮想−仮想重ね合わせにおける参照画像である。
【図3C】仮想−仮想重ね合わせにおける歪曲された実画像である。

【特許請求の範囲】
【請求項1】
画像を重ね合わせるための方法であって、
奥行きマップを伴う1つ又はそれ以上の参照画像の集合を提供するステップと、
前記画像を、前記集合のうちの少なくとも1つの参照画像に、該参照画像のための奥行きマップを用いて重ね合わせるステップと、
を含むことを特徴とする方法。
【請求項2】
前記画像が実像であり、且つ前記参照画像集合が実像であるか、
前記画像が実像であり、且つ前記参照画像集合が仮想であるか、
前記画像が仮想であり、且つ前記参照画像集合が実像であるか、又は
前記画像が仮想であり、且つ前記参照画像集合が仮想である、
ことを特徴とする、請求項1に記載の方法。
【請求項3】
前記画像又は前記参照画像集合が内視鏡画像であることを特徴とする、請求項1に記載の方法。
【請求項4】
前記重ね合わせが実時間又は近実時間に行われることを特徴とする、請求項1に記載の方法。
【請求項5】
前記参照画像集合のうちの少なくとも1つの画像が、画像勾配をさらに含むことを特徴とする、請求項1に記載の方法。
【請求項6】
前記画像が相互相関していることを特徴とする、請求項1に記載の方法。
【請求項7】
重ね合わされる前記画像が映像フレームであることを特徴とする、請求項1に記載の方法。
【請求項8】
重ね合わされる前記画像が、重ね合わせに先立って歪曲されることを特徴とする、請求項1に記載の方法。
【請求項9】
前記重ね合わせが画像差を計算するステップを含むことを特徴とする、請求項1に記載の方法。
【請求項10】
前記重ね合わせがガウス−ニュートン法を用いて更新されることを特徴とする、請求項1に記載の方法。
【請求項11】
前記参照画像集合は、重ね合わせ前、重ね合わせ中、又は重ね合わせ後に更新できることを特徴とする、請求項1に記載の方法。
【請求項12】
前記参照画像集合は奥行きマップ及び画像勾配で視点を表し、
前記重ね合わされる画像は、複数の連続フレームを有する映像フィードに由来するものであり、
前記方法は、
a)前記映像フレームを参照ソースの最も近い視点に合わせて歪曲するステップと、
b)前記歪曲された映像フレームと前記参照画像との間の画像差を計算するステップと、
c)ガウス−ニュートンのパラメータの更新を用いて前記視点を更新するステップと、
d)前記視点が収束するか、又は次の映像フレームが利用可能になるまで、各フレームについて、ステップa)からステップc)までを繰り返すステップと、
を含むことを特徴とする、請求項1に記載の方法。
【請求項13】
前記参照画像集合の中の1つ又はそれ以上の画像は、重ね合わせ前、重ね合わせ中、又は重ね合わせ後に更新できることを特徴とする、請求項12に記載の方法。
【請求項14】
前記映像は実時間であるか又は近実時間であることを特徴とする、請求項12に記載の方法。
【請求項15】
初期視点を推測するステップを含むことを特徴とする、請求項12に記載の方法。
【請求項16】
最終視点が、前記映像フィードの現行のフレームと前記参照ソースとの間の相対的な回転及び平行移動の推定値を与えることを特徴とする、請求項12に記載の方法。
【請求項17】
全ての画像、奥行きマップ、及び勾配がダウン・サンプリングされた解像度ピラミッドを用いるステップをさらに含むことを特徴とする、請求項12に記載の方法。
【請求項18】
個々のピクセル値の重みづけを可能にする一方で、異なる平均強度と強度範囲とを有する画像を比較することを可能にする、重みづけされた正規化された相互相関目的関数を用いるステップをさらに含むことを特徴とする、請求項12に記載の方法。

【図1】
image rotate

【図2A】
image rotate

【図2B】
image rotate

【図2C】
image rotate

【図2D】
image rotate

【図2E】
image rotate

【図2F】
image rotate

【図3A】
image rotate

【図3B】
image rotate

【図3C】
image rotate


【公表番号】特表2008−541860(P2008−541860A)
【公表日】平成20年11月27日(2008.11.27)
【国際特許分類】
【出願番号】特願2008−513625(P2008−513625)
【出願日】平成18年5月23日(2006.5.23)
【国際出願番号】PCT/US2006/019927
【国際公開番号】WO2006/127713
【国際公開日】平成18年11月30日(2006.11.30)
【出願人】(501139858)
【Fターム(参考)】