説明

ARオブジェクトとの光学的な重なり合いを判定する方法および装置

本発明は、環境を示す環境画像へARオブジェクトをフェードインする方法を意図しており、視点から見た環境の距離画像を撮影し、環境画像に配置されるべきARオブジェクトの表示を、当該オブジェクトが視点から見て環境画像の意図される場所に現れるように変更し、視点のほうを向いているARオブジェクトの部分について、当該部分が視点から見て距離画像の対応する画点に対して相対的にどのように位置しているかを判定し、少なくともARオブジェクトの一部の表示をその見かけ上の奥行きとの関係で所定の方法により変更し、こうして処理されたARオブジェクトを環境画像にフェードインする。環境を示す環境画像へARオブジェクトをフェードインする本発明の装置は、上記の方法ステップを実施するための相応の部材を有している。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、特に、環境を示す環境画像にARオブジェクトをフェードインするために、仮想物体(ARオブジェクト)の仮想画像と、現実環境の実画像との光学的な重なり合いを判定する方法および装置に関する。
【背景技術】
【0002】
すなわち本発明は、いわゆるオーグメンテッド・リアリティ(Augmented Reality(AR))の分野、ドイツ語で言えば拡大現実または強化現実の分野に属しており、これは、現実と仮想情報との視覚的な重なり合い(=拡張)である。ARオブジェクトまたはオーグメンテッド・リアリティ物体とは、コンピュータに、特にまず第1に記憶装置に、その物体についての空間情報が存在しており、この空間情報をもとにしてレンダリングにより画像が作成されてから、環境の環境画像にフェードインされ、ないしは環境に重ね合わされる物体のことである。ARオブジェクトの生成方法、すなわちこれを定義する空間情報の来歴は本質的なことではなく、それは純粋に数学的に生成されるか、またはモデリングされていてよく、あるいは、実在している現実の物体から得られた空間情報であってもよい。
【0003】
オーグメンテッド・リアリティでは、現実すなわち環境をビデオ画像として観察するか、または透明なスクリーンを通して観察することができ、これらにARオブジェクトのフェードインがそれぞれ行われる。前者の場合には「ビデオシースルー」(Video See−Through(VST))という表現が用いられ、後者の場合には「光学シースルー」(Optical See−Through(OST))という表現が用いられる。これ以外にもバーチャル化のバリエーションが他にもあるが、上記の2つの方式との間に本質的な違いはない。
【0004】
オーグメンテッド・リアリティは多種多様な形で利用することができ、また、実際に活用されている。たとえば、溶接棒ホルダなどの工具や工作物を表すARオブジェクトを、(この場合にはISO8373の意味における)機械やロボットの画像に正しい相互関係でフェードインさせることができ、それにより、たとえば追加の対象物(工作物、工具)によって制約される運動空間を認識することができる。これらの対象物のお互いの相互関係、および機械やロボットとの相互関係を表示して明示するための座標系を、フェードインさせることができる。また、たとえば操作説明書等の抜粋などのテキスト情報をフェードインさせることもできる。
【0005】
以下において、ARオブジェクトが環境画像のなかで可視化されるべき場合には、可視化の方式(VST,OSTまたはその他の方式)に関わりなく、環境画像という言葉を用いる。ARオブジェクトがシームレスに、すなわち正しい位置と遮蔽関係で環境画像へ組み込まれるように、ARオブジェクトを環境画像へフェードインできるようにするためには、遮蔽モデルとも呼ばれる、できる限り正確な環境モデルが必要である。このようなモデルは、特定の視角から光景を眺める観察者にとっては見ることができないARオブジェクトの部分を、フェードアウトするために用いられる。
【発明の開示】
【発明が解決しようとする課題】
【0006】
ロボットセルのモデルは、現実と近似的にしか一致しないという問題がある。その理由は、計画に沿ってロボットセルを厳密に作成することができないことや、設備を設置したり使用開始準備をしている間にさらに変化が生じていて、そのような変化がモデルで再現
されないことにある。従来、モデルと現実を相互に照らし合わせる、自動化された方法は存在していない。
【0007】
そのため遮蔽モデルは、あらゆるディテールまで現実を再現することはできない。たとえば(現実の)ロボットのモデルでは、ケーブル配線はモデルでは再現されないのが普通である。また遮蔽モデルは、それによって与えられる環境のモデルを、現実世界との関係で正確に正しい位置へ位置決めすることができない。このようなキャリブレーション誤差(見当合せ誤差とも呼ばれる)の結果として、ARオブジェクトが間違った状態で環境画像に埋め込まれることになる。隠れていなければならないはずのARオブジェクトの部分が見えたり、本来は見えなければならないはずのARオブジェクトの部分が見えないことによって、間違いが目に見えてしまう場合がある。
【0008】
本発明の課題は、前述のような問題を回避しながら、遮蔽モデルの生成にコストをかけることなく、ARオブジェクトを正しい位置と遮蔽関係でダイナミックに環境画像へリアルタイムに重ね合わせることである。
【課題を解決するための手段】
【0009】
本発明によれば前述の課題は、観察ポーズから実画像の画点を光学的に検出し、観察ポーズを基準とする実画像の画点について第1の奥行き位置を判定し、仮想物体のポーズと観察ポーズとを基礎として作成された仮想物体の仮想画像から画点を生成し、観察ポーズを基準とする仮想画像の画点について第2の奥行き位置を算出し、観察ポーズの同一の光学軸上で第1の奥行き位置と第2の奥行き位置を比較することを特徴とする、冒頭に述べた種類の方法によって解決される。この方法の1つの有利な実施形態は、視点から見た環境の距離画像が撮影され、環境画像に配置されるべきARオブジェクトの表示が、視点から見て環境画像の意図される場所に現れるように変更され、視点のほうを向いているARオブジェクトの部分について、当該部分が視点から見て距離画像の対応する画点に対して相対的にどのように位置しているかが判定され、すなわち環境の実画像の画点の奥行き位置が、生成されたARオブジェクトの画点の奥行き位置と比較され、少なくともARオブジェクトの一部の表示がその見かけ上の奥行きとの関係で、すなわち画像中における奥行き位置との関係で、前景に位置するARオブジェクトの画像領域が後景に位置するARオブジェクトの画像領域と光学的に別様に表示されるように変更され、こうして処理されたARオブジェクトが環境画像にフェードインされることを特徴としている。
【0010】
さらに本発明は前述の課題を解決するために、観察ポーズから実画像の画点を光学的に検出するための撮影装置と、観察ポーズを基準とする実画像の画点について第1の奥行き位置を判定するための判定装置と、仮想物体のポーズと観察ポーズとを基礎として作成された仮想物体の仮想画像から画点を生成するための生成装置と、観察ポーズを基準とする仮想画像の画点について第2の奥行き位置を算出するための計算装置と、観察ポーズの同一の光学軸上で第1の奥行き位置と第2の奥行き位置を比較するための比較装置とを備えていることを特徴とする、当分野に属する装置を意図しており、この装置は、視点から見た環境の距離画像を撮影するための撮影装置と、環境画像に配置されるべきARオブジェクトを視点から見て環境画像の意図される地点に現れるように表示するための表示装置と、視点のほうを向いているARオブジェクトの部分を、当該部分が視点から見て距離画像の対応する画点に対して相対的にどのように位置しているかを判定するための判定装置、すなわち環境の実画像の画点の奥行き位置を、生成されるARオブジェクトの画点の奥行き位置と比較するための判定装置と、視点から見て距離画像のそれぞれ対応する画像断片よりも後方にあるARオブジェクトの部分を、前景にあるARオブジェクトの画像領域が後景にあるARオブジェクトの画像領域と光学的に別様に表示されるように変更して表示するための表示装置と、ARオブジェクトを環境画像にフェードインするためのフェードイン装置とによって構成されているのが好ましい。本発明は特にロボットで利用され、お
よびロボットとの関連で利用される。
【0011】
仮想物体のポーズと観察ポーズを基礎として作成された仮想物体の仮想画像からの画点の生成は、レンダリングによって行うことができ、すなわち、空間的な仮想コンピュータモデルからの実画像の算出ないし生成によって行うことができる。観察者の視点を考慮したうえでのARオブジェクトの表示の変更とは、記憶されている仮想(3D)物体から、観察点および空間内での仮想(3D)物体のポーズを基礎として、最新の観察点についての(2D)画像(ARオブジェクト)を算出することを意味している。奥行き位置とは、視点から見て計算したときの、検出された画点の距離を意味している。環境の距離画像は実画像の画点であり、観察点から見た画点の距離についての情報が各画点に付属している。前景表示とは、奥行き位置に関して基準表示よりも前方に位置している表示のことであり、後景表示とは、奥行き位置に関して基準表示よりも後方に位置している表示として定義される。
【0012】
本発明の中心的思想は、光学系を用いて、現実環境の光景の画点だけでなく、検出された画点と視点との距離(奥行き位置)も検出され、それによって奥行き情報をデジタル画像データとともに直接的に、いわば同時に検出することによって、現実環境のモデリングを省略できることである。実画像の画点のこの奥行き位置を、仮想画像の奥行き位置と比較することで、重なり合い領域に関する判断を下すことができる。このような判断は、実画像の画点の奥行き位置と、フェードインされるべき仮想画像との簡単な比較によって可能であり、高いコストを要する計算を行わなくてよい。高いコストを要する計算を省略することで、本発明による方法にはリアルタイム能力があるという利点が得られる。
【0013】
VSTシステムでは視点はカメラの場所であり、OSTシステムでは観察者の一方または両方の目であり、距離画像を撮影するための装置は、観察者の目からその視野の中にある環境領域までの光学軸の近傍に配置されるのがよく、場合により、距離画像を撮影するための撮影装置の場所と、観察者の目との間で座標変換が行われる。
【0014】
前述した方法はリアルタイムで、すなわち現実世界の変化と歩調を合わせて進行するのが好ましく、本装置はリアルタイム処理をするように構成され、特にリアルタイムモードで作動する。このように本発明では、ARオブジェクトがダイナミックに環境画像へフェードインされ、VST方式では特に歩調を合わせて、ビデオ画像へ正しい位置と遮蔽関係でフェードインされる。このことは本発明によれば、高いコストのかかるモデリングプロセスを実行する代わりに、ARオブジェクトの正しい位置と遮蔽関係での処理のために、画像全体にわたる奥行き情報が直接援用されることによって実現される。そのために必要となる、ARオブジェクトが割り当てられるべき現実の対象物の座標系、たとえばロボットの座標系と、カメラの座標系との間の関係は、キャリブレーションによって通常の方法で求めることができる。これに続いて、空間内におけるARオブジェクトの既知のポーズが、既知の変換規則を用いてカメラの座標系へと変換され、さらに画像平面に変換される。それにより、所定の遮蔽規則に基づいてARオブジェクトのどの部分をどのような方法で表示すべきかを、測定された距離画像を基準として直接求めることができる。
【0015】
距離画像を撮影するには、原則としてさまざまな方法が考慮の対象となり、たとえば飛行時間測定(Time of Flight−TOF)、レーザスキャン、能動型三角測量、ステレオビジョン、デフォーカス処理による距離測定、構造化照明、モアレ技術、あるいは特に、たとえば米国特許第4184748号明細書に基づく、観察者の視野の中にある環境のきわめて短時間の照明が光カーテンによって行われ、環境から反射された光が、ナノセカンド単位の同じくきわめて短い時間的間隔で、たとえば(電気光学的な)影による遮光によって妨げられ、距離画像を作成するために処理される方法などが考慮の対象となる。重要なのは、本方法がきわめて迅速に進むことであり、すなわちリアルタイム能
力をもつことである。
【0016】
コンピュータで生起されてスクリーンに表示されるべき人工物体の場所と向きが既知である場合、スクリーン上での再生時に、自分のほうを向いている物体の点は見えるが物体そのものによって「遮蔽された」点は見えない観察者に対して表示されるように当該物体をモデルまたは空間情報として処理するのは、グラフィック処理または画像処理の通常の技術である。
【0017】
所定の方法でARオブジェクトを処理するために処理規則を設けることができ、たとえばコンピュータに記憶させておくことができ、たとえば有利な方法としては、ARオブジェクトの点のうち、たとえばロボットの手のフランジに取り付けられた溶接棒トーチの点のうち、視点から見て距離画像のそれぞれ対応する画点よりも後方に位置している点が、つまりたとえばロボットの手の領域よりも後方に位置している点が、環境画像にフェードインされるARオブジェクトからフェードアウトされるようにし、本例で言えば溶接棒トーチからフェードアウトされるようにすることができる。また、表示のなかのARオブジェクトの特定の特徴を、たとえばARオブジェクトの透明度や色、線の太さ、線の種類、ワイヤフレーム、全面モデル表示などを、環境画像の自然物体の境界線との距離に依存して変化させることができる。そのようにして、ARオブジェクトの点のうち、たとえば座標系の点のうち、視点から見て距離画像のそれぞれ対応する画点よりも後方に位置している点、たとえばロボット部品の「内部」に位置している点は、環境画像ではワイヤフレーム画像として表示したり、破線もしくは鎖線で表示することができる。このことは、たとえばARオブジェクトとしての伝動装置の伝動装置部品が、それ自体は伝動装置ハウジングカバーよりも後方に「位置している」が、それでもAR画像の中で見えるようにしたいという場合にも当てはまる。
【0018】
これに代わる有利な実施形態では、環境画像がビデオ画像として再生され、ARオブジェクトはビデオ画像にフェードインされるか(VST)、または、透明なシールドを通して環境画像を直接観察することが可能であり、ARオブジェクトは透明なシールドに、これを通して観察可能な環境画像へフェードインされる(OST)ことが意図されていてよい。
【0019】
これに対応する本装置の有利な実施形態では、VSTの枠内において、ARオブジェクトを表示するための表示装置は、撮影された環境画像を同じく表示する従来型のスクリーンであり、あるいはARオブジェクトを表示するための表示装置は、環境画像を通過させる透明なスクリーンである。これに代わる本発明の実施形態では、網膜ディスプレイが設けられる。
【0020】
距離画像を撮影するための撮影装置が上に略述したような形式の距離画像カメラである場合、1つの有利な実施形態は、この距離画像カメラがビデオカメラと組み合わされることを意図している。
【発明の効果】
【0021】
本発明は、現実の物体に即して仮想物体すなわちARオブジェクトのモデリングをするために利用することができる。たとえば、モデリングされるべき(現実の)物体の輪郭の複数の補間点を含んでいる包絡線を適合化することができる。また、実在するモデルのパラメータを、それが現実とより良く一致するように適合化することができる。それに続いて、複雑な工具やセル全体のインタラクティブに決定された簡素化されたモデルを、たとえば衝突回避計算のために利用することができる。他ならぬ現実世界の仮想物体と人間とのインタラクションにおいて、本発明の対象物の利点が可視化のときに明らかとなる。
【0022】
本発明のその他の利点および構成要件は、特許請求の範囲、および図面を参照して本発明の実施例が具体的に説明される以下の記述から明らかである。
【発明を実施するための最良の形態】
【0023】
図1は、ロボット加工セル1における典型的な状況を模式図で示している。部材3.1,3.2と関節4.1,4.2とを備えるEN ISO 8373の多関節ロボットが模式的に図示されている。関節4.2は、3つの個々の回転ジョイントで構成されるRotoidジョイントであり、これに機械的なインターフェース4.1とエンドエフェクター接続装置(たとえばグリッパ5のようなエンドエフェクターのためのロボット2の接続フランジ)が設けられている。さらにロボット2の脚部には、そのワールド座標系またはロボット座標系6が図示されている。さらに図1は、工作台7の上に配置された工作物8と、その周囲を通るロボット軌道9と示しており、このロボット軌道には、補間点と、このロボット軌道に付属する、プログラミングされた基本座標系または基準座標系10の模式図とが付されている。
【0024】
最後に、基本組立面1.1の上のロボット2と工作物8とで構成される光景または環境を撮影する定置のカメラ11、有利には3Dカメラが、そのカメラ座標系12とともに図示されている。
【0025】
カメラは従来式のバーチャルなビデオ画像だけでなく、表示される環境1の距離画像も撮影し、ロボット座標系とカメラ座標系との間の空間関係の算定に基づいて、カメラ11で撮影された画像でARオブジェクトをAR可視化するための前提条件である変換が行われる。
【0026】
図2aは同じ光景または環境を示しており、同じ部分には同じ符号が付されており、その限りにおいて、図2の説明にも図1を援用する。図2の実施形態では、カメラ11は定置ではなくロボットに配置されており、正確に言えばロボットの機械的なインターフェース4.3または手に配置されており、それによってカメラ座標系はロボットとともに可動である。
【0027】
図1に示す実施形態と比べたときのこの実施形態の利点は、こうすればAR可視化のために必要な、空間内での、およびロボット座標系6を基準とする、カメラ11のポーズをロボット2が自ら供給するという点にあり、前述した関係に関してはドイツ特許出願第10345743.7号明細書を援用する。このようにして外部で追跡をすることなく、かつモデル作成を行うことなく、非常に簡単に具体化することができる高い信頼度のAR可視化が可能である。
【0028】
図2bの実施形態では、カメラ11は利用者に対して一定の関係にあり、利用者と固定的につながっている。利用者は、スクリーンの形態の表示装置11aを有しており、この表示装置に環境とARオブジェクトがフェードインされる。さらに追跡補助具11bが設けられており、この追跡補助具を用いて、残りの環境および特にロボットに対して相対的な、利用者の変化する位置をその都度判定することができる。
【0029】
図3は、VST−ARシステムとしてAR可視化を行うための装置の有利な実施形態を模式図として示している。
【0030】
この装置は、ビデオ画像11.1だけでなく、距離画像11.2および場合により追跡情報11.4も供給する3Dビデオカメラ11(従来式の視覚的なビデオカメラと距離画像カメラとで構成)を有している。追跡システム13は、3Dビデオカメラの位置と回転を判定して追跡するためのシステムとして意図されており、場合によっては、カメラ11
で撮影された画像情報(特に距離画像も含む)を参照しながら作動することができる。
【0031】
カメラ11は現実世界、すなわちその視野のなかにある環境1、たとえば図1のロボット2の画像を撮影する。
【0032】
さらに本発明による装置は、ARオブジェクト15のストックを(記憶装置ないし独自の記憶媒体に)有している。さらに、環境画像に配置されるべき少なくとも1つのARオブジェクトを処理するための処理ユニット16が、視点から見てその物体が環境画像14の意図される場所に現れるように設けられており、つまりこの処理ユニットによって、仮想世界(ARオブジェクト)を見る眺めとしてのバーチャル画像の生成が行われる。その後には、奥行きフィルタ17、ビデオミキサー18、およびスクリーンの形態の再生装置19が続いており、観察者20はこのスクリーンの上で、重ね合わされた環境画像とARオブジェクトを観察することができる。
【0033】
まず最初に、ビデオ画像と距離画像が同時に撮影される。続いて、ARオブジェクト15が正しいサイズと位置で現れるように装置16で処理される。こうして処理された各々のARオブジェクトは、距離画像11.3と同様に、ARオブジェクトの各点を処理するための処理装置の考えられる1つの態様である距離画像フィルタ17へと供給され、上に述べた(以下においてさらに詳しく説明する)処理操作、たとえば部分領域のフェードアウト、破線表示等をARオブジェクトに対して行うことができる。こうして再処理された各々のARオブジェクト15は、ビデオ画像11.1と同様に、環境画像へARオブジェクトをフェードインするためのフェードイン装置としてのビデオミキサー18へと供給され、こうしてミックスされた画像がモニタまたはスクリーン19に供給され、それにより観察者は、現実環境と少なくとも1つのARオブジェクトとが重ね合わされたこのAR画像を観察することができる。
【0034】
ARオブジェクトの処理および環境画像への挿入が、図4aから図4dおよび図5aから図5cで詳細に図示されている。
【0035】
図4aには、環境の距離画像において、包絡面により囲まれた点群の輪郭線が模式的に示されている(現実物体14)。図4bは、ARオブジェクト15.1それ自体を正方形の形態で模式的に示している。図4cには、図4bのARオブジェクトが、図4aの環境画像へ挿入するために、そのサイズと向き(姿勢)に関して変更された様子が示されており、つまり本例において具体的には、拡大されて回転させられた様子が示されている。そして図4dは、現実物体の環境画像とARオブジェクトとの重ね合わせを示しており、ARオブジェクトの一部は視線方向(紙面に対する平面図)で見て現実物体14の後方に位置するようにフェードアウトされて表示されておらず、すなわち図4dに明示されているように、観察者にとっては見ることができない。ARオブジェクトは、現実物体14の後方に位置しているという印象を与える。
【0036】
図5aから図5cには、正方形と円形の形状をもつ2つの単純な現実物体14.1および14.2、ならびにARオブジェクト16としての座標系16.1,16.2,16.3によって上述の状況が示されている。座標系16.1は物体14.1の中心点に位置しており、両者の重なり合い領域では座標系16.1が観察者に破線で表示される。さらに座標系16.2は、図5aでは一例として円形物体14.2のもっとも左側の点上に位置している。物体14.2と重なり合った領域にある水平軸は同じく破線で表示されており、カメラ11の視線方向から見て物体14.2の後方に位置している垂直軸の領域、ならびに視線方向で見て物体16.1の後方にある座標系16.2の垂直軸の先端部も同様である。
【0037】
両方の物体の手前に位置する座標系16.3の形態のARオブジェクトは、この視線方向のときには完全かつ変更なしに表示される。
【0038】
図5bは、図5aと反対向きの視線方向から見た物体14.1,14.2の観察状態を示している。ここでは、ARオブジェクト16.1のうち垂直軸が物体14.1との重なり合い領域で破線表示されており、カメラ11の視線方向から見て物体の内部ないし後方に位置している水平軸は、全体として破線で表示されている。物体14.1の後方に位置する座標系16.3は、図5bカメラ11の視線方向からは見えない領域で、すなわち垂直軸の部分領域で、破線により表示されている。座標系16.2では、原点の位置に基づいて垂直軸は完全に見ることができるのに対して、水平軸は破線で表示されている。
【0039】
図5cの実施形態は、座標系の水平軸に対して有限角をもつ図5aの変形例を示している。物体16.1および16.2は、図5aの例と同じように見ることができる。物体16.2の水平軸についても同様のことが言えるのに対して、視角が異なっているために、物体14.2を通る垂直軸は短い領域しか隠されておらず、したがって短い領域しか破線で表示されておらず、逆に上側領域ではほとんど物体14.1で隠されており、そのために、より大きい長さが破線で表示されている。
【0040】
図6は、VST可視化の場合における本発明の方法の考えられるフローチャートを示している。このフローチャートおよび以下において順次式に進行するように説明される各ステップは、部分的に並行化することもでき、すなわち同時に進行させることもできる。
【0041】
スタートAの後、ステップBで現実世界の図像としてのビデオ撮影の開始とデジタル化が行われる。ステップBと並行して進めることができるステップCで、距離画像カメラによる撮影の一環として、距離画像(奥行き画像または点群とも呼ばれる)の生成が行われる。次のステップDでは、場合により距離画像カメラのポーズ(位置と向き)の判定が行われる。追跡情報が外部のセンサシステムから供給されるのであれば、ステップDも、場合によりステップBおよびCと並行して行うことができる。続いてステップEで、環境画像へ配置されるべきARオブジェクトが、カメラの視点から見て環境画像の中の意図される場所に現れるように処理される。すなわち、前のステップで判定されたポーズを参照しながら、AR画像すなわち仮想世界の図像の生成が行われる。これが完了すると、その次のステップで、少なくとも、視点から見て現実世界の距離画像のそれぞれ対応する画点よりも後方に位置しているARオブジェクトの点が所定のやり方で処理され、そのために、たとえば距離画像カメラから見て、生起された(現実の環境画像の)点群よりも後方に位置しているAR画像の画像断片に属性が与えられる(ステップF)。画像断片ないし画点は、奥行きフィルタによって属性が与えられる。この属性は、典型的な場合、カメラから画像断片ないし画点までの距離、ないしは奥行きプロフィルと相関関係にある。このような画像断片に属性が与えられた場合(決定ステップG)、その特徴をもつAR画像の画像断片の処理は、たとえば色の変更、透明度の変更、破線での表現、フェードアウト等によって行われる(ステップH)。ステップGおよびHは画像のすべての点について実施され、すなわち、奥行きフィルタによって属性が与えられていないかどうかが、各々の画像断片/ピクセルで調べられる。属性が与えられていれば、そのピクセルは属性(色、透明度など)に基づいて変更される。属性が与えられていなければ、次の画像断片/ピクセルで手順が続行される。
【0042】
そして次のステップ(ステップI)で、現実世界のビデオ画像の対応する画点の上に、AR画像の画点の重ね合わせが行われ、そして最後にステップJで、強化現実ビデオ画像の可視化が行われる。ビデオカメラで生成された次のビデオ画像でも上記のプロセスを行おうとするときは、ステップBにジャンプして戻り(決定ステップK)、次の画像の処理が上述した方法で行われ、それ以外の場合には手順進行が終了する(ステップL)。
【0043】
OST可視化の場合、基本的に必要のないステップBおよびIは省略されるが、それ以外の手順進行はほぼ同じであり、ステップJでは、観察者の視野へ仮想画像をフェードインさせることによるARオブジェクトの可視化が意図されており、その様子は図7に図示されている。
【0044】
図7から図9は、OSTオーグメンテッド・リアリティシステムについて本発明の対象物を説明するものである。ここでも同じ部分には同じ符号が付されている。特に図1から図3および図6の実施形態に比べて変わりがない部分については、繰り返しを避けるために同所の説明を援用する。
【0045】
図7の実施形態では、カメラ11は利用者と一定の関係にあり、利用者と固定的につながっている。利用者は網膜ディスプレイ11cを有しており、この網膜ディスプレイによってAR画像が観察者の網膜に投影されて、観察者が見ている現実環境にAR画像がフェードインされる。
【0046】
図8は、カメラ11で検出される現実世界の光景(環境)を同じく示しているが、ここでのカメラは純粋な距離画像カメラであってよい。既存のARオブジェクト15は、ポーズを継続的に調べるために用いられる追跡システム13を利用しながら、検出された距離画像11.3に合わせて同様の方法で適合化されてから、表示装置としての半透明のスクリーン19’の上で、透明なスクリーンだけを通して光景14を直接見ている観察者20の視野にフェードインされ、それにより、適合化されたARオブジェクトが正しい位置と正しい表示方法で、観察者が見ている環境画像に現れることになる。
【0047】
図9に示す方法手順も、OST観察によって生じる変化を除いて、VST可視化の方法手順に基本的に準じており、したがって、その部分については原則として図6の説明を援用することができる。
【0048】
ビデオ画像の撮影とデジタル化をするVST方法手順のステップBは必要ない。なぜなら、前述したようにOST可視化の場合、観察者は光景または環境を直接観察し、もしくは透明なスクリーンを通して観察し、画像モニタを通じて観察するのではないからである。それに応じて、現実世界のビデオ画像の対応する画点に仮想画像の画点を重ね合わせるステップIも不要である。この作業は単に可視化によって行われ、すなわち、観察者の視野へのAR画像のフェードインが行われる(ステップJ’)。それ以外の点では、各方法ステップはVST可視化についての図6の方法ステップに呼応している。
【0049】
本発明による方法ならびに本発明による装置は、現実の物体を仮想物体またはARオブジェクトとしてモデリングするのに利用できるという利点があり、以下、これについて図10aから図10gを参照しながら説明する:
溶接棒トーチや、以下の例のようなグリッパであるロボット工具を、立方体や球などの小さい基本幾何学形状を用いて現場でモデリングすることができ、そのために、基本幾何学形状が拡張現実の中で人物によってだんだんと位置決めされる。図10aは、まず最初に、(現実の)グリッパ5を備えるロボット2を示している。図10bではこれに加えて、ARオブジェクトがフェードインされているメガネをかけた人物20aが示されている。そして人物20aは、ここには図示しない操作装置を通じて、(ここでは破線の長方形のフレームとして二次元でのみ示す)グリッパ5を中心とする直方体のフレーム30の形態のARオブジェクトをつくる。実在している現実のグリッパ5に合わせてできるだけ正確に適合化された仮想物体またはARオブジェクトをつくるために操作者20aが行うそれ以後のモデリングが、図10cから図10gに示されており、図10cは現実のグリッパ5を中心とする直方体を再度示している。まず最初にフレーム30を、現実の物体(グ
リッパ5)の全体を包む直方体31まで縮小させる。次いで、一方ではトラバース5aと接続プレート5b、他方ではそれぞれのグリッパアーム5c,5dを取り囲むさらに小さい直方体を形成することによって、いっそうの近似化が行われる(図10e)。それから直方体32を、トラバースを模倣する直方体36と接続プレートを模倣する直方体37とに分割する(図10f)。最後に、先の尖ったグリッパアーム5b,5cを、相応の幾何学図形38,39によって模倣することができる。そして、こうして形成されたARオブジェクトを保存(記憶)しておき、可視化、衝突回避、シミュレーション、およびこれに類する以後の用途のために利用することができる。
【0050】
図11と図12は、一例としての(理想化された)VST可視化装置およびOST可視化装置を示している。この両方の装置は「ARメガネ」と呼ぶことができよう。このとき理想的には、人間の観察者の視点と3Dカメラの視点とが一致する(本例では鏡によって実現される)。図11では、二重の図面で示す観察者20の視界に鏡41が配置されており、この鏡により、一方では(さらに別の鏡42を介して)環境画像がカメラ11へと偏向され、他方では、画像全体(現実画像とAR画像)がプロジェクタの前へ投影され、そのようにして観察者20が見ることができる。
【0051】
図12の実施形態では、観察者20の視界に半透過性の鏡44が配置されており、この鏡を介して(および同じく鏡42を介して)環境画像が距離画像カメラ11に向けられるとともに、この鏡によって観察者20は周囲を観察することができる。さらに、鏡44によってプロジェクタ43のAR画像が観察者20の視界へと偏向され、そのようにして、観察者が見ることのできる(現実の)環境と重ね合わされる。
【図面の簡単な説明】
【0052】
【図1】VST可視化のために距離画像と通常のビデオ画像を両方とも供給する定置のカメラを備える、AR可視化の状況を示す模式図である。
【図2a】ロボットと一緒に動く距離画像カメラを備える、AR可視化の状況を示す図である。
【図2b】VST−AR可視化のために利用者と一緒に動く距離画像カメラを用いた、AR可視化の状況を示す模式図である。
【図3】VST−ARシステムについて本発明の機能原理を示す模式図である。
【図4】a−dは、現実の物体の環境画像の領域に、ARオブジェクトとして、正しい位置と遮蔽関係でフェードインをするための仮想物体の処理を示す模式的な図である。
【図5a】視点と、現実に存在する、部分的にARオブジェクトへの視界を遮る物体とを考慮したうえで、ARオブジェクトとしての座標系をさまざまな視覚から環境画像へフェードインする図である。
【図5b】視点と、現実に存在する、部分的にARオブジェクトへの視界を遮る物体とを考慮したうえで、ARオブジェクトとしての座標系をさまざまな視覚から環境画像へフェードインする図である。
【図5c】視点と、現実に存在する、部分的にARオブジェクトへの視界を遮る物体とを考慮したうえで、ARオブジェクトとしての座標系をさまざまな視覚から環境画像へフェードインする図である。
【図6】VST可視化の場合における本発明の方法の進行順序を示す図である。
【図7】ARメガネに組み込まれ、利用者の身体が動くと一緒に動く3Dカメラを用いた、OST−AR可視化を示す模式図である。
【図8】OST−ARシステムについて本発明の対象物を示す模式図である。
【図9】OST可視化の場合における本発明の方法のフローチャートである。
【図10】a−gは、ロボットのグリッパのインタラクティブなモデリングに関する図である。
【図11】距離画像と環境の画像を両方とも撮影する3Dカメラを備える、ビデオシースルー(VST)可視化をするための装置の一例である。
【図12】距離画像だけが評価される3Dカメラを備える、光学シースルー(OST)可視化をするための装置の一例である。
【符号の説明】
【0053】
1 ロボット加工セル
1.1 基本組立面
1 環境
2 ロボット
3.1,3.2 部材
4.1 関節
4.1 インターフェース
4.2 関節
4.3 インターフェース
5 グリッパ
5a トラバース
5b 接続プレート
5c,5d グリッパアーム
6 ロボット座標系
7 工作物台
8 工作物
9 ロボット軌道
10 座標系
11 カメラ
11a 表示装置
11b 追跡補助具
11c 網膜ディスプレイ
11.1 ビデオ画像
11.2 距離画像
11.3 距離画像
11.4 追跡情報
12 カメラ座標系
13 追跡システム
14,14.1,14.2 物体
15 ARオブジェクト
15.1 ARオブジェクト
16 処理装置
16.1,16.2,16.3 ARオブジェクトとしての座標系
17 距離画像フィルタ
18 ビデオミキサー
19 再生装置
19’ スクリーン、ARメガネ
20 観察者
20a 人物
30 フレーム
31−34 直方体
36,37 直方体
38,39 幾何学図形
41,42,44 鏡
43 プロジェクタ

【特許請求の範囲】
【請求項1】
仮想物体(ARオブジェクト)の仮想画像と現実環境の実画像との光学的な重なり合いを判定する方法において、観察ポーズから実画像の画点を光学的に検出し、観察ポーズを基準とする実画像の画点について第1の奥行き位置を判定し、仮想物体のポーズと観察ポーズとを基礎として作成された仮想物体の仮想画像から画点を生成し、観察ポーズを基準とする仮想画像の画点について第2の奥行き位置を算出し、観察ポーズの同一の光学軸上で第1の奥行き位置と第2の奥行き位置を比較することを特徴とする方法。
【請求項2】
実画像の画点の奥行き位置よりも奥行き位置が小さい仮想画像の画点は、現実環境の画像表示へ前景表示として光学的にフェードインされることを特徴とする、請求項1に記載の方法。
【請求項3】
実画像の画点の奥行き位置よりも奥行き位置が大きい仮想画像の画点は、光学的にフェードアウトされるか、または前景表示に対して光学的に変更された表示で現実環境の画像表示へ後景表示として光学的にフェードインされることを特徴とする、請求項1または2に記載の方法。
【請求項4】
実画像の画点の奥行き位置は、有利には画像検出と同時に、光学センサによって検出され、特にRGBDカメラによって検出されることを特徴とする、前記請求項のうちいずれか1項に記載の方法。
【請求項5】
環境を示す環境画像へARオブジェクトをフェードインする、特に請求項1から4までのいずれか1項に記載の方法において、
視点から見た環境の距離画像を撮影し、
環境画像に配置されるべきARオブジェクトの表示を、視点から見て当該ARオブジェクトが環境画像の意図される場所に現れるように変更し、
視点のほうを向いているARオブジェクトの部分について、当該部分が視点から見て距離画像の対応する画点に対して相対的にどのように位置しているかを判定し、すなわち環境の実画像の画点の奥行き位置を、生成されたARオブジェクトの画点の奥行き位置と比較し、
少なくともARオブジェクトの一部の表示をその見かけ上の奥行きとの関係で、すなわち画像中における奥行き位置との関係で、前景に位置するARオブジェクトの画像領域が後景に位置するARオブジェクトの画像領域と光学的に別様に表示されるように変更し、
こうして処理されたARオブジェクトを環境画像にフェードインすることを特徴とする方法。
【請求項6】
視点から見て距離画像のそれぞれ対応する画像断片よりも後方に位置しているARオブジェクトの部分は、所定の方法で表示されることを特徴とする、請求項1から5までのいずれか1項に記載の方法。
【請求項7】
視点から見て距離画像のそれぞれ対応する画像領域よりも後方に位置しているARオブジェクトの部分は、環境画像に挿入されたARオブジェクトでは抑圧されることを特徴とする、請求項1から6までのいずれか1項に記載の方法。
【請求項8】
視点から見て距離画像のそれぞれ対応する画像領域よりも後方に位置しているARオブジェクトの部分は、環境画像ではエッジモデルとして破線で表示され、鎖線で表示され、および/または透明度や色に関して変更された状態で表示されることを特徴とする、請求項1から7までのいずれか1項に記載の方法。
【請求項9】
環境画像はビデオ画像として再生され、ARオブジェクトはビデオ画像にフェードインされることを特徴とする、前記請求項のうちいずれか1項に記載の方法。
【請求項10】
環境画像は透明なシールドを通して直接的に観察可能であり、ARオブジェクトは前記透明なシールドに、これを通して観察される環境画像へフェードインされることを特徴とする、請求項1から8までのいずれか1項に記載の方法。
【請求項11】
ARオブジェクトは連続的なビデオデータストリームにリアルタイムでフェードインされ、または個別画像ないし静止画像としてフェードインされることを特徴とする、前記請求項のうちいずれか1項に記載の方法。
【請求項12】
仮想物体(ARオブジェクト)の仮想画像と現実環境の実画像との光学的な重なり合いを判定する装置において、観察ポーズから実画像の画点を光学的に検出するための撮影装置(11)と、観察ポーズを基準とする実画像の画点について第1の奥行き位置を判定するための判定装置(11)と、仮想物体のポーズと観察ポーズとを基礎として作成された仮想物体の仮想画像から画点を生成するための生成装置(11)と、観察ポーズを基準とする仮想画像の画点について第2の奥行き位置を算出するための計算装置(16)と、観察ポーズの同一の光学軸上で第1の奥行き位置と第2の奥行き位置とを比較するための比較装置(17)とを備えていることを特徴とする装置。
【請求項13】
実画像の画点の奥行き位置よりも奥行き位置が小さい仮想画像の画点を、現実環境の画像表示へ前景表示として光学的にフェードインするためのフェードイン装置(18)を備えていることを特徴とする、請求項12に記載の装置。
【請求項14】
実画像の画点の奥行き位置よりも奥行き位置が大きい仮想画像の画点を光学的にフェードアウトするか、または前景表示に対して光学的に変更された表示で現実環境の画像表示へ後景表示として光学的にフェードインするためのミキサー装置(18)を備えていることを特徴とする、請求項12または13に記載の装置。
【請求項15】
実画像の画点の奥行き位置は、有利には画像検出と同時に、光学センサによって検出され、特にRGBDカメラによって検出されることを特徴とする、請求項12から14までのいずれか1項に記載の装置。
【請求項16】
環境を示す環境画像へARオブジェクトをフェードインする、特に請求項12から15までのいずれか1項に記載の装置において、
視点から見た環境の距離画像を撮影するための撮影装置と、
環境画像に配置されるべきARオブジェクトを、当該オブジェクトが視点から見て環境画像の意図される場所に現れるように表示するための表示装置と、
視点のほうを向いているARオブジェクトの部分について、当該部分が視点から見て距離画像の対応する画点に対して相対的にどのように位置しているかを判定するための判定装置、すなわち環境の実画像の画点の奥行き位置を、生成されたARオブジェクトの画点の奥行き位置と比較するための判定装置と、
視点から見て距離画像のそれぞれ対応する画像断片よりも後方に位置しているARオブジェクトの部分を、前景に位置するARオブジェクトの画像領域が後景に位置するARオブジェクトの画像領域と光学的に別様に表示されるように変更して表示するための第2の表示装置と、
ARオブジェクトを環境画像へフェードインするためのフェードイン装置とを備えていることを特徴とする装置。
【請求項17】
距離画像を撮影するための前記撮影装置はレーザスキャナを有していることを特徴とす
る、請求項12から16までのいずれか1項に記載の装置。
【請求項18】
距離画像を撮影するための前記撮影装置は距離画像カメラであることを特徴とする、請求項12から17までのいずれか1項に記載の装置。
【請求項19】
ARオブジェクトを表示するための表示装置は、撮影された環境画像を同じく表示する従来型のスクリーンであり、または環境画像を透過させる透明なスクリーンであり、または網膜ディスプレイであることを特徴とする、請求項12から18までのいずれか1項に記載の装置。

【図1】
image rotate

【図2a】
image rotate

【図2b】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5a】
image rotate

【図5b】
image rotate

【図5c】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate


【公表番号】特表2008−532149(P2008−532149A)
【公表日】平成20年8月14日(2008.8.14)
【国際特許分類】
【出願番号】特願2007−557397(P2007−557397)
【出願日】平成18年2月25日(2006.2.25)
【国際出願番号】PCT/EP2006/001753
【国際公開番号】WO2006/092251
【国際公開日】平成18年9月8日(2006.9.8)
【出願人】(598057361)クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング (16)
【氏名又は名称原語表記】KUKA ROBOTER GMBH
【Fターム(参考)】