説明

繰り返し撮影用ARナビゲーション及び差異抽出のシステム、方法及びプログラム

【課題】以前に撮影した写真と同じ位置及びカメラアングルでユーザが写真撮影することを支援するシステム及び方法。
【解決手段】このシステムによれば、カメラ姿勢が算出され、被写体(801)に対する所望のカメラアングルを示す表示が描画される。錐図形800は被写体点Pからカメラ位置Cへの所望の方向をユーザに指示する。被写体点Pを中心とし半径dの球図形801は、ユーザに関心領域の位置及びサイズを提示する。この表示によりユーザは繰り返し撮影のための同じカメラアングルにガイドされる。写真を3Dモデル上に3D描画技術を利用して仮想的に投影し、これを調整して写真間の整合を改善すると共に、2つの写真間の差異を検出してハイライト表示する。検出された差異をハイライト表示することにより、ユーザが差異を認識することを支援する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、一般にカメラを含むシステム、方法及びプログラムに関し、特に、カメラのナビゲーション支援や写真の差異抽出の提供に関する。
【背景技術】
【0002】
対象物や景色の変化を観察するために、繰り返し撮影されることがある。「繰り返し撮影」即ち「リフォトグラフィ(rephotography)」の分野での最も有名な例としては、歴史的建造物又は自然風景の経時変化を示すためのものがある。例えばリフォトグラフィ写真家は、USGS繰り返し撮影プロジェクト及びVERTIGOに見られるように、何年も前に取られた写真と同じカメラアングル及び位置で山や建物の写真を撮る。製造分野においても、繰り返し撮影は検査に実用化されている。例えば一方に問題がありもう一方は正しく機能する2つの工業部品を比較するために、両方の部品の写真を撮ってその差を比較することが行われる。しかし、手持ちカメラを利用する場合、同じカメラアングルから1つの被写体を2度写真撮影することは容易ではない。
【0003】
同一のカメラアングルで写真を撮るためには、被写体とカメラとの幾何学的位置関係を算出しなければならない。カメラ姿勢を算出し、被写体の写真をその3Dモデルに合わせるための手法は多くある。Viewfinderプロジェクト及びMarmotaプロジェクトでは、風景写真をグーグルアースの対応3Dモデルに合わせる(非特許文献1)。またカメラ姿勢を、3D CADモデルを利用して被写体から算出することもできる(非特許文献2)。また、マーカーをトラッキングすることで撮影時のカメラのアングルや写真の位置を推定する方法が知られている(非特許文献3)。
【先行技術文献】
【非特許文献】
【0004】
【非特許文献1】ジョン・ドミング(John Domingue)、ディエテル・フェンセル(Dieter Fensel)及びパオロ・トラヴェルソ(Paolo Traverso)、「環境関係コンテンツの作成と“未来のインターネット”における可視化(Environmental Content Creation and Visualisation in the ‘Future Internet’)」、エフアイエス2008(FIS2008)、2008年
【非特許文献2】ハラルド・ウエスト(Harald Wuest)及びディディエル・ストリッカー(Didier Stricker)、「CADモデルを利用した工業用被写体の追跡(Tracking of Industrial Objects by using CAD models)」、ジャーナル オブ ヴァーチャルリアリティー アンド ブロードキャスティング(Journal of Virtual Reality and Broadcasting)、4巻、1号、2007年
【非特許文献3】カトウ ヒロカズ(Kato, H)、マーク ビリングハースト(Billinghurst, M.)、「ビデオベース拡張現実会議システムのためのマーカートラッキングとHMDキャリブレーション」(Marker Tracking and HMD Calibration for a video−based Augmented Reality Conferencing System)、第2回国際仮想現実ワークショップ予稿集( In Proceedings of the 2nd International Workshop on Augmented Reality)、1999年
【発明の概要】
【発明が解決しようとする課題】
【0005】
以前撮った写真と同じカメラ位置及びアングルにリアルタイムでユーザをガイドできるシステム、方法、及びプログラムが望まれている。
【課題を解決するための手段】
【0006】
本発明の第1の態様によれば、被写体を撮影した第1の写真ならびに被写体に関するアングル及び位置に関する情報を格納する写真データベースと、映像を取得し、第2の写真を撮影するカメラと、被写体に対する前記映像を撮影しているアングル及び位置を決定する決定手段と、表示装置に表示される前記映像上に、前記被写体に関するアングルを示す第1の指示表示、及び、前記被写体の位置を示す第2の指示表示をオーバレイ表示し、前記映像を撮影している前記アングル及び前記位置が前記第1の写真の前記被写体に関するアングル及び位置の所定許容範囲内にある場合に第3の指示表示を提供するガイド手段と、を備える、システムが提供される。
【0007】
本発明の第2の態様によれば、第1の態様において、前記データベースは、前記第1の写真の被写体に関する仮想3Dモデルを更に格納してもよい。
【0008】
本発明の第3の態様によれば、第2の態様において、前記ガイド手段は、前記映像に対して相対的に前記仮想3Dモデルを使用して、前記第1の指示表示及び第2の指示表示を利用して、前記被写体を撮影しているアングル及び位置を示してもよい。
【0009】
本発明の第4の態様によれば、第2又は3の態様において、前記映像に含まれる前記第2の写真と、前記写真データベースから選択された前記第1の写真との視覚上の差異を分析してハイライト表示する比較手段を更に備えてもよい。
【0010】
本発明の第5の態様によれば、第4の態様において、前記比較手段は、前記仮想3Dモデルの幾何形状を利用して前記差異の検出を支援してもよく、前記第2の写真は前記第1の写真の被写体に関するアングル及び位置の所定許容範囲内にあってもよい。
【0011】
本発明の第6の態様によれば、第1〜5のいずれかの態様において、前記映像の位置が前記被写体を撮影しているアングル及び位置に対して所定許容範囲内にある場合に、前記第3の指示表示は、前記第1の指示表示及び前記第2の指示表示の色を変化させてもよい。
【0012】
本発明の第7の態様によれば、第1〜6のいずれかの態様において、前記被写体と前記所定許容範囲とに関連するベクトルが計算されてもよい。
【0013】
本発明の第8の態様によれば、第4〜7のいずれかの態様において、前記比較手段は、前記仮想3Dモデルに対して前記第2の写真を分析し、前記仮想3Dモデル表面上の未撮影領域を判定してもよい。
【0014】
本発明の第9の態様によれば、第8の態様において、前記比較手段が、前記視覚上の差異をハイライト表示する場合に、前記未撮影領域に対する判定を行わなくてもよい。
【0015】
本発明の第10の態様によれば、第4〜9のいずれかの態様において、前記第2の写真から画像領域が抽出され、前記抽出された画像領域は前記仮想3Dモデル上に投影され、前記投影された画像領域は前記差異の一部として利用されてもよい。
【0016】
本発明の第11の態様によれば、第1〜10のいずれかの態様において、前記カメラを第1の写真のカメラアングル及び位置に揃うようにナビゲートする音声ガイダンスを生成する音声ナビゲーション手段を更に備えてもよい。
【0017】
本発明の第12の態様によれば、第2〜11のいずれかの態様において、前記ガイド手段が、被写体からの距離と、前記カメラのパン及びチルト角と、前記カメラの上方向角度とのうちの少なくとも1つを示す追加の指示表示を、前記映像上にオーバレイ表示してもよい。
【0018】
本発明の第13の態様によれば、第1〜12のいずれかの態様において、前記第1の指示表示は錐形で表示されてもよい。
【0019】
本発明の第14の態様によれば、第1〜13のいずれかの態様において、前記第2の指示表示は球形で表示されてもよい。
【0020】
本発明の第15の態様によれば、第7〜14のいずれかの態様において、前記第1の指示表示及び第2の指示表示が筒形で表示され、前記筒形の半径は所定の許容誤差を表し、前記筒形の軸は前記被写体に関するアングルに関する算出ベクトルを表してもよい。
【0021】
本発明の第16の態様によれば、以前に撮影した写真と同じアングル及び位置でスナップ写真を撮るためカメラをナビゲートする方法であって、決定手段が、仮想3Dモデルに基づいて以前に撮影した写真のアングル及び位置を決定し、前記決定手段が、前記仮想3Dモデルに対する、カメラにより取得される映像のカメラアングル及び位置を決定し、ガイド手段が、前記決定された映像のカメラアングル及び位置に対する相対的な前記決定された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの映像上に指示表示をオーバレイ表示する、ことを含む、方法が提供される。
【0022】
本発明の第17の態様によれば、第16の態様において、前記ガイド手段が、前記決定された映像のアングル及び位置が、前記決定された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含んでもよい。
【0023】
本発明の第18の態様によれば、以前に撮影した写真と同じアングル及び位置でスナップ写真を撮るためカメラをナビゲートする方法であって、受信手段が、以前に撮影した写真に関する情報を入力として受信し、決定手段が、前記入力に基づいて、前記以前に撮影した写真のカメラアングル及び位置を算出し、決定手段が、カメラにより取得される映像のアングル及び位置を決定し、ガイド手段が、前記決定された映像のアングル及び位置に対する相対的な前記算出された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの映像上に指示表示をオーバレイ表示する、ことを含む、方法が提供される。
【0024】
本発明の第19の態様によれば、第18の態様において、前記ガイド手段が、前記決定された映像のアングル及び位置が、前記算出された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含んでもよい。
【0025】
本発明の第20の態様によれば、以前に撮影した写真と同じアングル及び位置でスナップ写真を撮るためカメラをナビゲートするための処理をコンピュータに実行させるためのプログラムであって、前記処理は、仮想3Dモデルに基づいて以前に撮影した写真のアングル及び位置を決定し、前記仮想3Dモデルに対する、カメラにより取得される映像のカメラアングル及び位置を決定し、前記決定された映像のカメラアングル及び位置に対する相対的な前記決定された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの映像上に指示表示をオーバレイ表示する、ことを含む、プログラムが提供される。
【0026】
本発明の第21の態様によれば、第20の態様において、前記処理は、前記決定された映像のアングル及び位置が、前記決定された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含んでもよい。
【0027】
本発明の第22の態様によれば、以前に撮影した写真と同じアングル及び位置でのスナップ写真を撮るためカメラをナビゲートするための処理をコンピュータに実行させるためのプログラムであって、前記処理は、以前に撮影した写真に関する情報を入力として受信し、前記入力に基づいて、前記以前に撮影した写真のカメラアングル及び位置を算出し、カメラにより取得される映像のアングル及び位置を決定し、前記決定された映像のアングル及び位置に対する相対的な前記算出された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの前記映像上に指示表示をオーバレイ表示する、ことを含む、プログラムが提供される。
【0028】
本発明の第23の態様によれば、第22の態様において、前記処理は、前記決定された映像のアングル及び位置が、前記算出された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含んでもよい。
【0029】
本発明に関するその他の態様は、以下の記載で部分的に説明され、また記載から部分的に明白であり、又は本発明の実行により習得することができる。本発明の態様は、以下の詳細な記載及び添付の特許請求の範囲において特に指摘された要素、及び種々の要素と態様との組合せによって、実現及び達成することができる。
【0030】
上記及び以下の記載はいずれも、単に例示及び説明を目的とするものであり、特許請求の範囲に記載の発明もしくはその出願をいかなる形であれ限定することは全く意図されていないことを理解されたい。
【発明の効果】
【0031】
以前撮った写真のカメラ位置及びアングルにユーザをガイドするシステム、方法、及びプログラムが提供される。
【図面の簡単な説明】
【0032】
本明細書に組み込まれ、本明細書の一部をなす添付の図面が、本発明の実施形態を例示し、記載と相俟って、本発明技術の原理の説明及び例示に供する。
【図1】ディスプレイが付属したカメラを備える本発明の一実施形態を示す図である。
【図2A】テーブル上のARマーカの例を示す図である。
【図2B】テーブル上のARマーカの例を示す図である。
【図3】写真撮影のフローチャートの例を示す図である。
【図4】関心領域を示す円の例を示す図である。
【図5】目標被写体とカメラとの幾何学的相対関係の例を示す図である。
【図6】写真グループ用のデータ構造の例を示す図である。
【図7】ナビゲーション支援によりユーザの第2の写真の撮影をガイドするフローチャート例を示す図である。
【図8】本発明システムにおいて使用されるナビゲーション用円錐図形及び球図形を決定する量及び幾何学的関係を示す図である。
【図9】写真グループのデータから生成した円錐図形及び球図形の例を示す図である。
【図10A】円錐図形及び球図形を含む、異なるカメラ位置でのARビューの例を示す図である。
【図10B】円錐図形及び球図形を含む、異なるカメラ位置でのARビューの例を示す図である。
【図11】写真グループ1に第2の写真を追加した後の格納データの例を示す図である。
【図12】本発明のシステムで利用できるガイド円図形、上方向矢印等の追加図形を示す図である。
【図13】円筒図形を決定する量及び幾何学的関係を示す図である。
【図14】写真間の差異を示すフローチャートの例を示す図である。
【図15】差異検出の例を示す図である。
【図16】遮蔽領域の処理例を示す図である。
【図17A】3Dモデル上に投影された差異検出例を示す図である。
【図17B】3Dモデル上に投影された差異検出例を示す図である。
【図18】本発明の実施形態が実装されるコンピュータシステムの機能図の例を示す図である。
【図19】コンピュータシステムにより利用される方法のフローチャートの例を示す図である。
【図20】本発明のシステムを実装するコンピュータプラットフォームの例示的実施形態を示す図である。
【発明を実施するための形態】
【0033】
以下の詳細な記載においては添付の図面を参照する。ここで、同一の機能的要素は同様の符号で示される。前述の添付図面は、本発明の原理に合致する特定の実施形態及び実装形態を限定としてではなく、例示として示す。これらの実装形態は、当業者が本発明を実行できるように十分詳細に説明される。また、本発明の範囲及び趣旨を逸脱することなしに、他の実装形態が利用されてもよいこと、及び様々な要素の構造上の変更及び/又は代用が行われてもよいことを理解されたい。従って、以下の詳細な記載は本発明を制限するものとして解釈されるべきではない。更に、記載される本発明の様々な実施形態は、汎用コンピュータ上で実行されるソフトウェア、専用ハードウェア、あるいはソフトウェアとハードウェアの組合せのいずれの形態において実施されてもよい。
【0034】
本発明の様々な実施形態においては、拡張現実(Augmented Reality(AR))システムの変形を利用して、ユーザが以前と同じ位置、同じカメラアングルで写真を撮ることを支援する。また、このシステムは、写真間の差異を自動的に抽出する。なお、撮影時のカメラのアングルや写真の位置は、例えば非引用文献3に記載されたような、公知のマーカートラッキング法を使って推定することができる。
【0035】
カメラ姿勢を算出するのには既存の方法を利用する。既知の位置にある目標被写体のCADモデル等の3Dモデルが利用されてもよい。カメラ姿勢が与えられると、1つまたは複数の図形がカメラスクリーン上に描画され、以前撮影した写真のカメラアングルを指示表示する。描画された図形により、ユーザは繰り返し撮影のための同一カメラアングルへガイドされる。
【0036】
ARナビゲーションはユーザが正しいアングルで撮影するよう支援するが、第2の写真(2枚目の写真)の姿勢は必ずしも第1の写真(以前撮影した写真)と同一の撮影条件ではない。本システムは、3Dの描画手法を利用して、これらの写真を3Dモデル上に仮想的に投影して調整し、これにより2つの写真の差異が検出され、ハイライト表示される。検出された差異をハイライト表示することは、ユーザが差異を認識するのに役立つ。差異は3Dモデル上に再投影することができ、ユーザは3Dモデルに照らして差異を精査することができる。
【0037】
不一致検査は、対象物とその3D CADモデルとを比較して、対象物が正確に製造されていることを確認する作業である。アプリケーションによっては、対応する写真上に3D CADモデルをオーバレイすることができる。このようなアプリケーションは、3D CADモデルと対象物との間の形状を比較するのに有効である。ここで焦点となるのは、写真からしか観察できない傷や表面のシミなどの対象物の外観における差異を検出することである。
【0038】
第2の写真が撮影されると、そのカメラ位置から3Dモデル上に2つの写真が投影され、カメラ姿勢の差異を補正するために必要な微調整が可能となる。写真を3Dモデル上に投影することは、3Dグラフィックスにおいて写真に現実的な質感を付与するのに用いられる常套手段であるが、これまでカメラ姿勢の差異の補正に用いられたことはなかった。画像ベースレンダリングは2つ以上の画像からの新しいビューを生成する。画像ベースレンダリングはカメラ姿勢の調整に適用できるが、デプスマップ(depth map)を生成するためには画像対応点を見つける必要があり、画像特徴点が少なすぎてデプスマップを生成できないことがある。
【0039】
このように本願のシステムはユーザが以前の写真と同様の姿勢から被写体の写真を撮り、写真の比較を行えるようにすることを支援する。その方法の1つは以下の通りである。
【0040】
ステップ1:ユーザが目標被写体の写真を撮影する。
【0041】
ステップ2:ユーザが第1の写真と同じアングルでもう1枚写真を撮ろうとする場合、ARナビゲーションがユーザを同一のカメラアングルへガイドする。
【0042】
ステップ3:2つの写真の差異が検出され表示される。
【0043】
設備と背景
【0044】
本システムは拡張現実(AR)手法の一変形に基づいている。図1は付属ディスプレイ101を備えるカメラ100を有する本発明の一実施形態を示す図である。このシステムは3次元の位置及び姿勢を算出する。次に図2Aに示すように、ARマーカがテーブル上に配置される。撮影された画像中のARマーカから、カメラ姿勢がリアルタイムで算出される。被写体周辺等に向けているカメラが取得している映像(ライブフィード、live feed)により検出されるカメラの姿勢を利用して、3Dグラフィックスが描画され映像上にオーバレイされる。目標被写体の3Dモデル及びその位置が既知の場合には、算出されたカメラ姿勢を利用して3Dモデルが写真と比較され、次に図2Bに示すように合体される。目標被写体の3Dモデルは、3D CADモデルほど正確でないかもしれない。例えば、シェイプフロムモーション(shape from motion)法のような、コンピュータビジョン技術により復元される概略のVRMLモデルであってもよい。
【0045】
光学的画像中心、焦点距離、レンズのひずみ等のカメラの内部パラメータはキャリブレーションによって既知であることに注意されたい。
【0046】
ステップ1:第1の写真の撮影
【0047】
このステップにおいてユーザはカメラを用いて目標被写体の写真を撮り、その写真をカメラ姿勢情報と共に格納する。
【0048】
図3はこのステップのフローチャートを示す。ユーザはカメラを用いて目標被写体の映像を撮影する(300)。前に述べたように、カメラの3D姿勢がリアルタイムで算出される(301)。ユーザがカメラのシャッタボタンを押す(303)と、静止写真画像が撮影され、表示される(304)。カメラが関心領域についての入力を受信する(305)と、モデル上の対応被写体点が計算され(306)、画像、姿勢、及び被写体点がデータベースに格納される(307)。
【0049】
モデル上の被写体点は以下のように決定される。ユーザは写真画像上に円400を描いて(図4)、関心領域を特定する。目標被写体の3Dモデルが写真画像に合わせられ、円に対応する3D領域が次のように決められる。図5は、目標領域、画像、及びカメラの間の幾何学的な関係を示す。カメラ位置C500と、3D空間505中に位置する画像中の円の中心T501とが、画像に対して算出されたカメラ姿勢とカメラ内部パラメータとから決定される。そして、ベクトルT−Cとモデル中に表示された目標被写体面503との交点から、対応する被写体点P502が計算される。描かれた円の半径rは、点Pに中心を持つ3D球の半径dになる。
【数1】

【0050】
図6に写真グループ用のデータ構造の例を示す。写真及び算出されたパラメータは、データベースに保存される。第1の写真が保存されると、新しい写真グループテーブル600が生成される。写真グループテーブルには、被写体点P、被写体点からカメラまでのベクトルC−P、半径dが保存される。写真とそのカメラ位置C及び回転Rは、生成された写真グループテーブルの中に写真1としてセーブされる(601)。この写真をガイドとして将来撮られる写真は、この写真グループの中に格納される。
【0051】
更に、パラメータを決定する幾つかの選択肢がある。例えば、描画した円の一部が画像からはみ出してしまった場合、rが大きくなりすぎることを防ぐために、円の中心と写真の縁との間の最小距離r’を利用することができる。対応する被写体点Pを1点だけ決めるのではなく、円の内部の画像点に対応する被写体上の複数の点をピックアップしてその平均座標を用いてもよい。関心領域を特定するのに、円ではなく矩形を用いてもよい。ユーザが画像領域を特定しない場合には、システムは写真全体を画像領域として使うことが可能であるし、又は、前景抽出等の画像処理技術を用いて画像領域を自動的に決定することも可能である。
【0052】
これまでに挙げた実施例では、第1の写真は実際のカメラで撮影される。これに代わって、第1の「写真」が仮想カメラで撮影された3Dビューア中の3Dモデル画像であってもよい。ユーザは3Dモデルに対して仮想カメラを操作し、この仮想カメラ姿勢を「第1の写真」の姿勢として操作する。これは同じ視点からの実被写体の写真を得るためのナビゲーションガイドとして使われる。ユーザが、3D CADビューア中に3Dモデルのビューと同一のアングルで写真を撮ろうとする場合に、この機能は有効である。
【0053】
目標モデルの3Dモデルとその位置がない場合には、被写体点Pと半径dは上記のようには計算できない。この場合には、目標被写体とカメラとの間の距離をユーザが特定すれば、被写体点Pと半径dは計算可能となる。距離が特定されない場合には、この2つのパラメータは計算できないし、データベースに保存することもできない。
【0054】
ステップ2:ARナビゲーションを用いて第2の写真を撮影
【0055】
このステップでは、ARナビゲーションシステムを用いて、ユーザが第1の写真と同じような姿勢から写真を撮れるように支援する。
【0056】
図7はこのステップのフローチャートを示す。先ず、ユーザが次の写真を撮るためのガイドとして利用したい写真グループを選択する(700)。ユーザが1つの写真グループを選択すると、ARビューアにナビゲーション図形が生成され(701)、選択された写真グループの写真1が表示される(702)。次に、(ライブフィードあるいはその他のソースからの)画像(映像)が取得され(703)、この画像に基づいてカメラ姿勢が算出され、カメラで取得されている画像(ライブフィード)がナビゲーション図形にオーバレイされてユーザに対して表示され(705)、選択された写真に対する現在の撮影画像の位置が示される。カメラ姿勢が写真の姿勢に十分近ければ(706)、システムはユーザに対して現在のカメラ姿勢がカメラチェックをパスしたことを示す(707)。ユーザがシャッタを押すと(708)、カメラ画像がカメラ姿勢と共に写真グループ700の追加として格納される(710)。
【0057】
カメラ姿勢は継続的に算出される。算出されたカメラ姿勢と共に、同一視点からのナビゲーション図形が、AR技術を利用してカメラの表示画面上に表示された映像画像にオーバレイされて描画される。図10A、10Bは異なるカメラ位置からのARビューアを示す。ユーザはARビューアを見ることにより所望のカメラ位置を理解できる。
【0058】
カメラ位置のチェック706がバスした場合、任意選択で、イベントを自動的に始動させてもよい。そのようなイベントの例としては、自動シャッタがある。これは図7の707と708のステップにおいてユーザが手動でシャッタ操作を行うことの代わりに行われる。別の例としては、チェックをパスした場合、新しい情報がARビューアに表示されてもよい。例えば、被写体を見る方向(視点)の順番の指示に用いられる。この場合、カメラ位置のチェックをパスし、写真が撮影されると、ARビューアは、次の順番の視点に対する図形を自動的に示し、ユーザは指示された視点にカメラを向ける。この機能もまた、繰り返し撮影以外でも有用なものである。例えば、作業者が、ボルトを抜いてハッチを開けるというようないくつかのステップを被写体に対して行うことが必要な場合がある。ARビューアが作業指示と共に図形を含んでいて、次に操作しなければならない被写体部分の操作方法を表示してユーザをガイドしてもよい。
【0059】
利用されるナビゲーション図の実施例は、図8に示すように、円錐図形800と球図形801とを含んでおり、これらは写真グループのパラメータから生成される。
【0060】
円錐図形
【0061】
円錐図形は被写体点Pからカメラ位置Cへの所望の方向をユーザに指示するために使用される。繰り返し撮影においては方向が重要である。方向が異なる場合には、遮蔽が発生し易く、1つの写真には撮影されるが他の写真には撮影されない画像領域が多数生成される。その一方で、被写体点Pとカメラ位置Cとの間の距離、及びカメラのロール角は、同一写真を撮るのにあまり重要な因子ではない。現在のカメラは十分な解像度を有し、差異はデジタルズームと画像回転とで簡単に補正することができる。このような点を考慮すると、円錐図形は被写体点Pから同一方向をユーザにガイドするための優れた図形である。ユーザが円錐図形の内部にカメラを持ち込むと、被写体からのカメラの相対方向は、写真1と殆ど同一になる。
【0062】
円錐図形は被写体点Pと、カメラから被写体点Pへ向かう方向C−Pとから生成される。円錐図形の頂点はPにあり、その軸がベクトルC−Pに一致する。頂角aは一定値である。
【0063】
任意選択で、頂角aを動的に変化させることができる。頂角aは、方向の差がどの程度まで許容されるかを示す。被写体面がほぼ平坦であれば、複雑な形状に対する場合に比べて、方向角の違いによる変化は小さい。ポイントPの周りの被写体表面の3Dモデルからの相違、又は、単純に第1の写真の画像周波数を利用して、システムは角度aを決定する。
【0064】
球図形
【0065】
カメラのパン角、チルト角と所望姿勢との相違は、繰り返し撮影においては目標被写体の関心領域を確実に視野内に確保することに比べるとそれほど重要ではない。球図形が描画され、ユーザに関心領域の位置及びサイズを知らせる。システムは、被写体点Pの位置に半径dの球図形の中心を置く。球図形が画像中に現れるとき、その関心領域が写真中に撮影されることになる。安全のためにシステムは球図形の半径をdより大きくしてもよい。
【0066】
図9は円錐図形900及び球図形901の例を示す。これらは写真グループのデータから生成される。
【0067】
現在のカメラ姿勢が円錐図形の内部にあり、球図形もカメラ視野の内部にある場合には、現在のカメラ姿勢はカメラ姿勢チェックをパスし、システムは、カメラ姿勢が写真撮影に適していることを図形的に示す。例えば、ナビゲーション図形が赤に変わり、シャッタボタンが有効となる。ユーザがシャッタボタンを押せば、写真とそのカメラ位置データとが、同じ写真グループの下に保存される。図11は、写真2(1101)が写真グループ1(1100)に追加された後の格納データの例である。
【0068】
現在のカメラ姿勢がチェックをパスしても、カメラ姿勢にはまだいくらかの自由度がある。この自由度を制限するために、追加図形を使用することができる(図12)。
【0069】
被写体とカメラとの距離
カメラが被写体点Pに近づくにつれ、球図形が大きくなる。ARビューア内に固定サイズの円を表示することにより、球図形がどれだけ大きくなったかをユーザに判断させることができる。あるいはその代わりに、カメラが近づきすぎた場合に、「前進」、「後退」等のサインを示すこともできる。
【0070】
被写体点Pの画像位置
円図形1200を第1の写真の場合と同一の位置に配置できる。球図形の位置が円図形と同じになると、被写体位置Pは第1の写真と同一の画像姿勢で撮影される。
【0071】
カメラのロール角
カメラの上方向1201がARビューア内に矢印図形で表示される。矢印図形が垂直になると、カメラのロール角が第1の写真の場合と同一になる。
【0072】
目標被写体に3Dモデルがなく、データベース中に被写体点P及び半径dが見つからない場合には、他の3Dグラフィックスが利用される。図13は、円筒図形1300を示す。ここで、軸はベクトルT−Cに一致している。円筒図形の半径tは予め設定された値である。現在のカメラ位置500が円筒図形の内部にあり、且つ、現在のカメラの光学的方向がベクトルT−Cに一致している場合、現在のカメラ姿勢は位置チェックをパスする。
【0073】
これまでの実施形態ではAR3Dグラフィックスを利用してカメラ姿勢をガイドしたが、この代わりに、あるいはこれに加えて、音声ナビゲーションを利用することもできる。「右へ進め」、「上を狙え」というような音声命令は、ユーザを第1のカメラ位置及びアングルにガイドするのに利用できる。
【0074】
ステップ3:異なる姿勢で撮影された2つの写真の比較
【0075】
本発明の実施形態では、同じアングルから写真を撮った後に写真間の相違を検出する。ナビゲーション図形は、ユーザが同じカメラアングルで写真を撮ることを支援するが、ナビゲーションによって完全な一致が約束されるわけではない。すべての写真は、そのカメラ姿勢情報を有し、目標被写体モデルに整列している。本発明の実施形態は3Dグラフィックス技術を利用して、写真をより正確に比較できるように調節する。
【0076】
テキスチャ投影技術を利用して、写真のテキスチャをカメラ位置から3Dモデル上に投影することができる。これらの幾何学的配列は登録されているので、テキスチャは正確に投影される。
【0077】
図14はステップ3のフローチャートを示す。ユーザが同一の写真グループから写真Aと写真Bとをソース画像として選択する(1400)。デフォルト設定では、写真AおよびB各々は、写真1(第1の写真)及び最新写真である。写真Aを、写真Bの視点から撮られたもののように見るために、3Dビューア内に仮想カメラディスプレイが写真Bの姿勢で設定され(1401)、写真Aが、写真Aのカメラ姿勢からモデル上に投影される(1402)。そして、写真Bの視点からの写真Aのコンテンツを有する画像が取得される(1403)。次に、写真Bのカメラ姿勢から写真Bが投影され(1404)、第2の画像が取得される(1405)。これら2つの投影及び画像取得が終了すると、システムが画像間の差異を計算できる(1406)。
【0078】
図15に差異検出の例を示す。2つのソース写真1500及び1501は殆ど同じであるが、カメラアングルが異なる。3Dグラフィックスエンジンでは、仮想カメラは写真Bのカメラ位置に整列され(1501)、内部パラメータは元のカメラと同じに設定される。写真Aのテキスチャ1500は写真Aのカメラ位置から投影され、描画された図形は投影画像A’1502として取得される。こうして、投影画像A’を写真Bと同じカメラアングルで見ることとができる。次に、システムは投影画像B’1503を生成し、取得できる。画像差分法を利用して、2つの投影画像間の差異が検出される(1504)。
【0079】
投影画像を取得する際に、被写体表面のうちカメラで取得されないところがある。それらがカメラの視野内になかったり、何かで遮蔽されていたりする場合に、このようなことが起きる。図16に一例を示す。これらの領域は差異分析では考慮されない。システムが採り得る方法の一つは、撮影されなかった被写体表面部分1600を黒色で塗りつぶすことである。これらの領域は次の差異検出では除外される。
【0080】
検出された画像の差異はハイライト表示され、ユーザにその領域が示される。あるいは、検出された画像領域は切り取られて3Dモデル上に投影されてユーザに示される。ユーザは図17A、17Bに示すように3Dコンテキストを利用して3Dモデルを操作し、差異をよりはっきりと理解することができる。
【0081】
図18に本発明の実施形態が実装されるコンピュータシステムの機能図の例を示す。目標被写体1801の映像(ライブフィード)を取得するカメラ1800は、映像をコンピュータシステム1802に転送する。比較手段1807が映像を処理し、映像に含まれる画像を、目標被写体に関する姿勢情報を有する写真のデータベース1804と比較する。次いで、決定手段1805が、撮影対象の被写体に関するカメラアングル及びカメラ位置を決定する。決定手段は、撮影対象の被写体に対する、映像のアングル及び位置も決定してよい。ガイド手段1803が、映像に対する、撮影対象の被写体のアングルを示す第1の指示表示(ガイド表示)を提供し、映像に対する、撮影対象の被写体の位置を示す第2の指示表示を提供する。映像のアングル及び位置が、撮影対象の被写体のアングル及び位置に対して特定の許容範囲内の場合に、第3の指示表示が与えられてもよい。
【0082】
図19にコンピュータシステムにより利用される方法のフローチャートの例を示す。第1に、被写体の仮想3Dモデル及び以前に撮影された写真(以前の写真)が、ARマーカ等の視覚特徴点を利用して並べる(1900)。次に、仮想3Dモデルに基づいて以前の写真のアングル及び位置を決定する(1901)。そして、仮想3Dモデルに関して、映像(ライブフィード)のアングル及び位置を決定する(1902)。映像の角度及び位置に対する以前の写真の角度及び位置に基づいて、カメラが取得している映像画像上に指示表示がオーバレイする(1903)。
【0083】
図20に本発明のシステムを実装するコンピュータプラットフォームの例示的実施形態を示す。
【0084】
図20は、本発明による方法の実施形態を実装することが可能なコンピュータ/サーバシステム2000の実施形態を示すブロック図である。システム2000は、コンピュータ/サーバプラットフォーム2001と、周辺装置2002と、ネットワークリソース2003とを含む。
【0085】
コンピュータプラットフォーム2001は、このコンピュータプラットフォーム2001の全体に亘って、あるいはその様々な部分間で、情報をやり取りするためのデータバス2004または他の通信機構と、情報を処理し他の計算タスク及び制御タスクを実行するためにバス2001に接続されたプロセッサ2005と、を含んでもよい。また、コンピュータプラットフォーム2001は、プロセッサ2005で実行される命令及び様々な情報を格納するためにバス2004に接続された、ランダムアクセスメモリ(RAM)や他の動的記憶装置のような揮発性記憶装置2006も含む。また揮発性記憶装置2006は、プロセッサ2005による命令の実行中に、一時変数又は他の中間情報の格納にも利用可能である。コンピュータプラットフォーム2001は、基本入出力システム(BIOS)や種々のシステム構成パラメータなどのような、プロセッサ2005のための静的情報及び命令を格納するために、バス2004に接続された読み取り専用メモリ(ROMあるいはEPROM)2007や、その他の静的記憶装置を更に含むことができる。情報及び命令を格納するために、磁気ディスク、光ディスク、ソリッドステートフラッシュメモリデバイスなどの持続性記憶装置2008が設けられ、バス2004に接続されている。
【0086】
コンピュータプラットフォーム2001は、コンピュータプラットフォーム2001のシステム管理者あるいはユーザに対して情報を表示するために、バス2004を介して、陰極線管(CRT)、プラズマディスプレイ、液晶ディスプレイ(LCD)のようなディスプレイ2009に接続される。英数字キー及び他のキーを含む入力デバイス2010が、情報及びコマンド選択をプロセッサ2005に通信するためにバス2004に接続されている。別のタイプのユーザ入力デバイスとして、マウスやトラックボールやカーソル方向キーのようなカーソル制御デバイス2011があり、方向情報及びコマンド選択をプロセッサ2005に通信し、またディスプレイ2009上のカーソルの動きを制御する。この入力デバイスは一般的に、第1の軸(たとえばx)及び第2の軸(例えばy)の2つ軸における自由度2を有しており、これにより平面上の位置を特定できる。
【0087】
コンピュータプラットフォーム2001に付加的又はリムーバブルな記憶容量を提供するために、外部記憶装置2012がバス2004を介してコンピュータプラットフォーム2001に接続されてもよい。コンピュータシステム2000のある実施形態においては、他のコンピュータシステムとのデータ交換を容易にするために外部のリムーバブル記憶装置2012が使用されてもよい。
【0088】
本発明は、本明細書に記載の技術を実装するためのコンピュータシステム2000の利用に関する。ある実施形態では、コンピュータプラットフォーム2001のようなマシンに本発明のシステムが備わっている。本発明の一実施形態によれば、本明細書に記載の技術は、揮発性メモリ2006に含まれる1つ又は複数の命令の1つ又は複数のシーケンスを、プロセッサ2005が実行するのに応答して、コンピュータシステム2000で実行される。このような命令は、持続性記憶装置2008などの別のコンピュータ可読媒体から揮発性メモリ2006に読み込まれてもよい。揮発性メモリ2006に含まれる命令のシーケンスを実行することにより、プロセッサ2005が本明細書に記載のプロセスステップを実行する。他の実施形態では、本発明を実装するのに、ソフトウェアによる命令に替えて、あるいはソフトウェアによる命令と組み合わせて、配線による回路が使用されてもよい。従って、本発明の実施形態は、ハードウェア回路とソフトウェアのいかなる特定の組み合わせにも限定されるものではない。
【0089】
本明細書で使用される「コンピュータ可読媒体」という用語は、プロセッサ2005に実行命令を与えることに関与する任意の媒体を指す。コンピュータ可読媒体は、機械可読媒体の単なる一例であり、本明細書に記載の任意の方法及び/又は技術を実装するための命令を伝える。このような媒体は多くの形態を取ることができ、不揮発性媒体及び揮発性媒体が含まれるが、これに限定されない。例えば、不揮発性媒体は、記憶装置2008などの光ディスク又は磁気ディスクを含む。揮発性媒体は、揮発性記憶装置2006などのダイナミックメモリを含む。
【0090】
コンピュータ可読媒体の一般的形態には、例えば、フロッピディスク(登録商標)、フレキシブルディスク、ハードディスク、磁気テープ、又は他の任意の磁気媒体、CD−ROM、他の任意の光学媒体、パンチカード、紙テープ、その他の孔パターンを有する任意の物理媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、その他の任意のメモリチップ又はメモリカートリッジ、あるいはコンピュータが読み出し可能な他の任意の媒体が含まれる。
【0091】
様々な形態のコンピュータ可読媒体が、プロセッサ2005での実行のために、1つまたは複数の命令の1つまたは複数のシーケンスの搬送に関与し得る。例えば、最初は命令がリモートコンピュータから磁気ディスクで搬送されてもよい。又は、リモートコンピュータが命令をダイナミックメモリに書込み、モデムを利用して電話線で命令を送信することもできる。コンピュータシステムのローカルモデムが電話線上でデータを受信し、赤外線送信機を使用してそのデータを赤外線信号に変換することができる。赤外線検出器が赤外線信号で搬送されるデータを受信し、適切な回路によってそのデータをデータバス2005に乗せることができる。バス2004がデータを揮発性記憶装置2006に搬送し、そこからプロセッサ2005が命令を取り出して、実行する。揮発性メモリ2006によって受信された命令は、プロセッサ2005での実行の前後のいずれかに所望により、持続性記憶装置2008上に格納されてもよい。この命令は、当技術分野で周知の様々なネットワークデータ通信プロトコルを利用して、インターネットを介してコンピュータプラットフォーム2001にダウンロードされてもよい。
【0092】
コンピュータプラットフォーム2001は、データバス2004に接続されたネットワークインタフェースカード2013のような、通信インタフェースも含む。通信インタフェース2013は、ローカルネットワーク2015に接続されたネットワークリンク2014に接続する双方向のデータ通信を提供する。例えば、通信インタフェース2013が、対応する型式の電話線とのデータ通信接続を提供する総合デジタル通信網(ISDN)カードあるいはモデムであってもよい。別の例としては、通信インタフェース2013が、互換性のあるLANとのデータ通信接続を提供するローカルエリアネットワークインタフェースカード(LAN NIC)であってもよい。よく知られている802.11a、802.11b、802.11g及びブルートゥース(Bluetooth(登録商標))などの無線リンクもネットワーク実装に利用することができる。これらのいずれの実装においても、通信インタフェース2013は、各種タイプの情報を表すデジタルデータストリームを搬送する電気信号、電磁信号、あるいは光学信号を送受信する。
【0093】
ネットワークリンク2014が、一般的に1つ又は複数のネットワークを介して他のネットワークリソースへのデータ通信を提供する。例えば、ネットワークリンク2014が、ローカルネットワーク2015を介してホストコンピュータ2016又はネットワークストレージ/サーバ2017への接続を提供してもよい。これに加えて、もしくはこれに代わって、ネットワークリンク2014はゲートウェイ/ファイアウォール2017を介して、インターネットなどの広域ネットワーク又はグローバルネットワーク2018へ接続してもよい。このようにしてコンピュータプラットフォーム2001が、リモートネットワークストレージ/サーバ2019のような、インターネット2018上の任意の場所にあるネットワークリソースへアクセスすることができる。その一方で、コンピュータプラットフォーム2001も、ローカルエリアネットワーク2015及び又はインターネット2018上の任意の場所にいるクライアントからアクセスされうる。ネットワーククライアント2020及び2021自体が、プラットフォーム2001と同様のコンピュータプラットフォームに基づいて実装されてもよい。
【0094】
ローカルネットワーク2015及びインターネット2018はいずれも、デジタルデータストリームを搬送する電気信号、電磁信号あるいは光学信号を利用する。コンピュータプラットフォーム2001へ向けて又はコンピュータプラットフォーム2001からデジタルデータを搬送する、さまざまなネットワークを介する信号、及びネットワークリンク2014上にあって通信インタフェース2013を介する信号が、情報を転送するキャリア波の例示的な形態である。
【0095】
コンピュータプラットフォーム2001が、インターネット2018とLAN2015を含む様々なネットワーク、及びネットワークリンク2014、及び通信インタフェース2013を介して、メッセージを送信し、プログラムコードを含むデータを受信することができる。インターネットの例では、システム2001がネットワークサーバとして作用する場合に、システムは、クライアント2020及び/又は2021上で動作するアプリケーションプログラム用に要求されるコードあるいはデータを、インターネット2018、ゲートウェイ/ファイアウォール2017、ローカルエリアネットワーク2015及び通信インタフェース2013を介して送信する。同様に、システムは他のネットワークリソースからコードを受信することができる。
【0096】
受信されたコードは受信と同時にプロセッサ2005で実行されてもよいし、及び/又は、後での実行に備えて持続性記憶装置2008あるいは揮発性記憶装置2006、あるいはその他の不揮発性記憶装置に格納されてもよい。
【0097】
本発明は特定のファイアウォールシステムには限定されないことに注意されたい。本発明の方針に基づくコンテンツ処理システムは、3つのファイアウォール動作モード、具体的にはNATモード、ルートモード、透過モードのいずれにおいても利用可能である。
【0098】
最後に、本明細書中に記載されたプロセス及び技術は特定の装置に本質的に関係するものではなく、構成要素の任意の適切な組み合わせによって実装可能であることを理解されたい。更に、種々のタイプの汎用デバイスを、本明細書に記載の教示にしたがって使用することが可能である。本明細書に記載された方法のステップを実行するための専用装置を構築することが有利であることも判明するであろう。本発明を特定の例に関連して記載したが、これらは全ての点において限定的ではなく説明的であることを意図している。ハードウェア、ソフトウェア、及びファームウェアの多くの異なる組み合わせが本発明の実行に適することが、当業者には理解されるであろう。例えば、前述のソフトウェアは、アセンブラ、C/C++、perl、shell、PHP、Java(登録商標)、などの広範なプログラム言語あるいはスクリプト言語によって実装することが可能である。
【0099】
更に、ここに開示した本発明の明細書を考察し、本発明を実施すれば、本発明の他の実装が当業者には明らかとなるであろう。前述の実施態様の様々な態様及び/又は構成要素は、繰り返し撮影と差異抽出用のARナビゲーションシステムに、単独もしくは任意の組み合わせで使用することが可能である。明細書及び実施例は例示としてのみ理解されるべきであり、本発明の真の範囲と精神は添付の特許請求の範囲によって示されるものとする。

【特許請求の範囲】
【請求項1】
被写体を撮影した第1の写真ならびに被写体に関するアングル及び位置に関する情報を格納する写真データベースと、
映像を取得し、第2の写真を撮影するカメラと、
被写体に対する前記映像を撮影しているアングル及び位置を決定する決定手段と、表示装置に表示される前記映像上に、前記被写体に関するアングルを示す第1の指示表示、及び、前記被写体の位置を示す第2の指示表示をオーバレイ表示し、前記映像を撮影している前記アングル及び前記位置が前記第1の写真の前記被写体に関するアングル及び位置の所定許容範囲内にある場合に第3の指示表示を提供するガイド手段と、
を備える、システム。
【請求項2】
前記データベースは、前記第1の写真の被写体に関する仮想3Dモデルを更に格納する、請求項1に記載のシステム。
【請求項3】
前記ガイド手段は、前記映像に対して相対的に前記仮想3Dモデルを使用して、前記第1の指示表示及び第2の指示表示を利用して、前記被写体を撮影しているアングル及び位置を示す、請求項2に記載のシステム。
【請求項4】
前記映像に含まれる前記第2の写真と、前記写真データベースから選択された前記第1の写真との視覚上の差異を分析してハイライト表示する比較手段を更に備える、請求項2又は3に記載のシステム。
【請求項5】
前記比較手段は、前記仮想3Dモデルの幾何形状を利用して前記差異の検出を支援し、前記第2の写真は前記第1の写真の被写体に関するアングル及び位置の所定許容範囲内にある、請求項4に記載のシステム。
【請求項6】
前記映像の位置が前記被写体を撮影しているアングル及び位置に対して所定許容範囲内にある場合に、前記第3の指示表示は、前記第1の指示表示及び前記第2の指示表示の色を変化させる、請求項1〜5のいずれか1項に記載のシステム。
【請求項7】
前記被写体と前記所定許容範囲とに関連するベクトルが計算される、請求項1〜6のいずれか1項に記載のシステム。
【請求項8】
前記比較手段は、前記仮想3Dモデルに対して前記第2の写真を分析し、前記仮想3Dモデル表面上の未撮影領域を判定する、請求項4〜7のいずれか1項に記載のシステム。
【請求項9】
前記比較手段が、前記視覚上の差異をハイライト表示する場合に、前記未撮影領域に対する判定を行わない、請求項8に記載のシステム。
【請求項10】
前記第2の写真から画像領域が抽出され、前記抽出された画像領域は前記仮想3Dモデル上に投影され、前記投影された画像領域は前記差異の一部として利用される、請求項4〜9のいずれか1項に記載のシステム。
【請求項11】
前記カメラを第1の写真のカメラアングル及び位置に揃うようにナビゲートする音声ガイダンスを生成する音声ナビゲーション手段を更に備える、請求項1〜10のいずれか1項に記載のシステム。
【請求項12】
前記ガイド手段が、被写体からの距離と、前記カメラのパン及びチルト角と、前記カメラの上方向角度とのうちの少なくとも1つを示す追加の指示表示を、前記映像上にオーバレイ表示する、請求項2〜11のいずれか1項に記載のシステム。
【請求項13】
前記第1の指示表示は錐形で表示される、請求項1〜12のいずれか1項に記載のシステム。
【請求項14】
前記第2の指示表示は球形で表示される、請求項1〜13のいずれか1項に記載のシステム。
【請求項15】
前記第1の指示表示及び第2の指示表示が筒形で表示され、前記筒形の半径は所定の許容誤差を表し、前記筒形の軸は前記被写体に関するアングルに関する算出ベクトルを表す、請求項7〜14のいずれか1項に記載のシステム。
【請求項16】
以前に撮影した写真と同じアングル及び位置でスナップ写真を撮るためカメラをナビゲートする方法であって、
決定手段が、仮想3Dモデルに基づいて以前に撮影した写真のアングル及び位置を決定し、
前記決定手段が、前記仮想3Dモデルに対する、カメラにより取得される映像のカメラアングル及び位置を決定し、
ガイド手段が、前記決定された映像のカメラアングル及び位置に対する相対的な前記決定された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの映像上に指示表示をオーバレイ表示する、
ことを含む、方法。
【請求項17】
前記ガイド手段が、前記決定された映像のアングル及び位置が、前記決定された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含む、請求項16に記載の方法。
【請求項18】
以前に撮影した写真と同じアングル及び位置でスナップ写真を撮るためカメラをナビゲートする方法であって、
受信手段が、以前に撮影した写真に関する情報を入力として受信し、
決定手段が、前記入力に基づいて、前記以前に撮影した写真のカメラアングル及び位置を算出し、
決定手段が、カメラにより取得される映像のアングル及び位置を決定し、
ガイド手段が、前記決定された映像のアングル及び位置に対する相対的な前記算出された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの映像上に指示表示をオーバレイ表示する、
ことを含む、方法。
【請求項19】
前記ガイド手段が、前記決定された映像のアングル及び位置が、前記算出された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含む、請求項18に記載の方法。
【請求項20】
以前に撮影した写真と同じアングル及び位置でスナップ写真を撮るためカメラをナビゲートするための処理をコンピュータに実行させるためのプログラムであって、前記処理は、
仮想3Dモデルに基づいて以前に撮影した写真のアングル及び位置を決定し、
前記仮想3Dモデルに対する、カメラにより取得される映像のカメラアングル及び位置を決定し、
前記決定された映像のカメラアングル及び位置に対する相対的な前記決定された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの映像上に指示表示をオーバレイ表示する、
ことを含む、プログラム。
【請求項21】
前記処理は、前記決定された映像のアングル及び位置が、前記決定された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含む、請求項20に記載のプログラム。
【請求項22】
以前に撮影した写真と同じアングル及び位置でのスナップ写真を撮るためカメラをナビゲートするための処理をコンピュータに実行させるためのプログラムであって、前記処理は、
以前に撮影した写真に関する情報を入力として受信し、
前記入力に基づいて、前記以前に撮影した写真のカメラアングル及び位置を算出し、
カメラにより取得される映像のアングル及び位置を決定し、
前記決定された映像のアングル及び位置に対する相対的な前記算出された写真のアングル及び位置に基づいて、表示装置に表示される前記カメラの前記映像上に指示表示をオーバレイ表示する、
ことを含む、プログラム。
【請求項23】
前記処理は、前記決定された映像のアングル及び位置が、前記算出された写真のアングル及び位置の所定の許容範囲内にある場合に、追加の指示表示を提供することを更に含む、請求項22に記載のプログラム。

【図1】
image rotate

【図2A】
image rotate

【図2B】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10A】
image rotate

【図10B】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17A】
image rotate

【図17B】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate


【公開番号】特開2011−239361(P2011−239361A)
【公開日】平成23年11月24日(2011.11.24)
【国際特許分類】
【出願番号】特願2010−208990(P2010−208990)
【出願日】平成22年9月17日(2010.9.17)
【出願人】(000005496)富士ゼロックス株式会社 (21,908)
【Fターム(参考)】