画像処理装置および画像処理方法
【課題】実際に被写体を観察する視点角度及び照明角度の条件下に応じた被写体の表示を可能とする仕組みを提供する。
【解決手段】画像表示装置113の表示面を観察する観察者の視線方向と表示面の法線方向とがなす角度である視点角度を取得する視点角度取得部103と、表示面を照明する照明の照射方向と表示面の法線方向とがなす角度である照明角度を取得する照明角度取得部105と、視点角度取得部103により取得された視点角度と、照明角度取得部105により取得された照明角度とに基づいて、視点角度と照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する画像生成部114と、画像生成部114により生成された画像の色補正をする色補正部115を備える。
【解決手段】画像表示装置113の表示面を観察する観察者の視線方向と表示面の法線方向とがなす角度である視点角度を取得する視点角度取得部103と、表示面を照明する照明の照射方向と表示面の法線方向とがなす角度である照明角度を取得する照明角度取得部105と、視点角度取得部103により取得された視点角度と、照明角度取得部105により取得された照明角度とに基づいて、視点角度と照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する画像生成部114と、画像生成部114により生成された画像の色補正をする色補正部115を備える。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、観察条件を考慮した被写体の表示を行うための画像処理に関する。
【背景技術】
【0002】
被写体の光沢感等の質感を表現する方法として、例えば、コンピュータグラフィックス(CG)を用いて被写体の3次元データをモデリングし、質感を表す情報として鏡面反射率や拡散反射率を定義してレンダリング処理を行い、2次元画像を表示する方法がある。一般に、被写体の光沢感等の人が感じる質感は、見る人の視点の変化によって被写体の鏡面反射の状態が変化することによって得られる。従って、上記CGにおいても、視点方向や照明方向を動的に変化させて、被写体の鏡面反射光が動的に変化するようにレンダリング処理を行う必要がある。このレンダリング処理は、多大な演算が必要となるため、リアル感のある被写体の3次元データと質感の情報を上記CGの手法を用いて迅速に作成することは、コンピュータの処理速度が一層向上しても難しい。
【0003】
一方で、被写体を複数撮影した画像データから被写体の質感を再現する画像を生成する方法が提案されている。例えば、特許文献1では、照明により被写体の鏡面反射状態が異なる被写体の複数の原画像を取得し、取得した原画像を時間軸、または、ディスプレイを観察する視点に応じて切り換えて表示している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2003−132350号公報
【特許文献2】特開平10−178535号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1では、照明方向を複数変化させて被写体の鏡面反射状態が異なる画像を取得しているが、視点を変化させての画像は取得していない。被写体の鏡面反射は、被写体を観察する観察者の視点と被写体を照明する照明方向によって変化するため、特許文献1の方法では、実際に被写体を観察する視点角度、及び照明角度の条件下での鏡面反射を正確に再現することはできない。
【0006】
本発明は、このような課題に鑑みてなされたものであり、実際に被写体を観察する視点角度及び照明角度の条件下に応じた被写体の表示を可能とすることを目的とする。
【課題を解決するための手段】
【0007】
本発明に係る画像処理装置は、被写体の画像を画像表示装置に表示させるための画像処理装置であって、前記画像表示装置の表示面を観察する観察者の視線方向と前記表示面の法線方向とがなす角度である視点角度を取得する視点角度取得手段と、前記表示面を照明する照明の照射方向と前記表示面の法線方向とがなす角度である照明角度を取得する照明角度取得手段と、前記視点角度取得手段により取得された視点角度と、前記照明角度取得手段により取得された照明角度とに基づいて、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する生成手段と、前記生成手段により生成された画像の色補正をする色補正手段とを有する。
【発明の効果】
【0008】
本発明によれば、実際に被写体を観察する視点角度及び照明角度の条件下に応じた被写体の表示が可能となる。
【図面の簡単な説明】
【0009】
【図1】第1の実施形態で使用されるデータの流れの一例を示す模式図である。
【図2】第1の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
【図3】第1の実施形態に係る画像処理装置において実行される画像処理方法の処理手順の一例を示すフローチャートである。
【図4】第1の実施形態を示し、画像保持部で保持する画像データ、及び、その取得方法の一例を示す模式図である。
【図5】第1の実施形態を示し、表示用プロファイルの一例を示す模式図である。
【図6】図3のステップS1で行われる視点角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【図7】図3のステップS2で行われる照明角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【図8】第1の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【図9】図3のステップS7で行われる色補正処理の詳細な処理手順の一例を示すフローチャートである。
【図10】第2の実施形態で使用されるデータの流れの一例を示す模式図である。
【図11】第2の実施形態を示し、画像保持部で保持する画像データ、及び、その取得方法の一例を示す模式図である。
【図12】第2の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【図13】第3の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
【図14】第3の実施形態を示し、ユーザーインターフェースの一例を示す模式図である。
【図15】その他の実施形態を示し、画像処理装置の機能を画像表示装置内に内蔵した場合の一例を示すブロック図である。
【発明を実施するための形態】
【0010】
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
【0011】
(第1の実施形態)
本発明の実施形態を説明するのにあたり、まず、本発明で使用されるデータのフローを、図1を用いて説明する。
図1は、第1の実施形態で使用されるデータの流れの一例を示す模式図である。
【0012】
本実施形態に係る画像処理装置101は、視点角度取得センサ102、照明角度取得センサ104から、観察者1が画像表示装置113を観察する条件下での視点角度7と照明角度6を取得する。そして、画像処理装置101は、当該視点角度7と照明角度6とにおいて観察される被写体3の見えを画像表示装置113に表示するものである。
【0013】
本実施形態では、予め複数の視点角度7及び照明角度6で被写体を撮像装置4と照明装置5で撮影した画像データ9を用いて、各センサから取得した視点角度7及び照明角度6に応じた生成画像データ8を生成する。生成画像データ8は、予め複数の視点角度における画像表示装置113の色特性を測定器2により表示用プロファイル11として取得し、視点角度取得センサ102から取得した視点角度7に応じて適切なプロファイルを選択して表示画像データ10を生成する。
以下、実施形態について詳細に説明する。
【0014】
図2は、第1の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
図2に示すように、画像処理システムは、画像処理装置101、視点角度取得センサ102、照明角度取得センサ104、及び、画像表示装置113を有して構成されている。
【0015】
画像処理装置101は、画像データを取得し、取得した画像データの処理を行うものである。
視点角度取得センサ102は、視点角度7を取得するセンサである。
照明角度取得センサ104は、照明角度6を取得するセンサである。
画像表示装置113は、表示データを表示するものである。
【0016】
また、画像処理装置101は、視点角度取得部103、照明角度取得部105、画像保持部106、画像取得部107、入力用プロファイル保持部108、入力用プロファイル取得部109を有して構成されている。さらに、画像処理装置101は、表示用プロファイル保持部110、表示用プロファイル取得部111、表示部112、画像生成部114、色補正部115、バッファメモリ116を有して構成されている。
【0017】
視点角度取得部103は、視点角度取得センサ102から視点角度7を取得する。具体的に、視点角度取得部103は、画像表示装置113の表示面を観察する観察者1の視線方向と表示面の法線方向とがなす角度である視点角度7を取得する。
照明角度取得部105は、照明角度取得センサ104から照明角度6を取得する。具体的に、照明角度取得部105は、画像表示装置113を照明する照明の照射方向と表示面の法線方向とがなす角度である照明角度6を取得する。
【0018】
画像保持部106は、予め複数の視点角度及び照明角度で被写体を撮影した画像データを保持するものである。
画像取得部107は、画像保持部106に保持されている画像データを取得するものである。本実施形態においては、画像取得部107は、複数の視点角度、及び、複数の照明角度の条件下で被写体を観察したときに対応する画像を取得する。
【0019】
入力用プロファイル保持部108は、被写体の撮影に使用したカメラの特性を保持するものである。
入力用プロファイル取得部109は、入力用プロファイル保持部108に保持されている入力用プロファイルを取得するものである。
【0020】
表示用プロファイル保持部110は、画像表示装置113の特性を保持するものである。
表示用プロファイル取得部111は、表示用プロファイル保持部110に保持されている表示用プロファイルを取得するものである。
【0021】
表示部112は、画像表示装置113に表示データを送信するものである。
画像生成部114は、観察者の視点角度及び照明角度に応じた画像データを生成するものである。具体的に、画像生成部114は、視点角度取得部103によって取得した視点角度7と、照明角度取得部105によって取得した照明角度6とに基づいて、視点角度7と照明角度6とにおいて観察される被写体の見えを再現する画像を生成する。より詳細に、本実施形態では、画像生成部114は、視点角度取得部103による視点角度7と、照明角度取得部105による照明角度6と、画像取得部107による画像とから、視点角度7と照明角度6とにおいて観察される被写体の見えを再現する画像を生成する。
【0022】
色補正部115は、画像生成部114で生成された画像データの色補正を行うものである。
バッファメモリ116は、演算処理を行うために、一時的に演算結果を保存するメモリである。
【0023】
なお、本実施形態における画像処理装置101のハードウェア構成は、コンピュータなどの公知の技術によって構成可能であるため、ハードウェア構成の詳細な説明は省略する。
【0024】
<画像処理装置101における動作>
図3は、第1の実施形態に係る画像処理装置101において実行される画像処理方法の処理手順の一例を示すフローチャートである。
【0025】
まず、ステップS1において、視点角度取得部103は、視点角度取得センサ102を用いて画像表示装置113を観察している観察者1の視点角度7を取得する。なお、視点角度取得部103におけるステップS1の処理の詳細は後述する。
【0026】
続いて、ステップS2において、照明角度取得部105は、照明角度取得センサ104を用いて画像表示装置113を照明している照明装置の照明角度6を取得する。なお、照明角度取得部105におけるステップS2の処理の詳細は後述する。
【0027】
続いて、ステップS3において、画像取得部107は、画像保持部106に保存されている、予め複数の視点角度及び照明角度で撮影した画像データを取得する。この撮影画像データは、例えば、図4(a),(b)のように、水平及び垂直方向において視線方向と被写体面の法線方向とがなす角度(θ1、θ2)と、照射(照明)方向と被写体面の法線方向とがなす角度(θ3、θ4)を変化させて撮影した画像データである。そして、撮影された画像データは、撮影した視点角度(θ1、θ2)と照明角度(θ3、θ4)の条件に対応付けられて画像保持部106に保存される。
【0028】
図4(c)に、視点角度(θ1、θ2)に対応付けられて保存される画像データの一例を示し、図4(d)に、照明角度(θ3、θ4)に対応付けられて保存される画像データの一例を示す。図4(c)、図4(d)は、視点角度を49通り、照明角度を49通りそれぞれ変化させた画像データが保存されており、視点角度が49通りに対して照明角度を49通りそれぞれ変化させた、総組み合わせで2401枚の画像データが画像保持部106に保存される。
【0029】
なお、本実施形態では、視点角度と照明角度をそれぞれ49通り変化させた画像を画像保持部106に保持させるが、照明角度と照明角度の組み合わせは、これに限定されるものではない。
【0030】
続いて、ステップS4において、画像生成部114は、ステップS1で取得した視点角度7、及び、ステップS2で取得した照明角度6に応じた画像を生成する。生成した画像はバッファメモリ116に保存される。なお、画像生成部114におけるステップS4の処理の詳細は後述する。
【0031】
続いて、ステップS5において、入力用プロファイル取得部109は、入力用プロファイル保持部108に保持されている入力用プロファイルを取得する。入力用プロファイルには、例えば、撮影画像データのRGB値を目標RGB値に変換するための3×9の数値行列が記述されている。ここで、目標RGB値とは、目標RGB値を所定の変換式、例えばAdobeRGB変換式で変換したときに被写体の色を忠実に再現するRGB値を指す。なお、入力用プロファイルは、特に限定されるものではなく、撮影画像データの色を適切に補正できるものであればよく、撮影画像データのRGB値と目標RGB値との対応関係を記述したルックアップテーブルでもよい。
【0032】
続いて、ステップS6において、表示用プロファイル取得部111は、表示用プロファイル保持部110に保持されている表示用プロファイルを取得する。表示用プロファイルには、画像表示装置113の表示面に対して角度を変化させて測定器を用いて測定したデータが記述されており、例えば、図5のように、測定角度に応じた表示RGB値と測定値との対応関係が記述されている。
【0033】
続いて、ステップS7において、色補正部115は、入力用プロファイルと表示用プロファイルを用いてステップS4で生成した撮影画像データの色補正を実施する。なお、色補正部115におけるステップS7の色補正処理の詳細は後述する。
【0034】
続いて、ステップS8において、表示部112は、ステップS7で色補正した画像データを画像表示装置113の表示面(ディスプレイ)に表示する。
【0035】
≪視点角度取得部103における動作≫
図6は、図3のステップS1で行われる視点角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【0036】
まず、ステップS101において、視点角度取得部103は、視点角度取得センサ102を用いて画像表示装置113を観察するユーザである観察者1の観察位置と想定される範囲を撮影する。視点角度取得センサ102は、CCD等の撮像素子を具備しており、画像表示装置113に取り付けられているものとする。なお、視点角度取得センサ102の構成は、特に限定されるものではなく、観察者1の顔、目を認識できる画像を撮影できるものであればよく、デジタルカメラであってもデジタルビデオカメラ等であってもよい。
【0037】
続いて、ステップS102において、視点角度取得部103は、視点角度取得センサ102により撮影された画像を取得し、取得した撮影画像より肌色部分を検出して観察者1の顔領域を検出する。なお、顔領域を検出する方法はこれに限定されるものではなく、各種の公知の方法を用いてもよい。
【0038】
続いて、ステップS103において、視点角度取得部103は、ステップS102で検出した顔領域からテンプレートマッチング等を用いて目の領域を検出する。なお、目の領域を検出する方法はこれに限定されるものではなく、各種の公知の方法を用いてもよい。
【0039】
続いて、ステップS104において、視点角度取得部103は、まず、撮影画像の水平方向の中心位置から検出した左右の目の中点までの水平方向の間隔のピクセル数を算出する。そして、視点角度取得部103は、算出したピクセル数から、予め求めておいた視点角度と撮影画像の水平方向の中心位置から観察者の左右の目の中点までの水平方向の間隔のピクセル数との対応関係を用いて視点角度を算出する。上記対応関係は、1次元LUTとしてバッファメモリ116に記憶させておくものとする。また、水平方向と同様の処理を垂直方向についても行い、視点角度(θ1、θ2)を算出する。
【0040】
続いて、ステップS105において、視点角度取得部103は、ステップS104で算出した視点角度をバッファメモリ116に保存する、そして、図6のフローチャートの処理を終了する。
【0041】
≪照明角度取得部105における動作≫
図7は、図3のステップS2で行われる照明角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【0042】
まず、ステップS201において、照明角度取得部105は、照明角度取得センサ104を用いて画像表示装置113を照明する照明装置の照明位置と想定される範囲を撮影する。照明角度取得センサ104は、CCD等の撮像素子を具備しており、画像表示装置113に取り付けられているものとする。なお、照明角度取得センサ104の構成は、特に限定されるものではなく、照明領域を認識できる画像を撮影できるものであればよく、デジタルカメラであってもデジタルビデオカメラ等であってもよい。
【0043】
続いて、ステップS202において、照明角度取得部105は、照明角度取得センサ104により撮影された画像の平均輝度値を算出し、撮影画像中の輝度値において算出した平均輝度値よりも大きい領域を照明領域として検出する。なお、照明領域を検出する方法はこれに限定されるものではなく、例えば、予め輝度値の閾値を設定しておいて当該閾値よりも輝度値が大きい領域を照明領域として検出してもよいし、精度よく照明領域を検出できれば他の方法を用いてもよい。また、輝度値の算出は、下記の数式(1)のように、近似的に算出する。
輝度値Y=(3*R+6*G+1*B)/10 ・・・(1)
なお、輝度値の算出はこれに限定されるものではなく、例えばプロファイルやAdobeRGBなどの所定の変換式を用いて輝度値を算出してもよい。
【0044】
続いて、ステップS203において、照明角度取得部105は、まず、撮影画像の水平方向の中心位置から検出した照明領域の中点までの水平方向の間隔のピクセル数を算出する。そして、照明角度取得部105は、算出したピクセル数から、予め求めておいた照明角度と撮影画像の水平方向の中心位置から照明領域の中点までの水平方向の間隔のピクセル数との対応関係を用いて照明角度を算出する。上記対応関係は1次元LUTとしてバッファメモリ116に記憶させておくものとする。また、水平方向と同様の処理を垂直方向についても行い、照明角度(θ3、θ4)を算出する。
【0045】
続いて、ステップS204において、照明角度取得部105は、ステップS202で検出された全ての照明領域について照明角度を算出したか否かを判断する。この判断の結果、ステップS202で検出された全ての照明領域については未だ照明角度を算出していない場合には、ステップS203に戻る。
一方、ステップS204の判断の結果、ステップS202で検出された全ての照明領域について照明角度を算出した場合には、ステップS205に進む。
【0046】
ステップS205に進むと、照明角度取得部105は、ステップS203で算出した照明角度をバッファメモリ116に保存する。そして、図7のフローチャートの処理を終了する。
【0047】
≪画像生成部114における動作≫
図8は、第1の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【0048】
まず、ステップS401において、画像生成部114は、バッファメモリ116からステップ1で取得したユーザの視点角度を取得する。
【0049】
続いて、ステップS402において、画像生成部114は、バッファメモリ116からステップ2で取得した照明角度を取得する。
【0050】
続いて、ステップS403において、画像生成部114は、バッファメモリ116から、ステップS401及びステップS402で取得した視点角度及び照明角度に一番近い画像データを、ステップS3で取得した画像データの中から取得する。なお、画像保持部106に保持される画像が少ない場合、表示された被写体の画像において鏡面反射の変化が十分に再現されない場合がある。この場合、各視点角度間、及び、各照明角度間の撮影画像を補間することによって画像を作成してもよい。
【0051】
続いて、ステップS404において、画像生成部114は、ステップS403で取得した画像データについて画像の歪みを補正するパース補正を実施する。ここで、パース補正とは、被写体を斜め方向より撮影した画像を正面から撮影したような画像に補正する方法であり、例えば、上記特許文献2のような手法が提案されており、本実施形態では、この方法を用いてパース補正を行う。なお、パース補正はこれに限定されるものではなく、各種の公知の方法を用いてもよい。また、パース補正をより高精度に行うために、レンズ特性に起因する撮影画像の歪曲を補正する処理をプレ処理として行ってもよい。
【0052】
続いて、ステップS405において、画像生成部114は、ステップS403で取得した全ての画像についてパース補正を実施したか否かを判断する。この判断の結果、ステップS403で取得した全ての画像については未だパース補正を実施していない場合には、ステップS403に戻る。
一方、ステップS403で取得した全ての画像についてパース補正を実施した場合には、ステップS406に進む。
【0053】
ステップS406に進むと、画像生成部114は、ステップS405でパース補正した(複数の)撮影画像について、下記の数式(2)を用いて平均化処理を行う。
【0054】
【数1】
【0055】
続いて、ステップS407において、画像生成部114は、ステップS406で平均化処理した撮影画像をバッファメモリ116に保存する。そして、図8のフローチャートの処理を終了する。
【0056】
≪色補正部115における動作≫
図9は、図3のステップS7で行われる色補正処理の詳細な処理手順の一例を示すフローチャートである。
【0057】
まず、ステップS701において、色補正部115は、ステップS5で取得した入力用プロファイルをバッファメモリ116から取得する。
【0058】
続いて、ステップS702において、色補正部115は、ステップS6で取得した表示用プロファイルをバッファメモリ116から取得する。
【0059】
続いて、ステップS703において、色補正部115は、ステップS202で検出した照明領域の各画素において領域内のRGB値の平均値を算出する。
【0060】
続いて、ステップS704において、色補正部115は、ステップS4で生成した撮影画像データをバッファメモリ116から取得する。
【0061】
続いて、ステップS705において、色補正部115は、ステップS703で算出した照明領域内のRGB値とステップS704で取得した撮影画像データのR'G'B'値を用いて、ステップS704で取得した撮影画像データの色を補正する。ここで、R'G'B'値は、ステップS704で取得した撮影画像データのヒストグラムを算出し、例えばヒストグラム上側5%において出現頻度の最も高い画素値を用いる。求めたR'G'B'と照明領域内のRGB値とから、係数Rk=R'/R、係数Gk=G'/G、係数Bk=B'/Bを算出し、ステップS704で取得した撮影画像データの各RGB値に係数を乗算することにより、撮影画像データの色補正を行う。なお、本実施形態では、予め被写体を撮影する照明の色味と観察する照明の色味が異なることを想定して上記のような補正を行っているが、補正方法はこれに限定されるものではない。例えば、照明光源の色味の違いを補正するプロファイルを光源毎に入力用プロファイル保持部108に別途保持させておいて、撮影画像データの色補正を実施してもよい。また、色補正部115は、視点角度取得部103によって取得した視点角度に応じて画像表示装置113に表示する撮影画像の色補正を行ってもよい。
【0062】
続いて、ステップS706において、色補正部115は、ステップS705で変換(補正)した撮影画像データから1画素分データを取得する。
【0063】
続いて、ステップS707において、色補正部115は、ステップS76で取得したRGB値を入力用プロファイルを用いて変換し、変換したRGB値をAdobeRGBの変換式でL*a*b*値に変換する。
【0064】
続いて、ステップS708において、色補正部115は、ステップS707で変換したL*a*b*値をカラリメトリック色域圧縮処理によって、ステップS702で取得した表示用プロファイルにおける画像表示装置113の色域内に圧縮を行う。ここで、カラリメトリック圧縮とは、画像表示装置113内で再現可能な色はそのまま保ち、色域外の色は画像表示装置113内で再現可能な最も近い点に圧縮する手法である。なお、ここで用いる色域圧縮処理は、カラリメトリック圧縮に限定されるものではなく、他の方法を用いてもよい。
【0065】
続いて、ステップS709において、色補正部115は、ステップS702で取得した表示用プロファイルを用いてステップS708で圧縮したL*a*b*値に対応するRGB値を算出する。
【0066】
続いて、ステップS710において、色補正部115は、全ての画素について色変換を実施したか否かを判断する。この判断の結果、全ての画素については色変換を実施していない場合には、ステップS706に戻る。
一方、全ての画素について色変換を実施した場合には、ステップS711に進む。
【0067】
ステップS711に進むと、色補正部115は、色変換を実施した変換画像をバッファメモリ116に保存する。そして、図9のフローチャートの処理を終了する。
【0068】
以上の説明の通り、本実施形態によれば、観察者の視点角度、及び、照明角度を取得し、取得した各角度に応じた画像データを生成するようにしている。これにより、観察者の観察条件下で実際に被写体を観察した際の質感をディスプレイ(画像表示装置の表示面)に表示できる効果を奏する。
【0069】
(第2の実施形態)
第1の実施形態では、視点角度と照明角度を変化させて取得した画像を予め保持し、観察者のディスプレイを観察する視点角度及び照明角度をセンサによって検出し、当該各角度データを用いて、予め保持する画像データから表示画像の生成方法について説明した。そして、第2の実施形態では、撮影画像データを準備する負荷を軽減するために、照明角度を変化させて取得した画像データから、観察者がディスプレイを観察する視点角度と照明角度の相対的な位置角度から表示画像の生成方法について説明する。
【0070】
図10は、第2の実施形態で使用されるデータの流れの一例を示す模式図である。
第2の実施形態では、図10に示すように、画像保持部106に保持される画像データ9は、カメラ(撮像装置4)の撮影角度が固定で照明角度を変化させた画像が保持される。
【0071】
また、図11は、画像保持部106に保持する画像データの取得方法、及び、保持される画像データの一例を示す模式図である。図11(a)、図11(b)に示すように、画像保持部106には撮像装置に対して照明装置の水平方向及び垂直方向の角度(ω1、ω2)を変化させて被写体を撮影した画像データが保持される。ここで、第2の実施形態では、第1の実施形態からの差分である画像生成部114の動作について新たに説明する。そして、第1の実施形態と同一である他の動作については、説明を省略する。
【0072】
≪画像生成部114における動作≫
図12は、第2の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【0073】
まず、ステップS411において、画像生成部114は、バッファメモリ116からステップS1で取得した視点角度を取得する。
【0074】
続いて、ステップS412において、画像生成部114は、バッファメモリ116からステップS2で取得した照明角度を取得する。
【0075】
続いて、ステップS413において、画像生成部114は、画像保持部106から画像データを取得する。
【0076】
続いて、ステップS414において、画像生成部114は、まず、ステップS411及びS412で取得した視点角度(θ1、θ2)及び照明角度(θ3、θ4)の相対的な位置角度(θ1+θ3、θ2+θ4)を算出する。次に、画像生成部114は、算出した位置角度に対応する画像データを、ステップS413で取得した画像データから取得する。なお、画像データを取得する際には、角度が一番近いデータを取得するが、画像保持部106に保持される画像が少ない場合、表示された被写体の画像において鏡面反射の変化が十分に再現されない場合がある。この場合、角度間の撮影画像を補間することによって画像を作成してもよい。
【0077】
続いて、ステップS415において、画像生成部114は、ステップS414で生成した画像をバッファメモリ116に保存する。
【0078】
以上の説明の通り、本実施形態によれば、観察者の視点角度、及び、照明角度を取得し、視点角度と照明角度の相対的な位置角度を参照して画像データを生成するようにしている。これにより、観察者の観察条件下で実際に被写体を観察した際の色の見えをディスプレイ(画像表示装置の表示面)に表示できる効果を奏する。
【0079】
(第3の実施形態)
第3の実施形態では、第1の実施形態の画像処理装置を用いて観察者の視点角度や照明角度に応じて画像表示装置113に表示画像データを表示する際に、観察者の観察距離や観察角度に制限を設けることを目的とする。画像表示装置113から遠く離れた距離に人物がいる場合や観察角度の大きい位置に人物がいた場合に、画像表示装置113の正面付近で観察している観察者の表示画像が変化することを防止するためである。
【0080】
図13は、第3の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
第3の実施形態では、観察角度と観察距離に制限を持たせるために、図13に示すように、画像処理装置101にUI部117を更に具備させる。UI部117は、図14に示すようなユーザーインターフェースを表示する。観察者は、観察距離設定部1401に観察距離の上限値を、観察角度設定部1402に観察角度の上下限値を設定する。観察者が適用ボタン1403を押下すると、画像取得部107は、設定された観察距離と観察角度上下限値を読み込み、画像保持部106から画像を取得する際に、設定された値よりも観察距離、観察角度が大きい場合には画像データは取得しないように制御を行う。
【0081】
また、観察距離の算出は、視点角度取得部103で検出した左右の目の間隔のピクセル数を計算し、予め求めておいた左右の目の間隔のピクセル数と観察距離の関係の1次元LUTを用いることで算出する。
【0082】
(その他の実施形態)
本発明は、上述した実施形態の構成に制限されず、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、図15に示すように、第1の実施形態で説明した画像処理装置101の構成、及び、視点角度取得センサ102、照明角度取得センサ104を画像表示装置113内に内蔵する形態も適用可能である。また、第3の実施形態で示すようなUI部117の表示も画像表示装置113のリモコンのメニューとして具備させて、観察距離や観察角度の設定を行ってもよい。
【0083】
≪画像保持部106に保持される画像データ≫
上述した実施形態では、視点角度及び照明角度を変化させて被写体を撮影した画像データを予め画像保持部106に保持させていたが、被写体の鏡面反射状態が異なる画像をCGを用いて作成し、作成したCGの画像データを保持させてもよい。
【0084】
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
【技術分野】
【0001】
本発明は、観察条件を考慮した被写体の表示を行うための画像処理に関する。
【背景技術】
【0002】
被写体の光沢感等の質感を表現する方法として、例えば、コンピュータグラフィックス(CG)を用いて被写体の3次元データをモデリングし、質感を表す情報として鏡面反射率や拡散反射率を定義してレンダリング処理を行い、2次元画像を表示する方法がある。一般に、被写体の光沢感等の人が感じる質感は、見る人の視点の変化によって被写体の鏡面反射の状態が変化することによって得られる。従って、上記CGにおいても、視点方向や照明方向を動的に変化させて、被写体の鏡面反射光が動的に変化するようにレンダリング処理を行う必要がある。このレンダリング処理は、多大な演算が必要となるため、リアル感のある被写体の3次元データと質感の情報を上記CGの手法を用いて迅速に作成することは、コンピュータの処理速度が一層向上しても難しい。
【0003】
一方で、被写体を複数撮影した画像データから被写体の質感を再現する画像を生成する方法が提案されている。例えば、特許文献1では、照明により被写体の鏡面反射状態が異なる被写体の複数の原画像を取得し、取得した原画像を時間軸、または、ディスプレイを観察する視点に応じて切り換えて表示している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2003−132350号公報
【特許文献2】特開平10−178535号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1では、照明方向を複数変化させて被写体の鏡面反射状態が異なる画像を取得しているが、視点を変化させての画像は取得していない。被写体の鏡面反射は、被写体を観察する観察者の視点と被写体を照明する照明方向によって変化するため、特許文献1の方法では、実際に被写体を観察する視点角度、及び照明角度の条件下での鏡面反射を正確に再現することはできない。
【0006】
本発明は、このような課題に鑑みてなされたものであり、実際に被写体を観察する視点角度及び照明角度の条件下に応じた被写体の表示を可能とすることを目的とする。
【課題を解決するための手段】
【0007】
本発明に係る画像処理装置は、被写体の画像を画像表示装置に表示させるための画像処理装置であって、前記画像表示装置の表示面を観察する観察者の視線方向と前記表示面の法線方向とがなす角度である視点角度を取得する視点角度取得手段と、前記表示面を照明する照明の照射方向と前記表示面の法線方向とがなす角度である照明角度を取得する照明角度取得手段と、前記視点角度取得手段により取得された視点角度と、前記照明角度取得手段により取得された照明角度とに基づいて、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する生成手段と、前記生成手段により生成された画像の色補正をする色補正手段とを有する。
【発明の効果】
【0008】
本発明によれば、実際に被写体を観察する視点角度及び照明角度の条件下に応じた被写体の表示が可能となる。
【図面の簡単な説明】
【0009】
【図1】第1の実施形態で使用されるデータの流れの一例を示す模式図である。
【図2】第1の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
【図3】第1の実施形態に係る画像処理装置において実行される画像処理方法の処理手順の一例を示すフローチャートである。
【図4】第1の実施形態を示し、画像保持部で保持する画像データ、及び、その取得方法の一例を示す模式図である。
【図5】第1の実施形態を示し、表示用プロファイルの一例を示す模式図である。
【図6】図3のステップS1で行われる視点角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【図7】図3のステップS2で行われる照明角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【図8】第1の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【図9】図3のステップS7で行われる色補正処理の詳細な処理手順の一例を示すフローチャートである。
【図10】第2の実施形態で使用されるデータの流れの一例を示す模式図である。
【図11】第2の実施形態を示し、画像保持部で保持する画像データ、及び、その取得方法の一例を示す模式図である。
【図12】第2の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【図13】第3の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
【図14】第3の実施形態を示し、ユーザーインターフェースの一例を示す模式図である。
【図15】その他の実施形態を示し、画像処理装置の機能を画像表示装置内に内蔵した場合の一例を示すブロック図である。
【発明を実施するための形態】
【0010】
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
【0011】
(第1の実施形態)
本発明の実施形態を説明するのにあたり、まず、本発明で使用されるデータのフローを、図1を用いて説明する。
図1は、第1の実施形態で使用されるデータの流れの一例を示す模式図である。
【0012】
本実施形態に係る画像処理装置101は、視点角度取得センサ102、照明角度取得センサ104から、観察者1が画像表示装置113を観察する条件下での視点角度7と照明角度6を取得する。そして、画像処理装置101は、当該視点角度7と照明角度6とにおいて観察される被写体3の見えを画像表示装置113に表示するものである。
【0013】
本実施形態では、予め複数の視点角度7及び照明角度6で被写体を撮像装置4と照明装置5で撮影した画像データ9を用いて、各センサから取得した視点角度7及び照明角度6に応じた生成画像データ8を生成する。生成画像データ8は、予め複数の視点角度における画像表示装置113の色特性を測定器2により表示用プロファイル11として取得し、視点角度取得センサ102から取得した視点角度7に応じて適切なプロファイルを選択して表示画像データ10を生成する。
以下、実施形態について詳細に説明する。
【0014】
図2は、第1の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
図2に示すように、画像処理システムは、画像処理装置101、視点角度取得センサ102、照明角度取得センサ104、及び、画像表示装置113を有して構成されている。
【0015】
画像処理装置101は、画像データを取得し、取得した画像データの処理を行うものである。
視点角度取得センサ102は、視点角度7を取得するセンサである。
照明角度取得センサ104は、照明角度6を取得するセンサである。
画像表示装置113は、表示データを表示するものである。
【0016】
また、画像処理装置101は、視点角度取得部103、照明角度取得部105、画像保持部106、画像取得部107、入力用プロファイル保持部108、入力用プロファイル取得部109を有して構成されている。さらに、画像処理装置101は、表示用プロファイル保持部110、表示用プロファイル取得部111、表示部112、画像生成部114、色補正部115、バッファメモリ116を有して構成されている。
【0017】
視点角度取得部103は、視点角度取得センサ102から視点角度7を取得する。具体的に、視点角度取得部103は、画像表示装置113の表示面を観察する観察者1の視線方向と表示面の法線方向とがなす角度である視点角度7を取得する。
照明角度取得部105は、照明角度取得センサ104から照明角度6を取得する。具体的に、照明角度取得部105は、画像表示装置113を照明する照明の照射方向と表示面の法線方向とがなす角度である照明角度6を取得する。
【0018】
画像保持部106は、予め複数の視点角度及び照明角度で被写体を撮影した画像データを保持するものである。
画像取得部107は、画像保持部106に保持されている画像データを取得するものである。本実施形態においては、画像取得部107は、複数の視点角度、及び、複数の照明角度の条件下で被写体を観察したときに対応する画像を取得する。
【0019】
入力用プロファイル保持部108は、被写体の撮影に使用したカメラの特性を保持するものである。
入力用プロファイル取得部109は、入力用プロファイル保持部108に保持されている入力用プロファイルを取得するものである。
【0020】
表示用プロファイル保持部110は、画像表示装置113の特性を保持するものである。
表示用プロファイル取得部111は、表示用プロファイル保持部110に保持されている表示用プロファイルを取得するものである。
【0021】
表示部112は、画像表示装置113に表示データを送信するものである。
画像生成部114は、観察者の視点角度及び照明角度に応じた画像データを生成するものである。具体的に、画像生成部114は、視点角度取得部103によって取得した視点角度7と、照明角度取得部105によって取得した照明角度6とに基づいて、視点角度7と照明角度6とにおいて観察される被写体の見えを再現する画像を生成する。より詳細に、本実施形態では、画像生成部114は、視点角度取得部103による視点角度7と、照明角度取得部105による照明角度6と、画像取得部107による画像とから、視点角度7と照明角度6とにおいて観察される被写体の見えを再現する画像を生成する。
【0022】
色補正部115は、画像生成部114で生成された画像データの色補正を行うものである。
バッファメモリ116は、演算処理を行うために、一時的に演算結果を保存するメモリである。
【0023】
なお、本実施形態における画像処理装置101のハードウェア構成は、コンピュータなどの公知の技術によって構成可能であるため、ハードウェア構成の詳細な説明は省略する。
【0024】
<画像処理装置101における動作>
図3は、第1の実施形態に係る画像処理装置101において実行される画像処理方法の処理手順の一例を示すフローチャートである。
【0025】
まず、ステップS1において、視点角度取得部103は、視点角度取得センサ102を用いて画像表示装置113を観察している観察者1の視点角度7を取得する。なお、視点角度取得部103におけるステップS1の処理の詳細は後述する。
【0026】
続いて、ステップS2において、照明角度取得部105は、照明角度取得センサ104を用いて画像表示装置113を照明している照明装置の照明角度6を取得する。なお、照明角度取得部105におけるステップS2の処理の詳細は後述する。
【0027】
続いて、ステップS3において、画像取得部107は、画像保持部106に保存されている、予め複数の視点角度及び照明角度で撮影した画像データを取得する。この撮影画像データは、例えば、図4(a),(b)のように、水平及び垂直方向において視線方向と被写体面の法線方向とがなす角度(θ1、θ2)と、照射(照明)方向と被写体面の法線方向とがなす角度(θ3、θ4)を変化させて撮影した画像データである。そして、撮影された画像データは、撮影した視点角度(θ1、θ2)と照明角度(θ3、θ4)の条件に対応付けられて画像保持部106に保存される。
【0028】
図4(c)に、視点角度(θ1、θ2)に対応付けられて保存される画像データの一例を示し、図4(d)に、照明角度(θ3、θ4)に対応付けられて保存される画像データの一例を示す。図4(c)、図4(d)は、視点角度を49通り、照明角度を49通りそれぞれ変化させた画像データが保存されており、視点角度が49通りに対して照明角度を49通りそれぞれ変化させた、総組み合わせで2401枚の画像データが画像保持部106に保存される。
【0029】
なお、本実施形態では、視点角度と照明角度をそれぞれ49通り変化させた画像を画像保持部106に保持させるが、照明角度と照明角度の組み合わせは、これに限定されるものではない。
【0030】
続いて、ステップS4において、画像生成部114は、ステップS1で取得した視点角度7、及び、ステップS2で取得した照明角度6に応じた画像を生成する。生成した画像はバッファメモリ116に保存される。なお、画像生成部114におけるステップS4の処理の詳細は後述する。
【0031】
続いて、ステップS5において、入力用プロファイル取得部109は、入力用プロファイル保持部108に保持されている入力用プロファイルを取得する。入力用プロファイルには、例えば、撮影画像データのRGB値を目標RGB値に変換するための3×9の数値行列が記述されている。ここで、目標RGB値とは、目標RGB値を所定の変換式、例えばAdobeRGB変換式で変換したときに被写体の色を忠実に再現するRGB値を指す。なお、入力用プロファイルは、特に限定されるものではなく、撮影画像データの色を適切に補正できるものであればよく、撮影画像データのRGB値と目標RGB値との対応関係を記述したルックアップテーブルでもよい。
【0032】
続いて、ステップS6において、表示用プロファイル取得部111は、表示用プロファイル保持部110に保持されている表示用プロファイルを取得する。表示用プロファイルには、画像表示装置113の表示面に対して角度を変化させて測定器を用いて測定したデータが記述されており、例えば、図5のように、測定角度に応じた表示RGB値と測定値との対応関係が記述されている。
【0033】
続いて、ステップS7において、色補正部115は、入力用プロファイルと表示用プロファイルを用いてステップS4で生成した撮影画像データの色補正を実施する。なお、色補正部115におけるステップS7の色補正処理の詳細は後述する。
【0034】
続いて、ステップS8において、表示部112は、ステップS7で色補正した画像データを画像表示装置113の表示面(ディスプレイ)に表示する。
【0035】
≪視点角度取得部103における動作≫
図6は、図3のステップS1で行われる視点角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【0036】
まず、ステップS101において、視点角度取得部103は、視点角度取得センサ102を用いて画像表示装置113を観察するユーザである観察者1の観察位置と想定される範囲を撮影する。視点角度取得センサ102は、CCD等の撮像素子を具備しており、画像表示装置113に取り付けられているものとする。なお、視点角度取得センサ102の構成は、特に限定されるものではなく、観察者1の顔、目を認識できる画像を撮影できるものであればよく、デジタルカメラであってもデジタルビデオカメラ等であってもよい。
【0037】
続いて、ステップS102において、視点角度取得部103は、視点角度取得センサ102により撮影された画像を取得し、取得した撮影画像より肌色部分を検出して観察者1の顔領域を検出する。なお、顔領域を検出する方法はこれに限定されるものではなく、各種の公知の方法を用いてもよい。
【0038】
続いて、ステップS103において、視点角度取得部103は、ステップS102で検出した顔領域からテンプレートマッチング等を用いて目の領域を検出する。なお、目の領域を検出する方法はこれに限定されるものではなく、各種の公知の方法を用いてもよい。
【0039】
続いて、ステップS104において、視点角度取得部103は、まず、撮影画像の水平方向の中心位置から検出した左右の目の中点までの水平方向の間隔のピクセル数を算出する。そして、視点角度取得部103は、算出したピクセル数から、予め求めておいた視点角度と撮影画像の水平方向の中心位置から観察者の左右の目の中点までの水平方向の間隔のピクセル数との対応関係を用いて視点角度を算出する。上記対応関係は、1次元LUTとしてバッファメモリ116に記憶させておくものとする。また、水平方向と同様の処理を垂直方向についても行い、視点角度(θ1、θ2)を算出する。
【0040】
続いて、ステップS105において、視点角度取得部103は、ステップS104で算出した視点角度をバッファメモリ116に保存する、そして、図6のフローチャートの処理を終了する。
【0041】
≪照明角度取得部105における動作≫
図7は、図3のステップS2で行われる照明角度取得処理の詳細な処理手順の一例を示すフローチャートである。
【0042】
まず、ステップS201において、照明角度取得部105は、照明角度取得センサ104を用いて画像表示装置113を照明する照明装置の照明位置と想定される範囲を撮影する。照明角度取得センサ104は、CCD等の撮像素子を具備しており、画像表示装置113に取り付けられているものとする。なお、照明角度取得センサ104の構成は、特に限定されるものではなく、照明領域を認識できる画像を撮影できるものであればよく、デジタルカメラであってもデジタルビデオカメラ等であってもよい。
【0043】
続いて、ステップS202において、照明角度取得部105は、照明角度取得センサ104により撮影された画像の平均輝度値を算出し、撮影画像中の輝度値において算出した平均輝度値よりも大きい領域を照明領域として検出する。なお、照明領域を検出する方法はこれに限定されるものではなく、例えば、予め輝度値の閾値を設定しておいて当該閾値よりも輝度値が大きい領域を照明領域として検出してもよいし、精度よく照明領域を検出できれば他の方法を用いてもよい。また、輝度値の算出は、下記の数式(1)のように、近似的に算出する。
輝度値Y=(3*R+6*G+1*B)/10 ・・・(1)
なお、輝度値の算出はこれに限定されるものではなく、例えばプロファイルやAdobeRGBなどの所定の変換式を用いて輝度値を算出してもよい。
【0044】
続いて、ステップS203において、照明角度取得部105は、まず、撮影画像の水平方向の中心位置から検出した照明領域の中点までの水平方向の間隔のピクセル数を算出する。そして、照明角度取得部105は、算出したピクセル数から、予め求めておいた照明角度と撮影画像の水平方向の中心位置から照明領域の中点までの水平方向の間隔のピクセル数との対応関係を用いて照明角度を算出する。上記対応関係は1次元LUTとしてバッファメモリ116に記憶させておくものとする。また、水平方向と同様の処理を垂直方向についても行い、照明角度(θ3、θ4)を算出する。
【0045】
続いて、ステップS204において、照明角度取得部105は、ステップS202で検出された全ての照明領域について照明角度を算出したか否かを判断する。この判断の結果、ステップS202で検出された全ての照明領域については未だ照明角度を算出していない場合には、ステップS203に戻る。
一方、ステップS204の判断の結果、ステップS202で検出された全ての照明領域について照明角度を算出した場合には、ステップS205に進む。
【0046】
ステップS205に進むと、照明角度取得部105は、ステップS203で算出した照明角度をバッファメモリ116に保存する。そして、図7のフローチャートの処理を終了する。
【0047】
≪画像生成部114における動作≫
図8は、第1の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【0048】
まず、ステップS401において、画像生成部114は、バッファメモリ116からステップ1で取得したユーザの視点角度を取得する。
【0049】
続いて、ステップS402において、画像生成部114は、バッファメモリ116からステップ2で取得した照明角度を取得する。
【0050】
続いて、ステップS403において、画像生成部114は、バッファメモリ116から、ステップS401及びステップS402で取得した視点角度及び照明角度に一番近い画像データを、ステップS3で取得した画像データの中から取得する。なお、画像保持部106に保持される画像が少ない場合、表示された被写体の画像において鏡面反射の変化が十分に再現されない場合がある。この場合、各視点角度間、及び、各照明角度間の撮影画像を補間することによって画像を作成してもよい。
【0051】
続いて、ステップS404において、画像生成部114は、ステップS403で取得した画像データについて画像の歪みを補正するパース補正を実施する。ここで、パース補正とは、被写体を斜め方向より撮影した画像を正面から撮影したような画像に補正する方法であり、例えば、上記特許文献2のような手法が提案されており、本実施形態では、この方法を用いてパース補正を行う。なお、パース補正はこれに限定されるものではなく、各種の公知の方法を用いてもよい。また、パース補正をより高精度に行うために、レンズ特性に起因する撮影画像の歪曲を補正する処理をプレ処理として行ってもよい。
【0052】
続いて、ステップS405において、画像生成部114は、ステップS403で取得した全ての画像についてパース補正を実施したか否かを判断する。この判断の結果、ステップS403で取得した全ての画像については未だパース補正を実施していない場合には、ステップS403に戻る。
一方、ステップS403で取得した全ての画像についてパース補正を実施した場合には、ステップS406に進む。
【0053】
ステップS406に進むと、画像生成部114は、ステップS405でパース補正した(複数の)撮影画像について、下記の数式(2)を用いて平均化処理を行う。
【0054】
【数1】
【0055】
続いて、ステップS407において、画像生成部114は、ステップS406で平均化処理した撮影画像をバッファメモリ116に保存する。そして、図8のフローチャートの処理を終了する。
【0056】
≪色補正部115における動作≫
図9は、図3のステップS7で行われる色補正処理の詳細な処理手順の一例を示すフローチャートである。
【0057】
まず、ステップS701において、色補正部115は、ステップS5で取得した入力用プロファイルをバッファメモリ116から取得する。
【0058】
続いて、ステップS702において、色補正部115は、ステップS6で取得した表示用プロファイルをバッファメモリ116から取得する。
【0059】
続いて、ステップS703において、色補正部115は、ステップS202で検出した照明領域の各画素において領域内のRGB値の平均値を算出する。
【0060】
続いて、ステップS704において、色補正部115は、ステップS4で生成した撮影画像データをバッファメモリ116から取得する。
【0061】
続いて、ステップS705において、色補正部115は、ステップS703で算出した照明領域内のRGB値とステップS704で取得した撮影画像データのR'G'B'値を用いて、ステップS704で取得した撮影画像データの色を補正する。ここで、R'G'B'値は、ステップS704で取得した撮影画像データのヒストグラムを算出し、例えばヒストグラム上側5%において出現頻度の最も高い画素値を用いる。求めたR'G'B'と照明領域内のRGB値とから、係数Rk=R'/R、係数Gk=G'/G、係数Bk=B'/Bを算出し、ステップS704で取得した撮影画像データの各RGB値に係数を乗算することにより、撮影画像データの色補正を行う。なお、本実施形態では、予め被写体を撮影する照明の色味と観察する照明の色味が異なることを想定して上記のような補正を行っているが、補正方法はこれに限定されるものではない。例えば、照明光源の色味の違いを補正するプロファイルを光源毎に入力用プロファイル保持部108に別途保持させておいて、撮影画像データの色補正を実施してもよい。また、色補正部115は、視点角度取得部103によって取得した視点角度に応じて画像表示装置113に表示する撮影画像の色補正を行ってもよい。
【0062】
続いて、ステップS706において、色補正部115は、ステップS705で変換(補正)した撮影画像データから1画素分データを取得する。
【0063】
続いて、ステップS707において、色補正部115は、ステップS76で取得したRGB値を入力用プロファイルを用いて変換し、変換したRGB値をAdobeRGBの変換式でL*a*b*値に変換する。
【0064】
続いて、ステップS708において、色補正部115は、ステップS707で変換したL*a*b*値をカラリメトリック色域圧縮処理によって、ステップS702で取得した表示用プロファイルにおける画像表示装置113の色域内に圧縮を行う。ここで、カラリメトリック圧縮とは、画像表示装置113内で再現可能な色はそのまま保ち、色域外の色は画像表示装置113内で再現可能な最も近い点に圧縮する手法である。なお、ここで用いる色域圧縮処理は、カラリメトリック圧縮に限定されるものではなく、他の方法を用いてもよい。
【0065】
続いて、ステップS709において、色補正部115は、ステップS702で取得した表示用プロファイルを用いてステップS708で圧縮したL*a*b*値に対応するRGB値を算出する。
【0066】
続いて、ステップS710において、色補正部115は、全ての画素について色変換を実施したか否かを判断する。この判断の結果、全ての画素については色変換を実施していない場合には、ステップS706に戻る。
一方、全ての画素について色変換を実施した場合には、ステップS711に進む。
【0067】
ステップS711に進むと、色補正部115は、色変換を実施した変換画像をバッファメモリ116に保存する。そして、図9のフローチャートの処理を終了する。
【0068】
以上の説明の通り、本実施形態によれば、観察者の視点角度、及び、照明角度を取得し、取得した各角度に応じた画像データを生成するようにしている。これにより、観察者の観察条件下で実際に被写体を観察した際の質感をディスプレイ(画像表示装置の表示面)に表示できる効果を奏する。
【0069】
(第2の実施形態)
第1の実施形態では、視点角度と照明角度を変化させて取得した画像を予め保持し、観察者のディスプレイを観察する視点角度及び照明角度をセンサによって検出し、当該各角度データを用いて、予め保持する画像データから表示画像の生成方法について説明した。そして、第2の実施形態では、撮影画像データを準備する負荷を軽減するために、照明角度を変化させて取得した画像データから、観察者がディスプレイを観察する視点角度と照明角度の相対的な位置角度から表示画像の生成方法について説明する。
【0070】
図10は、第2の実施形態で使用されるデータの流れの一例を示す模式図である。
第2の実施形態では、図10に示すように、画像保持部106に保持される画像データ9は、カメラ(撮像装置4)の撮影角度が固定で照明角度を変化させた画像が保持される。
【0071】
また、図11は、画像保持部106に保持する画像データの取得方法、及び、保持される画像データの一例を示す模式図である。図11(a)、図11(b)に示すように、画像保持部106には撮像装置に対して照明装置の水平方向及び垂直方向の角度(ω1、ω2)を変化させて被写体を撮影した画像データが保持される。ここで、第2の実施形態では、第1の実施形態からの差分である画像生成部114の動作について新たに説明する。そして、第1の実施形態と同一である他の動作については、説明を省略する。
【0072】
≪画像生成部114における動作≫
図12は、第2の実施形態を示し、図3のステップS4で行われる画像生成処理の詳細な処理手順の一例を示すフローチャートである。
【0073】
まず、ステップS411において、画像生成部114は、バッファメモリ116からステップS1で取得した視点角度を取得する。
【0074】
続いて、ステップS412において、画像生成部114は、バッファメモリ116からステップS2で取得した照明角度を取得する。
【0075】
続いて、ステップS413において、画像生成部114は、画像保持部106から画像データを取得する。
【0076】
続いて、ステップS414において、画像生成部114は、まず、ステップS411及びS412で取得した視点角度(θ1、θ2)及び照明角度(θ3、θ4)の相対的な位置角度(θ1+θ3、θ2+θ4)を算出する。次に、画像生成部114は、算出した位置角度に対応する画像データを、ステップS413で取得した画像データから取得する。なお、画像データを取得する際には、角度が一番近いデータを取得するが、画像保持部106に保持される画像が少ない場合、表示された被写体の画像において鏡面反射の変化が十分に再現されない場合がある。この場合、角度間の撮影画像を補間することによって画像を作成してもよい。
【0077】
続いて、ステップS415において、画像生成部114は、ステップS414で生成した画像をバッファメモリ116に保存する。
【0078】
以上の説明の通り、本実施形態によれば、観察者の視点角度、及び、照明角度を取得し、視点角度と照明角度の相対的な位置角度を参照して画像データを生成するようにしている。これにより、観察者の観察条件下で実際に被写体を観察した際の色の見えをディスプレイ(画像表示装置の表示面)に表示できる効果を奏する。
【0079】
(第3の実施形態)
第3の実施形態では、第1の実施形態の画像処理装置を用いて観察者の視点角度や照明角度に応じて画像表示装置113に表示画像データを表示する際に、観察者の観察距離や観察角度に制限を設けることを目的とする。画像表示装置113から遠く離れた距離に人物がいる場合や観察角度の大きい位置に人物がいた場合に、画像表示装置113の正面付近で観察している観察者の表示画像が変化することを防止するためである。
【0080】
図13は、第3の実施形態に係る画像処理システムの概略構成の一例を示すブロック図である。
第3の実施形態では、観察角度と観察距離に制限を持たせるために、図13に示すように、画像処理装置101にUI部117を更に具備させる。UI部117は、図14に示すようなユーザーインターフェースを表示する。観察者は、観察距離設定部1401に観察距離の上限値を、観察角度設定部1402に観察角度の上下限値を設定する。観察者が適用ボタン1403を押下すると、画像取得部107は、設定された観察距離と観察角度上下限値を読み込み、画像保持部106から画像を取得する際に、設定された値よりも観察距離、観察角度が大きい場合には画像データは取得しないように制御を行う。
【0081】
また、観察距離の算出は、視点角度取得部103で検出した左右の目の間隔のピクセル数を計算し、予め求めておいた左右の目の間隔のピクセル数と観察距離の関係の1次元LUTを用いることで算出する。
【0082】
(その他の実施形態)
本発明は、上述した実施形態の構成に制限されず、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、図15に示すように、第1の実施形態で説明した画像処理装置101の構成、及び、視点角度取得センサ102、照明角度取得センサ104を画像表示装置113内に内蔵する形態も適用可能である。また、第3の実施形態で示すようなUI部117の表示も画像表示装置113のリモコンのメニューとして具備させて、観察距離や観察角度の設定を行ってもよい。
【0083】
≪画像保持部106に保持される画像データ≫
上述した実施形態では、視点角度及び照明角度を変化させて被写体を撮影した画像データを予め画像保持部106に保持させていたが、被写体の鏡面反射状態が異なる画像をCGを用いて作成し、作成したCGの画像データを保持させてもよい。
【0084】
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
【特許請求の範囲】
【請求項1】
被写体の画像を画像表示装置に表示させるための画像処理装置であって、
前記画像表示装置の表示面を観察する観察者の視線方向と前記表示面の法線方向とがなす角度である視点角度を取得する視点角度取得手段と、
前記表示面を照明する照明の照射方向と前記表示面の法線方向とがなす角度である照明角度を取得する照明角度取得手段と、
前記視点角度取得手段により取得された視点角度と、前記照明角度取得手段により取得された照明角度とに基づいて、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する生成手段と、
前記生成手段により生成された画像の色補正をする色補正手段と
を有することを特徴とする画像処理装置。
【請求項2】
複数の視点角度、及び、複数の照明角度の条件下で被写体を観察したときに対応する画像を取得する画像取得手段を更に有し、
前記生成手段は、前記視点角度取得手段により取得された視点角度と、前記照明角度取得手段により取得された照明角度と、前記画像取得手段により取得された画像とから、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成することを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記画像取得手段で取得する画像は、予め視点角度及び照明角度をそれぞれ変化させて前記被写体を撮影した画像であることを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記画像取得手段で取得する画像は、予めCGで視点角度及び照明角度をそれぞれ変化させて作成した前記被写体の画像であることを特徴とする請求項2に記載の画像処理装置。
【請求項5】
前記色補正手段は、前記視点角度取得手段により取得された視点角度に応じて前記表示面に表示する画像の色補正を行うことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
【請求項6】
コンピュータを、請求項1乃至5のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
【請求項7】
被写体の画像を画像表示装置に表示させるための画像処理方法であって、
前記画像表示装置の表示面を観察する観察者の視線方向と前記表示面の法線方向とがなす角度である視点角度を取得する視点角度取得ステップと、
前記表示面を照明する照明の照射方向と前記表示面の法線方向とがなす角度である照明角度を取得する照明角度取得ステップと、
前記視点角度取得ステップにより取得された視点角度と、前記照明角度取得ステップにより取得された照明角度とに基づいて、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する生成ステップと、
前記生成ステップにより生成された画像の色補正を行う色補正ステップと
を有することを特徴とする画像処理方法。
【請求項8】
複数の視点角度、及び、複数の照明角度の条件下で被写体を観察したときに対応する画像を取得する画像取得ステップを更に有し、
前記生成ステップでは、前記視点角度取得ステップにより取得された視点角度と、前記照明角度取得ステップにより取得された照明角度と、前記画像取得ステップにより取得された画像とから、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成することを特徴とする請求項7に記載の画像処理方法。
【請求項1】
被写体の画像を画像表示装置に表示させるための画像処理装置であって、
前記画像表示装置の表示面を観察する観察者の視線方向と前記表示面の法線方向とがなす角度である視点角度を取得する視点角度取得手段と、
前記表示面を照明する照明の照射方向と前記表示面の法線方向とがなす角度である照明角度を取得する照明角度取得手段と、
前記視点角度取得手段により取得された視点角度と、前記照明角度取得手段により取得された照明角度とに基づいて、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する生成手段と、
前記生成手段により生成された画像の色補正をする色補正手段と
を有することを特徴とする画像処理装置。
【請求項2】
複数の視点角度、及び、複数の照明角度の条件下で被写体を観察したときに対応する画像を取得する画像取得手段を更に有し、
前記生成手段は、前記視点角度取得手段により取得された視点角度と、前記照明角度取得手段により取得された照明角度と、前記画像取得手段により取得された画像とから、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成することを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記画像取得手段で取得する画像は、予め視点角度及び照明角度をそれぞれ変化させて前記被写体を撮影した画像であることを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記画像取得手段で取得する画像は、予めCGで視点角度及び照明角度をそれぞれ変化させて作成した前記被写体の画像であることを特徴とする請求項2に記載の画像処理装置。
【請求項5】
前記色補正手段は、前記視点角度取得手段により取得された視点角度に応じて前記表示面に表示する画像の色補正を行うことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
【請求項6】
コンピュータを、請求項1乃至5のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
【請求項7】
被写体の画像を画像表示装置に表示させるための画像処理方法であって、
前記画像表示装置の表示面を観察する観察者の視線方向と前記表示面の法線方向とがなす角度である視点角度を取得する視点角度取得ステップと、
前記表示面を照明する照明の照射方向と前記表示面の法線方向とがなす角度である照明角度を取得する照明角度取得ステップと、
前記視点角度取得ステップにより取得された視点角度と、前記照明角度取得ステップにより取得された照明角度とに基づいて、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成する生成ステップと、
前記生成ステップにより生成された画像の色補正を行う色補正ステップと
を有することを特徴とする画像処理方法。
【請求項8】
複数の視点角度、及び、複数の照明角度の条件下で被写体を観察したときに対応する画像を取得する画像取得ステップを更に有し、
前記生成ステップでは、前記視点角度取得ステップにより取得された視点角度と、前記照明角度取得ステップにより取得された照明角度と、前記画像取得ステップにより取得された画像とから、前記視点角度と前記照明角度とにおいて観察される前記被写体の見えを再現する画像を生成することを特徴とする請求項7に記載の画像処理方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【公開番号】特開2012−128713(P2012−128713A)
【公開日】平成24年7月5日(2012.7.5)
【国際特許分類】
【出願番号】特願2010−280357(P2010−280357)
【出願日】平成22年12月16日(2010.12.16)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】
【公開日】平成24年7月5日(2012.7.5)
【国際特許分類】
【出願日】平成22年12月16日(2010.12.16)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】
[ Back to top ]