説明

立体視映像のための画像表示システム及び3次元表示装置

【課題】個人の立体視の能力に合わせて視差を調節した3次元映像を提供することができない。
【解決手段】右目側シャッタ及び左目側シャッタの透過状態を制御するシャッタ制御部と、視聴者の眼の状態情報を計測するセンサとを有するメガネと双方向に通信する通信手段と、メガネから受信した視聴者の眼の状態情報を用いて測定した視聴者の眼球運動を用いて視聴者の立体視能力を計算する立体視能力計算手段と、立体視能力計算手段で計算された立体視能力を、個人特定手段で特定した視聴者ごとに記憶する立体視能力記憶手段と、前記立体視能力記憶手段に記憶された視聴者ごとの立体視能力に従って奥行き調整量を決定する奥行き調整量決定手段と、前記奥行き調整量決定手段により決定された奥行き調整量に基づいて、左目用画像と右目用画像の視差を調節し、視差を調整した右目用画像及び左目用画像を交互に出力する画像表示部とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、立体視映像のためのシャッタ眼鏡を含む画像表示システムに関する。
【背景技術】
【0002】
3次元映像は、大画面による映画のみでなく、家庭用の3次元テレビやコンピュータディスプレイの普及とともにテレビコンテンツやゲームの映像として広まりつつある。3次元映像は右目に提示する画像と左目に提示する画像との間に視差を作ることで、視聴者に奥行きがあるように錯覚させるものである。3次元映像の視聴においては、従来の2次元の映像と異なり、被写体の奥行きに合わせて右目と左目はそれぞれに動く。奥行きが小さく被写体が手前に飛び出して見えるときには左右の目は寄り目になる方向に動き、奥行きが大きく被写体が遠くに見えるときには両目はまっすぐ前を見る状態に近くなる。左右の目がそれぞれに動き、左右の目に異なる画像が入力される。脳は左右の目に入力された別々の画像を1つに合成(融像)することで立体視を行う。この、左右の目に入力された別々の画像を融像して立体視を行う能力には個人差があることが指摘されている。すなわち融像できる視差の範囲が個人によって異なり、同じ視差の左右の画像を見た際に、融像して1つの立体の画像を見ることができる人と、融像できずに2重像が見える人がある。
【0003】
特許文献1では、このような個人差に対して、視差の範囲を視聴者自身が調節して、違和感や不具合を感じることなく立体視できる範囲の視差で3次元映像を視聴していた。
【0004】
また、左右の目に入力された別々の画像を融像して立体視を行う能力は、3次元映像に対する慣れによって向上し、立体視可能な視差の範囲が大きくなることが指摘されている。
【0005】
特許文献2では、3次元映像の視聴に当たって、3次元映像を見慣れない人のために、視差の小さな画像から徐々に視差の大きな画像を見せることで、立体視を行う能力を訓練していた。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2011−35712号公報
【特許文献2】特開2010−193411号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、文献1の方法では視聴者が3次元映像の視聴を開始し、違和感や2重像等の不具合を感じた後に調整をすることになり、最初から快適な範囲で3次元映像を視聴することができないという不都合があった。一方、あらかじめ視差を調節して、小さい視差で3次元映像を提示すると、違和感や不具合を感じないため視差が小さいことに気が付かず、立体視する能力が高い視聴者が視差が小さくなっていることに気が付かない。そのため視差を大きくする調節を行う機会をのがして、立体視する能力が高い視聴者が3次元映像の迫力を十分に楽しむことができないという課題があった。また、文献2のように3次元映像を視聴する前に専用の画像を視聴して、立体視の能力を測定して訓練するのは面倒であるという課題を有していた。
【課題を解決するための手段】
【0008】
視聴者の左目に提示する画像と右目に提示する画像を交互に出力する画面を備える画像表示装置と、
前記画面に左目用画像が表示されるときに左目側のシャッタを透過状態にし、前記画面に右目用画像が表示されるときに右目側のシャッタを透過状態にする、前記視聴者の顔面または頭部に装着するメガネとを備える3次元画像表示システムにおいて、
前記画像表示装置とメガネとが双方向に通信する通信手段を備え、
前記メガネは、
前記視聴者の目の状態を測定する生体信号測定手段と、
前記生体信号測定手段で測定された前記視聴者の目の状態を通信信号に変換して前記メガネから前記画像表示装置に送信する送信手段とを備え、
前記画像表示装置は、
前記メガネから前記画像表示装置に送信する通信信号を受信する受信手段と、 前記視聴者を特定する個人特定手段と、前記受信手段で受信した前記メガネから送信された前記視聴者の目の状態を用いて前記視聴者の眼球運動を測定する眼球運動測定手段と、
前記眼球運動測定手段で測定した前記視聴者の眼球運動を用いて視聴者の立体視能力を計算する立体視能力計算手段と、
前記立体視能力計算手段で計算された前記立体視能力を、前記個人特定手段で特定した視聴者ごとに記憶する立体視能力記憶手段と、
前記立体視能力記憶手段に記憶された視聴者ごとの立体視能力に従って奥行き調整量を決定する奥行き調整量決定手段を前記画像表示装置に備える。
これにより、当該視聴者が3次元映像の視聴経験を重ねることにより起こる立体視範囲の変化を推定して視聴開始時の表示奥行きの範囲を調整することができる。これにより、3次元映像の迫力を最大化できる。
【発明の効果】
【0009】
本発明の画像表示システムによれば、3次元画像視聴中の視聴者の生体信号を取得して、3次元視聴中の各視聴者の個人ごとの立体視の能力を記憶することで、次回視聴時に視聴者の個人を特定してその視聴者の立体視の能力を抽出し、個人の立体視の能力に合わせて視差を調節した3次元映像を提供できる。
【図面の簡単な説明】
【0010】
【図1】本発明の実施の形態1における画像表示システムの構成の一例を示すブロック図。
【図2】本発明の実施の形態1における画像表示システムの詳細な構成の一例を示すブロック図。
【図3】本発明の実施の形態1における画像表示システムの視聴者の個人を選択する画面表示とメガネ部の入力ボタンの一例を示す模式図。
【図4】本発明の実施の形態1における画像表示システムの画像表示部とメガネ部の間の通信の手順を示した図。
【図5】本発明の実施の形態1における画像表示システムの処理の流れを示すフローチャート。
【図6】本発明の実施の形態1における立体視能力データベースのデータ構成の一例を示す図。
【図7】本発明の実施の形態1における画像表示システムの、眼球基礎データ取得時の2次元平面上の注視点の提示位置と3次元映像表示時の奥行き距離との関係を示す模式図。
【図8】本発明の実施の形態1における画像表示システムの処理の流れの、眼球基礎データ取得ステップの詳細な処理の一例を示すフローチャート。
【図9】本発明の実施の形態1における画像表示システムの画像表示部とメガネ部の間の通信の手順を示した図。
【図10】本発明の実施の形態1における画像表示システムの処理の流れの、立体視範囲計算ステップの詳細な処理の一例を示すフローチャート。
【図11】本発明の実施の形態1における画像表示システムの、瞳孔位置と奥行き距離との関係を示す模式図。
【図12】本発明の実施の形態1における画像表示システムの、立体視範囲測定の手順により記録される、3次元映像の視聴による立体視範囲の時間的変化の一例を示す模式図。
【図13】本発明の実施の形態1の第1の変形例における画像表示システムの構成の一例を示すブロック図。
【図14】本発明の実施の形態1の第1の変形例における画像表示システムの詳細な構成の一例を示すブロック図。
【図15】本発明の実施の形態1の第1の変形例における立体視能力データベースのデータ構成の一例を示す図。
【図16】本発明の実施の形態1の第1の変形例における立体視範囲の履歴から現在の立体視範囲を推定する方法を示す模式図
【図17】本発明の実施の形態1の第1の変形例における奥行き調整量決定ステップの詳細な処理のながれの一例を示すフローチャートである。
【図18】本発明の実施の形態1の第1の変形例における一部の処理のながれの一例を示すフローチャートである。
【図19】本発明の実施の形態1の第1の変形例における画像表示システムの詳細な構成の一例を示すブロック図。
【図20】本発明の実施の形態1の第1の変形例における画像表示システムの処理の流れの、立体視範囲計算ステップの詳細な処理の一例を示すフローチャート。
【図21】本発明の実施の形態1の第1の変形例における画像表示システムの処理の流れの、奥行き調整量微調整ステップの詳細な処理の一例を示すフローチャート。
【図22】本発明の実施の形態1の第1の変形例における画像表示システムの別の詳細な構成の一例を示すブロック図。
【図23】本発明の実施の形態1の第1の変形例における標準奥行きデータのデータ構成の一例を示す図。
【図24】本発明の実施の形態1の変形例2における3次元表示テレビの構成の一例を示すブロック図。
【図25】本発明の実施の形態1の変形例2における3次元表示テレビの詳細な構成の一例を示すブロック図。
【図26】本発明の実施の形態1の変形例2における立体視能力データベースのデータ構成の一例を示す図。
【図27】本発明の実施の形態1の変形例2における前半の処理のながれの一例を示すフローチャート。
【図28】本発明の実施の形態1の変形例2における後半の処理のながれの一例を示すフローチャート。
【図29】本発明の実施の形態1の変形例2における画像表示システムの処理の流れの、立体視範囲推定ステップの詳細な処理の一例を示すフローチャート。
【図30】本発明の実施の形態1の変形例2における画像表示システムの処理の流れの、立体視範囲変化予測ステップの詳細な処理の一例を示すフローチャート。
【図31】本発明の実施の形態2における画像表示システムの構成の一例を示すブロック図。
【図32】本発明の実施の形態2における画像表示システムの詳細な構成の一例を示すブロック図。
【図33】本発明の実施の形態2における視聴制限データベースのデータ構成の一例を示す図。
【図34】本発明の実施の形態2における画像表示システムの画像表示部とメガネ部の間の通信の手順を示した図。
【図35】本発明の実施の形態3における3次元専用メガネの構成の一例を示すブロック図。
【図36】本発明の実施の形態3における3次元専用メガネのカメラと光源の設置位置の一例を示す模式図。
【図37】本発明の実施の形態3における3次元専用メガネの光源の照射範囲とカメラの撮像範囲の一例を示す模式図。
【図38】本発明の実施の形態1の変形例3における画像表示システムの詳細な構成の一例を示すブロック図。
【図39】本発明の実施の形態1の変形例3における画像表示システムの、輻輳範囲測定時のディスプレイ表示と眼球運動と立体視による奥行きとの関係を示す模式図。
【図40】本発明の実施の形態1の変形例3における画像表示システムの、輻輳範囲測定時のディスプレイ表示と眼球運動と立体視による奥行きとの関係を示す模式図。
【図41】本発明の実施の形態1の変形例3における画像表示システムの、輻輳範囲測定点の一例を示す模式図。
【図42】本発明の実施の形態1の変形例3における画像表示システムの、左右の輻輳状態が異なる視聴者における立体視能力の測定結果の一例を示すグラフ。
【図43】本発明の実施の形態1の変形例3における画像表示システムの、中心部と周辺部で輻輳状態が異なる視聴者における立体視能力の測定結果の一例を示すグラフ。
【図44】本発明の実施の形態1の変形例3における画像表示システムの、楕円モデルによる瞳孔中心の計算に失敗する眼球画像例の模式図。
【図45】本発明の実施の形態1の変形例3における画像表示システムの、瞳孔のエッジ抽出による瞳孔中心の検出の方法を示す模式図。
【図46】本発明の実施の形態1の変形例3における画像表示システムの、輻輳範囲測定点と瞳孔位置との関係を示す模式図。
【図47】本発明の実施の形態2の第1の変形例における画像表示システムの、構成の一例を示すブロック図。
【図48】本発明の実施の形態2の第1の変形例における画像表示システムの、処理のながれの一例を示すフローチャート。
【発明を実施するための形態】
【0011】
(実施の形態1)
図1は本実施の形態による画像表示システム1の構成図である。
【0012】
画像表示システム1は、3次元表示テレビ10と3次元専用メガネ20と入力インタフェース30からなる。
【0013】
3次元表示テレビ10は、コンテンツ情報蓄積部110、ディスプレイ(画像表示部)120、画面制御部130、制御信号送信部140、奥行き調整量決定部200とを有する表示装置と、通信制御部150、送受信部160、輻輳状態計算部170、立体視能力計算部180、視聴者データ管理部190とを有する生体情報管理装置とを備える。
尚、生体情報管理装置は、3次元表示テレビに内蔵される必要はなく、個別の装置として独立することも可能である。
<表示装置>
コンテンツ情報蓄積部110は、映像コンテンツを蓄積する。
ディスプレイ(画像表示部)120は、映像コンテンツを表示する。
画面制御部130は、ディスプレイ120の表示と3次元専用メガネ20との同期をとり、映像表示を制御する。
また奥行き調整量決定部200により決定された奥行き調整量に基づいて、視聴者の左目に提示する左目用画像と右目に提示する右目用画像の視差を調節し、視差を調整した右目用画像及び左目用画像を交互に出力するように制御する。
制御信号送信部140は、ディスプレイ120の表示と3次元専用メガネ20との同期を取るための制御信号を3次元専用メガネに送信する。
奥行き調整量決定部200は、後述する視聴者データ管理部190に記憶された視聴者個人の立体視能力に従って奥行き調整量を決定する。
<生体情報管理装置>
通信制御部150は、3次元専用メガネ20との情報通信を制御する。
送受信部160は、3次元専用メガネ20との情報通信を行う。
輻輳状態計算部170は、3次元専用メガネ20から受信した情報を利用して視聴者の眼球の輻輳開散運動の状態を計算する。
立体視能力計算部180は、輻輳状態計算部170で計算された視聴者の眼球の輻輳開散運動の状態から視聴者の立体視能力を計算する。
視聴者データ管理部190は、立体視能力計算部で計算された視聴者の立体視能力を、視聴者の個人ごとに管理する。
<3次元専用メガネ>
3次元専用メガネ20は、制御信号受信部210、シャッタ制御部220、生体信号センサ230、信号生成部240、送受信部250、通信制御部260、個人選択入力ボタン270とを備える。
制御信号受信部210は、3次元表示テレビ10の制御信号送信部140から送信される、画面の表示と3次元専用メガネ20との同期を取るための制御信号を受信する。
シャッタ制御部220は、画面に表示される右目用または左目用の画像と同期して、図示しない右目用または左目用シャッタを開閉する。
生体信号センサ230は、視聴者の生体信号を取得する。
信号生成部240は、生体信号センサ230で取得したデータに基づいて視聴者の眼球運動を示す信号を生成する。
送受信部250は、メガネID情報、個人選択入力信号、生体情報管理装置との情報通信を行う。
通信制御部260は、送受信部250の通信を制御する。
個人選択入力ボタン270は、視聴者の個人を特定する情報を入力する。
【0014】
送受信部160と送受信部250とは、本実施形態では無線で通信する。通信にはRF(Radio Frequency)通信、ブルートゥース通信、ZigBee、Wi−Fi通信、赤外線通信等を用いた双方向通信を用いる。
生体信号センサ230は、視聴者の眼の情報、具体的は眼球運動の情報を取得する。本実施形態では、眼球を撮像するためのカメラとする。なお、眼球運動を計測するための生体信号センサ230は眼電位あるいは筋電位を計測するための電極や、瞳孔の動きや水晶体の調節を行う網様体の動きをセンシングするコイル等であっても良い。
図2は、視聴者データ管理部190の詳細な構成を示す。
視聴者データ管理部190は、立体視能力データベース191、管理部192、眼球基礎データ生成部193、個人特定部194、表示画像生成部195とを有する。
立体視能力データベース191は、視聴者ごとの立体視能力を記憶する。
管理部192は、立体視能力データベース191のデータ更新を管理する。
眼球基礎データ生成部193は、視聴者個人ごとの眼球位置の基礎データを生成する。個人特定部194は、視聴者を特定する。
表示画像生成部195は、個人選択や新規登録の際の表示画面用の画像を生成する。
図3は3次元表示テレビ10のディスプレイ120上に表示された個人選択画面の一例と、3次元専用メガネ20上に備えられた個人選択入力ボタンの一例を示す模式図である。
図4は3次元表示テレビ10と3次元専用メガネ20との間の通信手順の一例を示した図である。
【0015】
図5は画像表示システム1の動作を示すフローチャートである。図4と図5に従って、画像表示システム1の処理手順を説明する。
【0016】
視聴者により図示しない電源スイッチが押され、3次元表示テレビ10の電源が入り、画像表示システム1は動作を開始する(S1000)。
3次元表示テレビ10は、3次元専用メガネ20の電源が入っているか否かを確認する(S1010)。図4では、3次元表示テレビ10の電源が入った後、3次元専用メガネ20の図示しない電源スイッチが視聴者によって押され、3次元専用メガネ20の電源が入り、3次元専用メガネ20の送受信部250から3次元表示テレビ10の送受信部160に3次元専用メガネ20のメガネID情報が送信される(通信1)。メガネID情報は3次元専用メガネ20の通信制御部260に記憶されている。これにより、3次元表示テレビ10の通信制御部150は3次元専用メガネ20が動作中であることを確認し、通信制御部150の制御に基づいて送受信部160はメガネID受信完了信号を3次元専用メガネ20に送信する(通信2)。図3では3次元専用メガネ20の電源が3次元表示テレビ10の電源より後に入れられるが、3次元専用メガネ20の電源が3次元表示テレビ10の電源より先に入れられていてもよい。その際には、3次元専用メガネ20の電源が入った後、3次元専用メガネ20の通信制御部260は、通信2を受信するまで、あらかじめ定められた一定時間間隔ごとに通信1を繰り返す。
ステップS1010で3次元専用メガネ20の電源が入っている場合はステップS1020へ進む。ステップS1010で3次元専用メガネ20の電源が入っていない場合、すなわち通信1が確認できない場合は、ステップS1200へ進む。
ステップS1200では図示しない電源スイッチ等からの視聴終了信号の入力が行われたか否かを判断する。ステップS1200で視聴終了信号の入力がある場合はステップS1220へ進み画像表示システム1の動作を終了する(S1220)。
ステップS1200で視聴終了信号の入力がない場合はステップS1210へ進み、画面制御部130はディスプレイ120に2次元の画像を表示する(S1210)。2次元の画像は左右どちらか一方の画像のみを画面に表示することで実現する。さらに画面制御部130は制御信号送信部140に送信停止信号を出力し、3次元専用メガネ20への制御信号の送信を停止する。ステップS1210実行後、あらかじめ定められた時間の後、ステップS1010へ戻る。
【0017】
ステップS1010で3次元専用メガネ20の電源が入っている場合は、画面制御部130はディスプレイ120に図2のような個人選択画面を提示し、通信制御部150の制御に基づいて送受信部160は個人選択情報の要求信号を3次元専用メガネ20に送信する(通信3)。視聴者はディスプレイ120に提示された個人選択画面に従って個人選択入力ボタン270を操作して、視聴者の個人を特定する情報を入力する。3次元専用メガネ20の送受信部250は通信制御部260の制御に基づいて個人選択入力ボタン270より入力された個人選択入力信号を3次元表示テレビ10に送信する(通信4)。個人選択入力ボタン270は例えば図2に示すようなものである。なお、ここでは個人選択入力は3次元専用メガネ20上に備えるボタンより入力するとしたが、テレビの操作用リモートコントローラ等上あるいは3次元表示テレビ10に備えられた、ボタンあるいはスイッチ等の3次元専用メガネ20以外の入力インタフェースを利用して入力するとしても良い。
視聴者データ管理部190は、送受信部160が受信した個人選択入力信号を取得する(S1020)。
視聴者データ管理部190の個人特定部194は取得した個人選択入力信号が視聴者として登録済みのものであるか否かを判定する(S1030)。
ステップS1030において登録済みの視聴者である場合はステップS1040へ進み、視聴者データ管理部190の立体視能力データベース191はステップS1030で特定された個人の立体視範囲の情報を奥行き調整量決定部200へ出力する(S1040)。
奥行き調整量決定部200は抽出された視聴者の立体視範囲に応じてコンテンツ映像をディスプレイ120に提示する際の奥行き範囲を決定する(S1050)奥行き範囲の決定方法については後述する。
一方、ステップS1030で未登録の視聴者である場合は、ステップS1300に進む。ステップS1300において視聴者データ管理部190の表示画像生成部195は管理部192の制御に従って視聴者の新規登録を行うための画面を生成し、画面制御部130に出力する。
ディスプレイ120は画面制御部130の制御に従って視聴者の新規登録画面を表示する。視聴者が新規登録を行うか否かの選択を入力インタフェース30より入力する(S1300)。
ステップS1300で新規登録の入力が無い場合はステップS1330に進む。ステップS1300で新規登録の入力がある場合は、入力インタフェース30より視聴者が名称等を入力し、管理部192は新規の視聴者IDを付与し、視聴者の情報を登録する(S1310)。
次に表示画像生成部195は管理部192の制御に従って、視聴者の眼球基礎データを取得するためのキャリブレーション画面を生成し、キャリブレーション画面に対する視聴者の眼球運動を取得して、眼球基礎データを生成して立体視能力データベース191に記憶する(S1320)。眼球基礎データの生成方法については後述する。
【0018】
ステップS1330では視聴者データ管理部190は奥行き調整量決定部200に視聴者の立体視範囲の情報が無いことを示す信号を出力する。奥行き調整量決定部200はコンテンツ映像をディスプレイ120に提示する際の奥行き範囲を、コンテンツが持つ奥行き範囲の80%に制限する(S1330)。なお、ここでは立体視範囲の情報が無い視聴者に対してコンテンツの奥行き範囲の80%に制限するとしたが、制限の比率はこれ以外でも良い。また、ディスプレイからの飛び出し方向のみ制限する等の飛び出しと引っ込みに対してそれぞれに制限を設定しても良い。
【0019】
次いで、送受信部160は通信制御部150の制御に基づいて生体信号取得開始要求信号を3次元専用メガネ20に送信する(通信5)。送受信部250は生体信号取得開始要求信号を受信し、生体信号センサ230は生体信号の取得を開始する。ここでは、眼球の撮像を開始する(S1060)。
画面制御部130は図示しない電源スイッチ等からの視聴終了信号の入力あるいはコンテンツ終了による視聴終了信号の発生が行われたか否かを判断する(S1070)。
ステップS1070で視聴終了信号の入力がある場合はステップS1220へ進み画像表示システム1の動作を終了する(S1220)。
ステップS1070で視聴終了信号の入力がない場合はステップS1080へ進み、画面制御部130はステップS1050またはステップS1330で奥行き調整量決定部200が決定した奥行き範囲に従って、コンテンツ情報蓄積部110に蓄積された立体映像を呼び出し、左右の画像の視差を調節する(S1080)。
ディスプレイ120は映像を提示する(S1090)。
ステップS1090では画面制御部130はディスプレイ120を制御して3次元映像を表示し、制御信号送信部140を制御して、画面に表示される右目用と左目用の画像に同期して3次元専用メガネ20のシャッタを開閉するための制御信号を3次元専用メガネ20に送信する(通信6)。3次元専用メガネ20の制御信号受信部210は制御信号送信部140から送信された制御信号を受信し、シャッタ制御部220は図示しないシャッタを開閉して右目用画像を視聴者の右目にのみ提示し、左目用画像を視聴者の左目のみに提示する。
3次元専用メガネ20の生体信号センサ230はあらかじめ定められたサンプリング周波数で眼球を撮像し、信号生成部240は左右の眼球の画像を通信用に処理し、送受信部250より送信する。
3次元表示テレビ10の送受信部160は送受信部250より送信された画像信号を受信し、輻輳状態計算部170へ出力する。輻輳状態計算部170では、画像信号からエラー処理を行い、左右の眼球の瞳孔位置を抽出する。あらかじめ定められた時間幅すなわちサンプル数の画像に対応する瞳孔の位置情報から、立体視能力計算部180は立体視範囲を計算し視聴者データ管理部190へ出力する(S1100)。立体視範囲の計算方法については後述する。
視聴者データ管理部190の管理部192は、ステップS1100で求められた立体視範囲データを視聴者と対応付けて立体視能力データベース191に記憶する(S1110)。ここでは立体視能力データベース191に立体視範囲データを記憶したが、立体視能力データベース191の立体視範囲データを更新するとしても良い。
【0020】
S1110実行後、ステップS1070へ戻り、ステップS1070からステップS1110を繰り返すことで、3次元映像を表示し続けるとともに視聴者の立体視能力をモニタして順次記憶する。
【0021】
図6は立体視能力データベース191に記憶されたデータの一例である。視聴者ごとに視聴者ID、表示名、基礎眼球データ、これまでの立体映像視聴の日付、時間、立体視範囲を記憶している。時間は継続して立体映像を視聴した時間を一定の時間ごとに区切りっている。その一定の時間ごとに、その一定の時間を単位時間として、単位時間内の視聴者の眼球位置から推定される立体視した奥行き距離の最小と最大の値を立体視範囲として記憶している。
S1050の奥行き範囲の決定は、立体視能力データベース191の記憶内容が図6のような場合、例えば以下の規準で行う。最新の視聴者の立体視範囲があらかじめ定められた奥行き範囲の95%を含んでいる場合は調整を行わない。あらかじめ定められた奥行き範囲は、例えば、3Dコンソーシアムの安全ガイドライン(2006、「人に優しい3D普及のための3DC安全ガイドライン」、3Dコンソーシアム安全ガイドライン部会発行)に示す奥行き範囲である。視聴者の立体視範囲があらかじめ定められた奥行き範囲より狭い場合には、奥行き最小値を立体視能力データベース191より抽出された奥行き最小値の95%値とする。すなわちディスプレイ120からの最大の飛び出し量を直近の視聴時の立体視範囲より数%増やす。立体視能力データベース191から抽出された奥行き最大値の105%とする。すなわちディスプレイ120からの引っ込み量を直近の視聴時の立体視範囲より数%増やす。
【0022】
なお、上記の安全ガイドラインの95%、最小値の95%、最大値の105%の値はこれ以外の値であっても良い。
【0023】
図7は立体視範囲計算の基準値として眼球基礎データを設定する方法を示す模式図であり、図8は眼球基礎データを設定するステップである、ステップS1320の詳細な処理の流れを示すフローチャートである。図9は眼球基礎データを設定する際の3次元表示テレビ10と3次元専用メガネ20の間の通信プロトコルを示す図である。
【0024】
図6のデータの例のように立体視範囲は視聴者位置からテレビ画面方向に向かっての距離として計算される。一方、生体信号センサ230が取得するのは眼球運動すなわち眼窩内での眼球の上下、左右の回転運動の指標である。生体信号センサ230がカメラである場合は回転運動の結果2次元的に観察可能な瞳孔中心位置の移動であり、眼電位等の電気反応を取得する場合は、眼球の回転の量に伴う電位の絶対値あるいは相対値としての電位変動の振幅である。立体視範囲を取得するためには、瞳孔中心位置や電位を
立体視範囲に変換する必要がある。眼球は個人ごとに異なるため、より正確な立体視範囲を得るためにここでは視聴者の登録時に眼球基礎データを生成する。
【0025】
立体視は左右の目がそれぞれ目の位置から見た画像をみることで成立する。左右の目の位置による画像の違いのうち最も立体視に影響するのが水平方向に位置が異なって見える「視差」である。視差は左右両眼の間の距離よって生じる画像の位置のずれを、ディスプレイ上で再現するものである。視差が異なれば、視聴者が知覚する奥行きが異なる。視聴者が知覚する奥行きを調節するには、ディスプレイ上で設定する視差を視聴者の両眼間の距離によって生じる画像位置のずれにあわせる必要がある。ところが、ディスプレイのサイズはテレビシステムによってまちまちである。コンテンツ上ではディスプレイの横幅に対する比によって視差が表現されることになる。画像表示システム1はシステムのディスプレイ120の大きさに合わせた視差を提示することになる。そこで、眼球基礎データもディスプレイ120の大きさに合わせた値を取得する必要がある。
【0026】
立体視においても、2次元の平面画像においても、視聴者は眼球運動によって注視点を移動する。眼球運動は常に眼窩内での眼球の回転運動である。立体視により、注視点が奥行き方向に動く際には左右の目が逆方向に動き、2次元の平面上で注視点が動く際には左右の目が同一の方向に動く。片目の動きに注目すると、奥行き方向に注視点が動いた際の眼球の運動と平面上で注視点が動いた際の眼球の運動は同様である。従って図7のように片目については奥行き方向へ注視点を一定量移動させる際の眼球運動と同等の眼球運動を実現する平面上での注視点の移動を設定することができる。ディスプレイ120の大きさに合わせた標準視聴距離、例えば、3Hといわれるディスプレイの縦の長さの3倍の距離、から視聴するものとして眼球基礎データを得る。標準視聴距離で、画面中央の点、図7中のディスプレイ面に示した中央の星型、を注視している状態がディスプレイ上の点を見る場合の規準の眼球位置となる。これに対して、画面からの飛び出し量が標準視聴距離の10%すなわち、視聴者からの奥行きが標準視聴距離の90%の位置に相当する右目用の画像、画面からの飛び出し量が標準視聴距離の5%すなわち、視聴者からの奥行きが標準視聴距離の95%の位置に相当する右目用の画像を設定することができる。奥行き量と視差は反比例の関係にある。図7の斜線の星型を見る際の右目の位置と、白抜きの星型を見る際の視聴者の右目の位置は、立体視の場合には、白抜きの星型の位置は、斜線の星型の奥行きに相当する奥行きの2倍に相当する。図7に示すように奥行きに反比例するディスプレイ上の距離(視差)は眼球の瞳孔軌道距離に比例する。基準となる奥行きに対応する視差分の眼球運動をディスプレイ上の2次元表示で、測定し眼球基礎データとする。
【0027】
以下図8および図9に従って眼球基礎データの測定手順を説明する。
【0028】
ステップS1310において新規の視聴者ID付与を行った後、表示画像生成部195は管理部192の制御に基づいて画像表示システム1における標準視聴距離を提示する画面を生成し、ディスプレイ120は標準視聴距離を提示する画面を表示する(S1321)。次いで表示画像生成部195は管理部192の制御に基づいて、中央注視点の2次元画像を生成し、ディスプレイ120は中央注視点の画像を表示し(S1322)、送受信部160は管理部192より出力された中央注視点の表示開始信号を通信制御部150の制御に基づいて3次元専用メガネ20へ送信する(通信11)。3次元専用メガネ20の生体信号センサ230は中央注視点の表示開始信号の受信後の生体信号を取得し、信号生成部240は取得された生体信号より生体信号情報を生成する。ここでは生体信号は眼球の画像であり、送信信号は画像情報である。3次元表示テレビ10の送受信部160は通信制御部150の制御に基づき中央注視点表示中の生体信号情報の要求信号を3次元専用メガネに送信する(通信12)。送受信部250は要求信号受信し、通信制御部260の制御に基づいて信号生成部240で生成された生体信号情報を送信する(通信13)。送受信部160は3次元専用メガネより送信された生態信号情報を受信し、眼球基礎データ生成部193に出力する。眼球基礎データ生成部193は生体信号情報のエラー処理の後、瞳孔抽出を行う画像処理により、中心注視点に対応する瞳孔位置を取得する(S1323)。次に、表示画像生成部195は基準となる奥行き位置の視差に対応する画面上距離だけ中央から左へ移動した位置に左注視点を表示する画像を生成し、ディスプレイ120は左注視点の画像を表示する(S1324)。ステップS1323の中央注視点を表示した際と同様に図9の通信14から通信16の送受信により、眼球基礎データ生成部193は左注視点表示中の生体信号情報を取得し、エラー処理と瞳孔抽出処理により左注視点に対応する瞳孔位置を取得する(S1325)。さらに表示画像生成部195は基準となる奥行き位置の視差に対応する画面上距離だけ中央から右へ移動した位置に右注視点を表示する画像を生成し、ディスプレイ120は右注視点の画像を表示する(S1326)。ステップS1323の中央注視点を表示した際と同様に図9の通信17から通信19の送受信により、眼球基礎データ生成部193は右注視点表示中の生体信号情報を取得し、エラー処理と瞳孔抽出処理により右注視点に対応する瞳孔位置を取得する(S1327)。標準視聴距離情報および基準となる奥行き位置すなわち標準奥行き距離および標準奥行き距離に対応する画面上位置の情報は管理部192が保持しているものとする。
【0029】
眼球基礎データ生成部193は取得した中央注視点に対応する右目瞳孔位置と左注視点に対応する右目瞳孔位置との差分より、右目の基準奥行き位置を実現する視差に対応する瞳孔の移動量を決定する。左目については中央注視点と右注視点に対応する瞳孔位置を用いて基準奥行き位置を実現する視差に対応する瞳孔の移動量を決定する(S1328)。眼球基礎データ生成部193は算出した右目と左目の基準奥行き位置を実現する視差に対応する瞳孔の移動量を眼球基礎データとして新規に設定された視聴者IDに対応付けて立体視能力データベース191に書き込む(S1329)。
【0030】
なお、ここでは最初に中央注視点、次いで左注視点、最後に右注視点の順で注視点を提示して、眼球運動を測定したが、これ以外の順で測定しても良い。
なお、ここでは視聴者の登録時に新規登録視聴者の眼球基礎データを取得したが、あらかじめ3次元専用メガネのサイズに合わせて標準眼球基礎データを定めておき、これにより代用するものとしても良い。
【0031】
図10はステップS1100の立体視範囲の計算方法の詳細な手順を示すフローチャートである。図11は眼球位置から奥行き距離を求める方法を示した模式図である。
【0032】
図10に従って立体視範囲の計算手順を説明する。
【0033】
ステップS1060で生体信号取得が開始され、生体信号センサ230で取得された信号は信号生成部240で送信信号に変換され、送受信部250から3次元表示テレビ10に送信される。送受信部160は3次元専用メガネ20から送信された信号を受信し、輻輳状態計算部170へ出力する。輻輳状態計算部170は、入力された生体信号、ここでは眼球を撮像した画像データを蓄積する(S1101)。輻輳状態計算部170は、あらかじめ定められた処理単位時間分のデータが蓄積されたか否かを判断する(S1102)。ステップS1102において処理単位時間分のデータが蓄積されていない場合はステップS1101へもどる。ステップS1102において処理単位時間分のデータが蓄積されている場合はステップS1103へ進む。ステップS1103からステップS1109については、蓄積された画像データのうち処理対象とする1つの画像データに対して処理を行う。ステップS1103では、輻輳状態計算部170は当該画像データが瞬き等によるエラーデータであるか否かを判断する(S1103)。具体的には例えば、眼球画像を二値化し、楕円のモデルが当てはまる黒部分を瞳孔として抽出する。この際、楕円の長軸と短軸の比が70%を超える場合は瞳孔の全部または部分がまぶた等で隠されていると判断し、エラーデータとする。ステップS1103で当該データがエラーデータと判断された場合は、ステップS2101へ進む。ステップS1103で当該データがエラーデータではないと判断された場合はステップS1104に進む。ステップS1104では、輻輳状態計算部170は例えば楕円モデルによって抽出された瞳孔の中心を求め、瞳孔位置とし、立体視能力計算部180へ出力する(S1104)。瞳孔位置はステップS1320で眼球基礎データを生成した際の座標軸および単位と同一の座標上で決定されるものとする。具体的には、例えば、片目を撮像するカメラの撮像範囲を一定とし、カメラ画像の水平方向と垂直方向とを座標軸とし、撮像された画像のピクセルを単位とする。
【0034】
立体視能力計算部180は視聴者データ管理部190の立体視能力データベース191から当該視聴者の眼球基礎データを取得する(S1105)。立体視能力計算部180は左右の瞳孔移動距離として、ステップS1104で求められた左右の瞳孔の位置と眼球基礎データの左右の中央注視点提示中の瞳孔位置との差を求める(S1106)。
【0035】
図11のように、白抜き星印の視聴者正面の位置に飛び出して見える対象はディスプレイ平面上では破線で示した白抜きの星印の位置に表示されている。このときの瞳孔位置は中央注視点を注視した際の瞳孔位置を0とすると左目が0から右にaの位置にあり、右目が0から左にaすなわち−aの位置にある。白抜きの星印と奥行きが等しく左右位置が視聴者の正面からずれている対象では、左右の眼球の位置は左右対称ではない。例えば斜線の星印の位置の場合、左目は中央注視点を注視した位置より左側へ移動し、−bの位置にあり、右目は中央注視点を注視した位置より大きく左側へ移動し、−cの位置にある。眼球の可動範囲程度(50度程度)であれば、奥行き距離が一定である場合、瞳孔の移動の差はその左右の位置にかかわらずほぼ一定である。従って、眼球基礎データとして、標準奥行き距離に対する左右の目の移動距離が登録されているので、眼球基礎データの奥行き距離に対する左右瞳孔の移動の差で、当該画像データの左右瞳孔の移動の差を標準化する。奥行きは瞳孔移動に反比例するので、標準化した値で標準奥行き距離を除することで奥行きを求めることができる。
【0036】
立体視能力計算部180はステップS1106で求めた中央注視点を注視した際の瞳孔位置と当該画像の瞳孔位置の差を求め、両眼間の距離の変化として左右瞳孔の移動の差を求める(S1107)。両眼間の移動の差を、眼球基礎データとして記憶されている標準奥行きに対応する左右の瞳孔の移動距離の差で除し、標準化する。標準奥行き距離を標準化した両眼間の移動の差で除し、当該データ画像での視聴者の注視奥行き距離を求める(S1108)。立体視能力計算部180はステップS1108で計算した奥行きのデータを蓄積する(S1109)。立体視能力計算部180は処理単位時間内の全データの処理が終了したか否かを判断する(S2101)。全データの処理が終了していない場合はステップS1103に戻る。ステップS2101において全データの処理が終了している場合はステップS2102に進む。ステップS2102においては、立体視能力計算部180は蓄積した奥行きデータのうちの最小値と最大値を抽出し、立体視範囲として視聴者データ管理部190へ出力する(S2102)。
なお、ここでは生体信号センサ230はカメラとしたが、眼球周辺の皮膚に接触した電極による眼電位のセンサでも良い。その際には、眼球運動は瞳孔の移動ではなく電位の振幅によって計測される。眼球基礎データは標準奥行き相当の眼球運動に伴う電位を記憶する。電位の値と奥行きは瞳孔の移動距離と同様に反比例するので、計算方法は瞳孔の移動を用いて奥行きを計算する際と同様の計算方法となる。
【0037】
以上のように、3次元専用メガネ20より送信された生体信号から視聴者が知覚している奥行きを測定して視聴者が立体視可能な範囲を視聴者ごとに記憶する。これにより、次回視聴時には視聴者個人の立体視可能な範囲に合わせて3次元映像の奥行きを調節することができ、視聴者ごとに異なる立体視の能力に合わせた映像により、疲労の少ない範囲で3次元映像を楽しむことができる。さらに、立体視の能力は3次元映像の視聴に対する慣れあるいは学習により長期的に変化する。視聴者の立体視の能力データを視聴ごとに更新することで、常に視聴者個人に最適な奥行きの範囲で3次元映像を表示することができる。
(実施の形態1の第1の変形例)
図12は3次元映像を継続して視聴した際の表示された奥行きの範囲と、視聴者の眼球から立体視がなされたと判断できる奥行きの範囲との関係を示したグラフの一例である。横軸は視聴開始からの経過時間であり、縦軸は視聴者からの奥行き距離である。視聴開始の初期20分程度の時間区間では、表示の奥行きの幅に比べて視聴者の立体視の幅は小さい。特に奥行きの小さい領域すなわち飛び出し方向での立体視がなされていない。しかし、時間の経過とともに、3次元映像への慣れにより視聴者の立体視の範囲は奥行きの小さい領域に拡大し、表示された奥行き範囲全体が立体視できるようになる。さらに時間が経過すると、疲労により奥行きの大きい領域、すなわち遠方への引き込み方向への目の動きが損なわれ、奥行きの小さい領域に立体視の範囲が狭まってくる。このような時間変化は個人によってその変化の量や速度が異なる。
実施の形態1では記憶された視聴者個人の立体視能力に基づいて、視聴開始時にのみ3次元映像を表示する奥行きを調整した。しかしながら、図12に示すように3Dを継続して視聴するうちに視聴者の立体視の範囲は変化する。そこで、実施の形態1の第1の変形例では、記憶された視聴者個人の立体視能力に基づいて視聴開始時の表示奥行きを調整するのみでなく、視聴中の視聴者の眼球の状態から、逐次表示奥行きを調整して、継続視聴による立体視能力の変化に対応し、より視聴しやすく、疲労しない3次元映像の画像表示システムを提供する例を示す。さらに本変形例では、視聴者個人の立体視能力を、表示した奥行き範囲と供に記憶することで、視聴者が3次元映像の視聴を繰り返すことによる立体視能力の変化を表示奥行き範囲による誤差を除いて利用することができるデータ構成の例を示す。
図13は実施の形態1の第1の変形例による画像表示システム1の構成図であり、図14は実施の形態1の第1の変形例による画像表示システム1の部分の詳細を示す構成図である。
【0038】
画像表示システム1は3次元表示テレビ10と3次元専用メガネ20と入力インタフェース30からなる。本実施の形態1の第1の変形例の画像表示システムの構成は図1に示した実施の形態1の画像表示システムと立体視能力計算部180が立体視能力計算部380に置き換わり、視聴者データ管理部190が視聴者データ管理部390に置き換わり、奥行き調整量決定部200が奥行き調整量決定部300に置き換わった以外は図1と同様である。図14の構成は図2に示した実施の形態1の詳細構成と立体視能力データベース191が立体視能力データベース391に置き換わり、管理部192が管理部392に置き換わった以外は図2と同様である。図13、図14の図1と図2と同一部分については、図1と図2と同一の記号を付して適宜説明を省略する。
【0039】
3次元表示テレビ10はコンテンツ情報蓄積部110と、ディスプレイ120と、画面制御部130と、制御信号送信部140と、通信制御部150と、送受信部160と、輻輳状態計算部170、立体視能力計算部380、視聴者データ管理部390、奥行き調整量決定部300とを備える。
【0040】
立体視能力計算部380は、輻輳状態計算部170で計算された視聴者の眼球の輻輳開散運動の状態から視聴者の立体視範囲を計算し、コンテンツ情報蓄積部110に蓄積されたコンテンツ情報より表示奥行きを計算する。
視聴者データ管理部390は、立体視能力計算部で計算された視聴者の立体視範囲と表示奥行きとの視聴履歴を視聴者の個人ごとに管理する。
奥行き調整量決定部300は、視聴者データ管理部390に記憶された視聴者個人の立体視能力に従って表示する奥行きの量を決定する。
【0041】
視聴者データ管理部390は立体視能力データベース391と、管理部392と、眼球基礎データ生成部193と、個人特定部194と、表示画像生成部195とを備える。
【0042】
3次元専用メガネ20と入力インタフェース30は図1と同様であるので説明を省略する。
【0043】
図15は本変形例において、立体視能力データベース391に記憶されるデータの一例を示したものである。視聴者ごとに視聴時の表示奥行き範囲と立体視範囲、さらに眼球の基礎データとが記憶されている。表示奥行き範囲と立体視範囲は、視聴ごとの開始10分間での表示奥行きの最小値と最大値と同じく視聴開始10分間の視聴者の眼球運動から求めた立体視距離の最小値と最大値とを記憶している。視聴ごとにさらに、日付、視聴の時間区間を記憶している。
【0044】
図16は図15に示したデータを、記憶された履歴ごとに、表示奥行き最小値と表示奥行き最大値を白抜きの丸で、視聴者の立体視の最小距離と最大距離を黒丸で示している。3次元映像の視聴を重ねるごとに視聴者の立体視の最小距離は小さくなり、立体視の最大距離は大きくなる傾向が見られる。後述する表示奥行きの調整量を決定する際には、この傾向より、履歴に続く視聴開始時の立体視の最大距離と最小距離を斜線の丸印で示したように推定して、調整量を決定する。しかし、図中の20110620/08:01:13のように表示奥行きの範囲が限られる場合には、視聴者の立体視の範囲より表示範囲が小さい場合もあり、このような表示範囲が極端に小さい履歴については推定計算から除外する。立体視能力データベース391に視聴者の立体視範囲のみでなく、表示奥行き範囲をも記憶することで、表示奥行きの調整をより正しく行うことができる。
【0045】
図17と図18は実施の形態1の第1の変形例による画像表示システム1の処理の流れを示すフローチャートの一部である。本変形例の処理は、図5に示した実施の形態1のステップS1000からステップS1030、およびステップS1060。ステップS1200からステップS1210、ステップS1300からステップS1330については実施の形態1と同様である。図17では実施の形態1と同一の処理の部分を除き、図5に示したステップS1030で視聴者を特定した後で、図5に示したステップS1060で眼球運動の記録を開始するまでの処理の流れを示す。図18では、実施の形態1と同一の処理の部分を除き、図5に示したステップS1060で眼球運動の記録を開始した後の処理の流れを示す。
【0046】
図5と図17と図18に従って本変形例の画像表示システム1の動作を説明する。
まず、視聴者により図示しない電源スイッチが押され、3次元表示テレビ10の電源が入り、画像表示システム1は動作を開始する(S1000)。次いで3次元表示テレビ10は3次元専用メガネ20の電源が入っているか否かを確認する(S1010)。
ステップS1010で3次元専用メガネ20の電源が入っている場合はステップS1020へ進む。ステップS1010で3次元専用メガネ20の電源が入っていない場合はステップS1200へ進む。ステップS1200では図示しない電源スイッチ等からの視聴終了信号の入力が行われたか否かを判断する。ステップS1200で視聴終了信号の入力がある場合はステップS1220へ進み画像表示システム1の動作を終了する(S1220)。ステップS1200で視聴終了信号の入力がない場合はステップS1210へ進み、画面制御部130はディスプレイ120に2次元の画像を表示する(S1210)。ステップS1210実行後、あらかじめ定められた時間の後、ステップS1010へ戻る。
【0047】
ステップS1010で3次元専用メガネ20の電源が入っている場合は、視聴者データ管理部390は個人選択入力ボタン270から入力された個人選択入力信号を取得する(S1020)。視聴者データ管理部390の個人特定部194は取得した個人選択入力信号が視聴者として登録済みのものであるか否かを判定する(S1030)。ステップS1030で未登録の視聴者である場合は、ステップS1300に進む。ステップS1300において視聴者の新規登録の選択入力を取得する(S1300)。ステップS1300で新規登録の入力が無い場合はステップS1330に進む。ステップS1300で新規登録の入力がある場合は、入力インタフェース30からの入力に基づき、管理部392は新規の視聴者IDを付与し、視聴者の情報を登録する(S1310)。次に表示画像生成部195は新規視聴者の眼球運動を取得して、眼球基礎データを生成して立体視能力データベース391に記憶する(S1320)。
【0048】
ステップS1330では奥行き調整量決定部300はコンテンツ映像をディスプレイ120に提示する際の奥行き範囲を、コンテンツが持つ奥行き範囲の80%に制限する(S1330)。
一方、ステップS1030において登録済みの視聴者である場合はステップS3110へ進み、奥行き調整量決定部300は視聴者データ管理部390の立体視能力データベース391から、ステップS1030で特定された個人に対応する表示奥行きと立体視範囲のうち、直近の5回分の視聴履歴を抽出する(S3110)。視聴履歴が5回未満の場合はすべての履歴を抽出する。次いで奥行き調整量決定部300はステップS3110で抽出した表示奥行きと立体視範囲の履歴情報を用いて視聴者の立体視範囲の推定を行い、推定結果に基づいて奥行き調整量を決定する(S3111)。立体視推定による奥行き調整量の決定については後述する。
ステップS3111またはステップS1330で奥行き調整量が決定された後、生体信号センサ230は生体信号の取得を開始する(S1060)。画面制御部130は図示しない電源スイッチ等からの視聴終了信号の入力あるいはコンテンツ終了による視聴終了信号の発生が行われたか否かを判断する(S1070)。ステップS1070で視聴終了信号の入力がある場合はステップS1220へ進み画像表示システム1の動作を終了する(S1220)。ステップS1070で視聴終了信号の入力がない場合はステップS3010へ進む。ステップS3010では輻輳状態計算部170が3次元映像視聴開始または立体視範囲の計算の終了から立体視計算のための処理単位時間が経過したか否かを判断する(S3010)。ステップS3010において処理単位時間が経過していない場合は、ステップS1080に進む。ステップS3010において処理単位時間が経過している場合は、ステップS3020に進む。
ステップS3020では、輻輳状態計算部170では、3次元専用メガネ20で取得された画像信号からエラー処理を行い、左右の眼球の瞳孔位置を抽出する。あらかじめ定められた時間幅すなわちサンプル数の画像に対応する瞳孔の位置情報から、立体視能力計算部380は立体視範囲を計算する(S3020)。立体視範囲の計算方法については実施の形態1と同様でも良いが、本変形例では表示した奥行きの範囲に対応する立体視の能力として立体視範囲を計算する。立体視範囲の計算方法については後述する。
奥行き調整量決定部300は直前に決定した奥行き調整量に対して、ステップS3020で計算された立体視範囲と、立体視能力データベース391に記憶された当該視聴者の継続視聴時の立体視能力の時間変化とに基づいて奥行き範囲を調整する(S3030)。奥行きの微調整の方法については後述する。次いで、ステップS3020で計算された表示した奥行きの範囲と視聴者の立体視の範囲とを立体視能力データベース391に記憶する(S3040)
画面制御部130はステップS1050またはステップS3030で奥行き調整量決定部200が決定した奥行き範囲に従って、コンテンツ情報蓄積部110に蓄積された立体映像を呼び出し、左右の画像の視差を調節する(S1080)。ディスプレイ120は映像を提示する直近で決定した奥行き調整量に従って映像を提示する(S1090)。
【0049】
S1090実行後、ステップS1070へ戻り、ステップS1070からステップS1110を繰り返すことで、3次元映像を表示し続けるとともに視聴者の立体視能力をモニタして3次元映像の視聴中に変化する立体視能力に合わせて奥行きを調整して3次元映像を表示する。さらに、順次視聴者ごとの立体視能力を視聴の履歴と合わせて記憶できる。
【0050】
図17に従ってステップS3111の立体視推定による奥行き調整量の決定の方法を説明する。
【0051】
奥行き調整量決定部300は、ステップS3110で抽出した表示奥行きと立体視範囲の5回分の履歴情報の1回分ずつについて、立体視の最小距離が表示奥行きの最小値と同等であるかを判断する(S3120)。同等とは、ここでは、立体視の最小距離が表示奥行きの最小値に対して、最小値の上下3%以内の値であることとする。なお、同等の基準はこれ以外であっても良い。ステップS3120において、立体視の最小距離が表示奥行きの最小値と同等でない場合には、ステップS3140へ進む。ステップS3120において立体視の最小距離が表示奥行きの最小値と同等である場合は、奥行き調整量決定部300は立体視の最小距離が視聴者データ管理部390の管理部392に記憶されている3次元表示テレビ10のディスプレイ120の大きさに対応した標準視聴距離の60%未満の距離であるか否かを判断する(S3130)。ステップS3130において立体視の最小距離が標準視聴距離の60%未満である場合にはS3140に進む。ステップS3130において立体視の最小距離が標準視聴距離の60%以上である場合はステップS3150へ進む。なお、ここでは立体視の最小距離と表示奥行きの最小値が同等である際に、記憶された立体視の最小距離が表示奥行きによって制限された値であったか否かを判断する基準として、標準視聴距離の60%を用いたが、記憶された立体視の最小距離が視聴者の立体視能力の飛び出し方向の範囲が、表示した奥行きの範囲を超えているかあるいは同等であるかの判断ができる指標であれば、これ以外の指標を用いてもかまわない。
【0052】
ステップS3140では、奥行き調整量決定部300は当該履歴情報の視聴回数と立体視の最小距離とを保存する(S3140)。ステップS3150では奥行き調整量決定部300はステップS3110で抽出した履歴データすべての立体視最小距離と表示奥行きの最小値との比較を行ったか否かを判断する(S3150)。ステップS3150において、抽出した履歴データすべての処理が終了している場合はステップS3160へ進む。ステップS3150において抽出した履歴データすべての処理が終了していない場合はステップS3120に戻る。
【0053】
ステップS3160では、奥行き調整量決定部300は、視聴回数と立体視の最小距離とを保存したデータ組の数が0以上であるか否かを判断する(S3160)。ステップS3160において、データ組の数が0より大きい場合は、ステップS3180へ進む。ステップS3160においてデータ組の数が0以下の場合はステップS3170へ進む。ステップS3170において奥行き調整量決定部300はコンテンツ映像をディスプレイ120に提示する際の奥行きの最小値を、コンテンツが持つ奥行き最小値の120%に制限する(S3170)。すなわち飛び出し量を80%に制限する。なお、ここでは直近5回分の視聴履歴からは立体視最小距離の情報が取得できなかった視聴者に対して、奥行きの調整量をコンテンツの奥行き最小値の120%に制限するとしたが、制限の比率はこれ以外でも良い。また、直近5回分の視聴履歴から立体視範囲の情報が取得できなかった際には、さらに履歴をさかのぼって抽出し、立体視の最小値を求めるとしても良い。ステップS3180では、奥行き調整量決定部300は、1つ以上の視聴回数と立体視最小距離のデータ組を用いて視聴者の現在の立体視最小距離を推定する(S3180)。立体視最小距離の推定は、例えば、視聴回数に対して線形な直線を立体視最小距離に当てはめて求めるものとする。3組以上のデータがある場合には直線は例えば最小二乗法で求めるものとする。データが1組の場合は立体視最小距離が一定の直線を当てはめるものとする。上記のようにして求めた直線上で視聴履歴の視聴回数に1を足した数での立体視の最小距離を求め、視聴者の現在の立体視最小距離とする。ステップS3180で推定された立体視最小距離に基づいて、奥行き調整量決定部300は奥行きの最小値の調整量を決定する(S3190)。調整量の決定方法は、例えば、ステップS3180で推定された視聴者の立体視最小距離に対する標準視聴距離の60%の値の比を求め、その比を飛び出し方向の奥行きの調整量とする。ただし、標準視聴距離の60%より視聴者の立体視最小距離が小さくなる場合は比を1とし、飛び出し方向の奥行き調整は行わないものとする。
一方、奥行き調整量決定部300は、ステップS3110で抽出した表示奥行きと立体視範囲の5回分の履歴情報の1回分ずつについて、立体視の最大距離が表示奥行きの最大値と同等であるかを判断する(S3220)。同等とは、ここでは、立体視の最大距離が表示奥行きの最大値に対して、最大値の上下3%以内の値であることとする。なお、同等の基準はこれ以外であっても良い。ステップS3220において、立体視の最大距離が表示奥行きの最大値と同等でない場合には、ステップS3240へ進む。ステップS3220において立体視の最大距離が表示奥行きの最大値と同等である場合は、奥行き調整量決定部300は立体視の最大距離が7mを超える距離であるか否かを判断する(S3230)。ステップS3230において立体視の最大距離が7mを超える場合にはS3240に進む。ステップS3230において立体視の最大距離が7m以下である場合はステップS3250へ進む。奥行き7m以上の対象物を注視する際の瞳孔の位置は、無限遠を見る際の瞳孔の位置と同等であることが知られている。そこで、ここでは7mを超える奥行きについては無限遠と同等とみなし、記憶された立体視の最大距離が表示奥行きによって制限されない基準とした。なお、ここでは立体視の最大距離と表示奥行きの最大値が同等である際に、記憶された立体視の最大距離が表示奥行きによって制限された値であったか否かを判断する基準として、7mを用いたが、記憶された立体視の最大距離が視聴者の立体視能力の引き込み方向の範囲が、表示した奥行きの範囲を超えているかあるいは同等であるかの判断ができる指標であれば、これ以外の指標を用いてもかまわない。
【0054】
ステップS3240では、奥行き調整量決定部300は当該履歴情報の視聴回数と立体視の最大距離とを保存する(S3240)。ステップS3250では奥行き調整量決定部300はステップS3110で抽出した履歴データすべての立体視最大距離と表示奥行きの最大値との比較を行ったか否かを判断する(S3250)。ステップS3250において、抽出した履歴データすべての処理が終了している場合はステップS3260へ進む。ステップS3250において抽出した履歴データすべての処理が終了していない場合はステップS3220に戻る。
【0055】
ステップS3260では、奥行き調整量決定部300は、視聴回数と立体視の最大距離とを保存したデータ組の数が0以上であるか否かを判断する(S3260)。ステップS3260において、データ組の数が0より大きい場合は、ステップS3280へ進む。ステップS3260においてデータ組の数が0以下の場合はステップS3270へ進む。ステップS3270において奥行き調整量決定部300はコンテンツ映像をディスプレイ120に提示する際の奥行きの最大値を、コンテンツが持つ奥行き最大値の80%に制限する(S3270)。すなわち引き込み方向の奥行きを80%に制限する。なお、ここでは直近5回分の視聴履歴からは立体視最大距離の情報が取得できなかった視聴者に対して、奥行きの調整量をコンテンツの奥行き最大値の80%に制限するとしたが、制限の比率はこれ以外でも良い。また、直近5回分の視聴履歴から立体視範囲の情報が取得できなかった際には、さらに履歴をさかのぼって抽出し、立体視の最大値を求めるとしても良い。ステップS3280では、奥行き調整量決定部300は、1つ以上の視聴回数と立体視最小距離のデータ組を用いて視聴者の現在の立体視最小距離を推定する(S3280)。立体視最小距離の推定は、例えば、視聴回数に対して線形な直線を立体視最小距離に当てはめて求めるものとする。3組以上のデータがある場合には直線は例えば最小二乗法で求めるものとする。データが1組の場合は立体視最小距離が一定の直線を当てはめるものとする。上記のようにして求めた直線上で視聴履歴の視聴回数に1を足した数での立体視の最大距離を求め、視聴者の現在の立体視最大距離とする。ステップS3280で推定された立体視最小距離に基づいて、奥行き調整量決定部300は奥行きの最大値の調整量を決定する(S3190)。調整量の決定方法は、例えば、ステップS3280で推定された視聴者の立体視最大距離を7mで除し、その値を引き込み方向の奥行きの調整量とする。ただし、立体視最大距離が7mを超える場合には調整は行わないものとする。
なお、ここではステップS3120からステップS3190までの処理の説明の後に、ステップS3220からステップS3290までの処理の説明を行ったが、ステップS3120からステップS3190までの処理とステップS3220からステップS3290までの処理はどちらが先に行われてもよく、また、並行に処理されても良い。
【0056】
図19は実施の形態1の第1の変形例の立体視能力計算部380の詳細構成を示した図である。立体視能力計算部380は奥行き情報計算部381と立体視範囲計算部382とからなる。
【0057】
図20はステップS3020の立体視範囲計算の詳細な処理の流れを示したフローチャートである。
【0058】
図19と図20に従ってステップS3020の立体視範囲計算の手順を説明する。
【0059】
まず、立体視能力計算部380の奥行き情報計算部381はコンテンツ情報蓄積部110よりコンテンツの視差情報を取得する(S3021)。コンテンツの視差情報は、例えば、左右交互に出力される画像を連続する左右の画像ごとにペアにし、各ペアについて、ペアの画像で作られる画像内の視差の中で、奥行きの最も小さい部分の視差と奥行きの最も大きい部分の視差を含む。なお、左右交互に出力される画像は、多くはもともと同時に2つのカメラで撮像された画像または、2つの視点で同じタイミングに対してコンピュータグラフィックスにより生成されたペアの画像である。視差の情報は本来同時に見るべき左右の画像のペアに対して記録されていることが望ましい。また、コンテンツの画像の記録はディスプレイの大きさに依存しない。そこで、視差の情報は例えば、ディスプレイの水平方向の大きさに対する比として記述されている。次に、奥行き情報計算部は管理部392よりディスプレイ120の大きさ情報、例えば水平方向の長さの情報と、ディスプレイの大きさに対応する標準視聴位置すなわち、ディスプレイと視聴者の標準距離であり、視差0でディスプレイ表面に表示される対象物の奥行き距離を取得する(S3022)。さらに、奥行き情報計算部381は奥行き調整量決定部300より現在の奥行き調整量を取得する(S3023)。奥行き情報計算部381はステップS3021で取得したコンテンツの視差情報に、ステップS3022で取得した画面サイズを掛け合わせてペア画像ごとに画像内の最大の視差と最小の視差とを求める。さらに、奥行き情報計算部381は、求められた最大と最小の視差に対して、ステップS3023で取得した標準奥行き距離を視差で割ってディスプレイの大きさの補正を行い、奥行き調整が無い状態でのコンテンツの表示奥行き範囲を求める。奥行き調整量なしでの奥行き範囲に、ステップS3023で取得した奥行き調整量をあわせて、当該分析処理単位時間中の表示奥行き範囲を計算する(S3024)。
【0060】
一方、輻輳状態計算部170は、ステップS3021からステップS3024で表示奥行き範囲を計算した分析処理単位時間に対応する時間区間の眼球の画像データを蓄積する。実施の形態1の図10と同様の処理手順により、輻輳状態計算部170と立体視能力計算部380とは、当該時間区間での視聴者の立体視範囲を求める。ステップS1103からステップS1109については、蓄積された画像データのうち、処理対象とする1つの画像データに対して処理を行う。輻輳状態計算部170は当該画像データが瞬き等によるエラーデータであるか否かを判断する(S1103)。ステップS1103で当該データがエラーデータと判断された場合は、ステップS2101へ進む。ステップS1103で当該データがエラーデータではないと判断された場合はステップS1104に進む。ステップS1104では、輻輳状態計算部170は瞳孔の中心を求めて瞳孔位置とし、立体視能力計算部380へ出力する(S1104)。
【0061】
立体視能力計算部380は視聴者データ管理部390の立体視能力データベース391から当該視聴者の眼球基礎データを取得する(S1105)。立体視能力計算部380は左右の瞳孔移動距離として、ステップS1104で求められた左右の瞳孔の位置と眼球基礎データの左右の中央注視点提示中の瞳孔位置との差を求める(S1106)。立体視能力計算部380はステップS1106で求めた中央注視点を注視した際の瞳孔位置と当該画像の瞳孔位置の差を求め、両眼間の距離の変化として左右瞳孔の移動の差を求める(S1107)。両眼間の移動の差を、眼球基礎データとして記憶されている標準奥行きに対応する左右の瞳孔の移動距離の差で除し、標準化する。標準奥行き距離を標準化した両眼間の移動の差で除し、当該データ画像での視聴者の注視奥行き距離を求める(S1108)。立体視能力計算部380はステップS1108で計算した奥行きのデータを蓄積する(S1109)。立体視能力計算部380は処理単位時間内の全データの処理が終了したか否かを判断する(S2101)。全データの処理が終了していない場合はステップS1103に戻る。ステップS2101において全データの処理が終了している場合はステップS2102に進む。ステップS2102においては、立体視能力計算部380は蓄積した奥行きデータのうちの最小値と最大値を抽出し、立体視範囲とする(S2102)。
【0062】
なお、ここではコンテンツ情報蓄積部110はコンテンツ情報の一部として、コンテンツ中の映像を構成する画像のペアごとに最大視差と最小視差とを蓄積しているものとして説明したが、視差情報は、あらかじめ定められた単位時間に対して、時間区間内の最大視差と最小視差とを蓄積している場合もある。この場合には、画像表示システム1の処理時間単位とコンテンツ情報の視差情報の蓄積単位時間との標準化をし、画像表示システム1の処理時間単位での最大視差と最小視差とを求めるものとする。
また、コンテンツ情報蓄積部110が最大視差と最小視差の情報を蓄積していない場合には、ステップS3021の代わりに、以下の手順でペア画像ごとの最大視差と最小視差のデータを生成しても良い。まず、奥行き情報計算部381は、コンテンツ情報蓄積部110に蓄積された映像コンテンツを構成する画像のペアを抽出し、画素または複数画素ごとに画像を分割した領域ごとに左右の画像を比較処理するマッチング処理により、画素単位あるいは領域単位での左右画像の対応点を分析する。次いで対応点ごとの視差を計算し、さらに計算された対応点ごとの視差より、当該ペア画像の最大視差と最小視差を求める。
また、コンテンツ情報蓄積部110が3次元映像と供に、コンテンツの分類情報として、映像の放送、映画、ゲームといった配信元の種類であるソース情報と、ドラマ、紀行といったコンテンツの内容であるジャンル情報と、シーン情報を蓄積しており、これらの分類情報を利用して視差を求めるとしてもよい。例えば、立体視能力計算部380は、図22のように標準奥行きデータ385と奥行き情報抽出部386が付け加わった構成であり、標準奥行きデータ385は図23のように放送、映画、ゲームといった映像の配信元の種類であるソース情報とドラマ、紀行といったコンテンツの内容であるジャンル情報とシーン情報によるコンテンツの分類ごとに、標準的な視差をディスプレイの水平方向の大きさに対する比率として保持している。あるいは標準的奥行きを標準視聴距離に対する比率として保持している。このような構成で、立体視能力計算部380は、以下の手順でコンテンツ映像の視差を求めて立体視範囲を計算するものとしてもよい。まず、奥行き情報抽出部386がコンテンツ情報蓄積部110より取得したコンテンツの分類情報をすなわちソース情報とジャンル情報とシーン情報とに基づいて標準奥行きデータ385より視差情報を抽出する。実施の形態1の第1の変形例のステップS3021で視差情報を取得する代わりに、分類情報に基づいて分類に対応する標準視差情報を取得して、ステップS3022移行の処理を行う。
図21はステップS3030の奥行きの微調整の処理の流れの詳細を示したフローチャートである。
図21に従って、奥行きの微調整の処理を説明する。
奥行き調整量決定部300はステップS3020で立体視能力計算部380で計算された立体視の範囲と、ステップS3020で立体視範囲を計算した際の単位時間に対応する時間区間にディスプレイ120に表示した奥行き距離の最大値と最小値とを用いて、奥行き調整量の微調整を行う。
まず、奥行き調整量決定部300はステップS3020で立体視能力計算部380で計算された立体視の最小値と、立体視の範囲を計算した時間区間にディスプレイ120に表示した奥行き距離の最小値とを比較する(S3301)。ステップS3301において、計算された視聴者の立体視の最小値と表示した奥行き距離の最小値とが同等である場合は奥行き最小値の調整量を変更せずステップS3305へ進む。ステップS3301において、計算された視聴者の立体視の最小値と表示した奥行き距離の最小値とが同等でない場合は、ステップS3302へ進む。ステップS3301において計算された視聴者の立体視の最小値と表示した奥行き距離の最小値とが同等であるとは、図17のステップS3120と同様立体視の最小距離が表示奥行きの最小値に対して、最小値の上下3%以内の値であることとする。なお、同等の基準はこれ以外であっても良い。ステップS3302では、奥行き調整量決定部300はステップS3020で求めた視聴者の立体視の最小値と視聴者データ管理部390の管理部392が記憶している標準視聴距離の60%の値との比較をする(S3302)。ステップS3020で求めた視聴者の立体視の最小値の95%が標準視聴距離の60%を下回っている場合は、奥行き調整量決定部300は、奥行きの最小値側すなわち飛び出し方向での調整をしないように調整量を決定する(S3304)。調整量はここでは1となる。ステップS3302で視聴者の立体視の最小値の95%が標準視聴距離の60%以上である場合は、ステップS3303に進む。ステップS3303では、奥行き調整量決定部300は、標準視聴距離の60%が視聴者の立体視の最小値より5%少ない奥行き距離となる調整量を求める(S3303)。ここでは標準視聴距離の60%を快適に3Dを視聴するための推奨の奥行き最小距離の一例としている。すなわち、ステップS3302の処理は快適に3Dを視聴するための奥行き最小距離をステップS3020で計算された視聴者の立体視の最小値を5%下回る値にあわせる調整を行う処理である。これは、ディスプレイ平面からの飛び出し量を、ステップS3020で計算された視聴者の立体視の最小値より少し飛び出しの多い距離、に設定することになる。調整量は奥行きの伸張比であり、すなわち、飛び出し量の圧縮比に相当する。
【0063】
次に、奥行き調整量決定部300はステップS3020で立体視能力計算部380で計算された立体視の最大値と、立体視の範囲を計算した時間区間にディスプレイ120に表示した奥行き距離の最大値とを比較する(S3311)。ステップS3311において、計算された視聴者の立体視の最大値と表示した奥行き距離の最大値とが同等である場合は奥行き最大値の調整量を変更せずステップS3305へ進む。ステップS3311において、計算された視聴者の立体視の最大値と表示した奥行き距離の最大値とが同等でない場合は、ステップS3312へ進む。ステップS3311において計算された視聴者の立体視の最大値と表示した奥行き距離の最大値とが同等であるとは、図17のステップS3220と同様立体視の最大距離が表示奥行きの最大値に対して、最大値の上下3%以内の値であることとする。なお、同等の基準はこれ以外であっても良い。ステップS3312では、奥行き調整量決定部300はステップS3020で求めた視聴者の立体視の最大値と7mとの比較をする(S3312)。ステップS3020で求めた視聴者の立体視の最大値の105%が7mを超えている場合は、奥行き調整量決定部300は、奥行きの最大値側すなわち引き込み方向での調整をしないように調整量を決定する(S3314)。調整量はここでは1となる。ステップS3312で視聴者の立体視の最大値の105%が7m以下である場合は、ステップS3313に進む。ステップS3313では、奥行き調整量決定部300は、コンテンツの奥行き7mが視聴者の立体視の最大値より5%大きい奥行き距離となる調整量を求める(S3313)。ここでは十分に立体視が可能な状態であれば7m以上については奥行きを無限遠として取り扱う。無限遠として取り扱う奥行きに至るまでの引き込み方向に対しては、コンテンツの奥行き7mまでを、視聴者の立体視の最大値を5%大きくした値までの奥行きに対応するように調整する、すなわちディスプレイからの引き込み量を視聴者の立体視の最大値より少し引き込み量が多い値にあわせる調整を行う処理である。ステップS3305では奥行き調整量決定部300は飛び出し側と引き込み側の奥行きの調整量を決定する(ステップS3305)。
なお、ここではステップS3301からステップS3304の奥行き最小値の調整を先に説明し、ステップS3311からステップS3314の奥行き最大値の調整を後に説明したが、処理の順序はステップS3301からの最小値の調整が先であっても、ステップS3311からの最大値の調整が先であっても良い。また、両処理を並列に行っても良い。
なお、本実施の形態1の第1の変形例では奥行きの調整量は視聴距離より小さい奥行き、すなわちディスプレイ平面より視聴者の手前側については飛び出し量の圧縮比であり、視聴距離より大きい奥行き、すなわちディスプレイ平面より遠方については引き込み量の圧縮比であるとしたが、ディスプレイ平面との位置関係に関わらず奥行きの幅に対して調整するものとしても良い。
【0064】
以上のように、3次元専用メガネ20より送信された生体信号から視聴者が知覚している奥行きを測定して視聴者が立体視可能な範囲を視聴者ごとに記憶・更新することで、
3次元映像の視聴経験により長期的に変化する視聴者ごとの立体視能力に合わせて最適な奥行き範囲で3次元映像を表示することができる。さらには、3次元映像視聴中に視聴者の立体視可能な範囲を計測し、計測された立体視可能な範囲にあわせて表示する奥行きを調整することにより、3次元映像に対する慣れによる立体視能力の向上と疲労による立体視能力の低下という2つの現象による、3次元映像視聴中に起こる立体視の能力の変化に対応する。これにより、3次元映像視聴の開始から個人に適応した奥行きで映像を表示することができるのみでなく、3次元映像を継続して視聴する間の視聴者の立体視能力の変化に対応して奥行きを調整して、長時間にわたる視聴中、常に視聴者個人に最適な奥行きの範囲で3次元映像を表示することができる。
(実施の形態1の変形例2)
実施の形態1および実施の形態1の第1の変形例では、表示奥行きの調整は画像処理による視差の調整によってのみ行った。しかし、3次元映像では映像の1ショットである1つの3次元画像中に奥行きの異なる対象物が含まれているのが普通である。これらは、それぞれに視差が与えられており、単純に左右の画像の位置関係を水平方向に移動させると対象物によって奥行きの変化量が異なり、対象物どうしの前後関係が不自然になる。奥行きごとに視差を変化させる詳細な画像処理を行うと、1つの画像内で画像が重なる部分、画像がなくなる部分が発生し、重なり順の処理や、画像の無い部分を補完する等の高次な画像処理が必要となる。これらの処理の負荷は大きく、動きの速い映像では処理の遅れや粗さにより不自然な画像になることがある。映画等の作品としてのコンテンツを考えると、1つのコンテンツに対して自然な映像で、あらかじめ奥行き範囲を調整した映像データを、複数の奥行き範囲のバージョンとして提供することが考えられる。このような場合、視聴するコンテンツをネットワークからダウンロードする場合に、すべての奥行き範囲のバージョンをダウンロードするのはネットワークへの大きな負荷となり現実的でない。そこで、本変形例3では、初期10分のみの立体視能力の履歴ではなく、立体視能力とのデータを継続視聴による立体視能力の変化を表示奥行き範囲とともに保持し、継続視聴による立体視の変化を予測することで、ダウンロードタイミングを計ることができる。
【0065】
図24は実施の形態1の変形例2における3次元表示テレビ10の構成図である。本変形例の3次元表示テレビ10は図13の実施の形態1の第1の変形例の3次元表示テレビ10に映像提供者100と接続可能な外部のネットワークに接続されたダウンロード制御部410が付け加わり、奥行き調整量決定部300が奥行き範囲選択部400に置き換わり、立体視能力計算部380が立体視能力計算部480に置き換わった以外は図13と同様である。
【0066】
図25は実施の形態1の変形例2における3次元表示システムの一部の詳細な構成を示す図である。本変形例の立体視能力計算部480は、図19に示した実施の形態1の第1の変形例の立体視能力計算部380に立体視範囲変化予測部481が加わった以外は図19と同様である。
【0067】
実施の形態1の変形例2における画像表示システム1は、3次元表示テレビ10と3次元専用メガネ20と入力インタフェース30からなる。本変形例の3次元専用メガネ20と入力インタフェース30は実施の形態1と同様であるので説明を省略する。本変形例の3次元表示テレビ10はコンテンツ情報蓄積部110と、ディスプレイ120と、画面制御部130と、制御信号送信部140と、通信制御部150と、送受信部160と、輻輳状態計算部170と、視聴者データ管理部390と、奥行き範囲選択部400と、ダウンロード制御部410と、立体視能力計算部480とを備える。
【0068】
立体視能力計算部480はコンテンツ情報蓄積部110より取得したコンテンツの奥行き情報と、奥行き範囲選択部400から取得した奥行き調整量と、視聴者データ管理部390より取得した視聴者の立体視範囲と表示した奥行き範囲とを含む視聴履歴とに従って、現在の視聴者の立体視範囲を求めて奥行き範囲選択部400へ出力する。また立体視能力計算部480は、視聴者が視聴を続けた場合の視聴者の立体視範囲の時間経過に伴う変化を予測してダウンロード制御部410へ出力する。ダウンロード制御部410は、画像表示システム1の外部のネットワークを介して映像提供者100から映像コンテンツをダウンロードし、コンテンツ情報蓄積部110に蓄積する。ダウンロード制御部410は立体視能力計算部480より取得した、視聴者の立体視範囲の時間経過に伴う変化の予測に基づいて、同一コンテンツの奥行き範囲の異なるバージョンをダウンロードするタイミングを決定する。奥行き範囲選択部400は立体視能力計算部480より取得した視聴者の立体視の範囲に基づいて、ダウンロードされた複数種の奥行き範囲のバージョンより、最適な奥行き範囲のバージョンを選択する。
【0069】
図26は実施の形態1の変形例2において立体視能力データベース391が記憶するデータの構成の例である。立体視能力データベース391は、視聴者IDと、眼球の基礎データとを記憶し、視聴者ごとの3次元映像の視聴履歴として、日付、視聴開始から10分ごとの時間区間、各時間区間に表示した奥行きの最小値と最大値、当該時間区間の視聴者の立体視の範囲すなわち立体視の最小値と最大値を記憶している。
【0070】
図27と図28は実施の形態1の変形例2の処理の流れを示したフローチャートである。本変形例の処理は図5に示した実施の形態1の処理とステップS1000からステップS1040と、ステップS1060からステップS1070と、ステップS1200からステップS1220と、ステップS1300からステップS1320については同じである。実施の形態1と同様の部分については同一の記号を付し、説明を適宜省略する。また本変形例ではステップS1070からステップS3020とステップS3040からステップS1090は実施の形態1の第1の変形例と同様の処理であるので、同様の部分については同一の記号を付し、説明を適宜省略する。
【0071】
以下、図27と図28に従って実施の形態1の変形例2の処理を説明する。
まず、視聴者により図示しない電源スイッチが押され、3次元表示テレビ10の電源が入り、画像表示システム1は動作を開始する(S1000)。次いで3次元表示テレビ10は3次元専用メガネ20の電源が入っているか否かを確認する(S1010)。
ステップS1010で3次元専用メガネ20の電源が入っている場合はステップS1020へ進む。ステップS1010で3次元専用メガネ20の電源が入っていない場合はステップS1200へ進む。ステップS1200では図示しない電源スイッチ等からの視聴終了信号の入力が行われたか否かを判断する。ステップS1200で視聴終了信号の入力がある場合はステップS1220へ進み画像表示システム1の動作を終了する(S1220)。ステップS1200で視聴終了信号の入力がない場合はステップS1210へ進み、画面制御部130はディスプレイ120に2次元の画像を表示する(S1210)。ステップS1210実行後、あらかじめ定められた時間の後、ステップS1010へ戻る。
【0072】
ステップS1010で3次元専用メガネ20の電源が入っている場合は、視聴者データ管理部390は個人選択入力ボタン270から入力された個人選択入力信号を取得する(S1020)。視聴者データ管理部390の個人特定部194は取得した個人選択入力信号が視聴者として登録済みのものであるか否かを判定する(S1030)。ステップS1030で未登録の視聴者である場合は、ステップS1300に進む。ステップS1300において視聴者の新規登録の選択入力を取得する(S1300)。ステップS1300で新規登録の入力が無い場合はステップS1330に進む。ステップS1300で新規登録の入力がある場合は、入力インタフェース30からの入力に基づき、管理部392は新規の視聴者IDを付与し、視聴者の情報を登録する(S1310)。次に表示画像生成部195は新規視聴者の眼球運動を取得して、眼球基礎データを生成して立体視能力データベース391に記憶する(S1320)。
【0073】
ステップS1330では奥行き範囲選択部400はコンテンツ映像をディスプレイ120に提示する際の奥行き範囲を、コンテンツが持つ奥行き範囲の80%と定める(S4040)。
一方、ステップS1030において登録済みの視聴者である場合はステップS3110へ進み、奥行き範囲選択部400は視聴者データ管理部390の立体視能力データベース391から、ステップS1030で特定された個人に対応する表示奥行きと立体視範囲のうち、直近の5回分の視聴履歴を抽出する(S3110)。次いで奥行き範囲選択部400はステップS3110で抽出した表示奥行きと立体視範囲の履歴情報を用いて視聴者の立体視範囲の推定を行う(S4010)ステップS4010は実施の形態1の第1の変形例におけるステップS3120からS3170またはS3180とステップS3220からステップS3270またはS3280の処理により行われる。さらに奥行き範囲選択部400はステップS4010で推定された立体視範囲に対応するコンテンツ表示時の奥行きの範囲を選択する(S4020)。コンテンツ表示時の奥行きの範囲は、あらかじめ定められた複数種の奥行き範囲があるものとする。コンテンツ作成者は定められた複数種の奥行き範囲になるように、コンテンツの奥行きを調節して作成した3次元映像を用意しているものとする。ステップS4020ではステップS4010で推定された視聴者の立体視範囲に最も近い奥行き範囲を選択する。
ステップS4020またはステップS4040で奥行き範囲が選択された後、立体視能力計算部480の立体視範囲変化予測部481は、ステップS4010で推定された立体視範囲またはステップS4040で設定された奥行き80%と、立体視能力データベース391に記憶された視聴者の立体視範囲の時間変化の履歴とから一定時間後の視聴者の立体視の範囲を予測する(S4021)。一定時間は長くとも次に説明するステップS4030で、映像ストリームをダウンロードする時間長より短い必要がある。また、一定時間は短くともステップS3010以降の処理で視聴者の立体視範囲を計算する単位時間を越える時間長である必要がある。立体視範囲の予測方法については後述する。
ダウンロード制御部410は奥行き範囲選択部400より取得した奥行き範囲に該当する3次元映像のストリームをダウンロードする(S4030)。ステップS4030でのダウンロードは映像の時間長が長くデータが大きい場合には、映像開始から一定時間分をダウンロードすればよい。一定時間は少なくともステップS3010以降の処理で視聴者の立体視範囲を計算する単位時間を越える時間長である必要がある。なお、ここでは当初表示する奥行き範囲の映像ストリームのみをダウンロードするものとしたが、ステップS4021で予測された一定時間以上経過した際の視聴者の立体視範囲に対応する奥行き範囲の映像ストリームも続いてダウンロードするとしてもよい。ステップS4030でダウンロード制御部410は映像ストリームをダウンロードする際にダウンロードした映像ストリームの奥行き範囲の情報を含む、ダウンロードの履歴を生成して記憶する。
映像ストリームの必要量がダウンロードされた後、生体信号センサ230は生体信号の取得を開始する(S1060)。画面制御部130は図示しない電源スイッチ等からの視聴終了信号の入力あるいはコンテンツ終了による視聴終了信号の発生が行われたか否かを判断する(S1070)。ステップS1070で視聴終了信号の入力がある場合はステップS1220へ進み画像表示システム1の動作を終了する(S1220)。ステップS1070で視聴終了信号の入力がない場合はステップS3010へ進む。ステップS3010では輻輳状態計算部170が3次元映像視聴開始、または立体視範囲の計算の終了から立体視計算のための処理単位時間が経過したか否かを判断する(S3010)。ステップS3010において処理単位時間が経過していない場合は、ステップS4050に進む。ステップS3010において処理単位時間が経過している場合は、ステップS3020に進む。
ステップS3020では、輻輳状態計算部170で、3次元専用メガネ20で取得された画像信号からエラー処理を行い、左右の眼球の瞳孔位置を抽出する。あらかじめ定められた時間幅すなわちサンプル数の画像に対応する瞳孔の位置情報から、立体視能力計算部480は立体視範囲を計算する(S3020)。次いで、ステップS3020で計算された、表示した奥行きの範囲と視聴者の立体視の範囲とを立体視能力データベース391に記憶する(S3040)。立体視能力計算部480の立体視範囲変化予測部481は、ステップS3020で計算された立体視範囲と、立体視能力データベース391に記憶された視聴者の立体視範囲の時間変化の履歴とから一定時間後の視聴者の立体視の範囲を予測する(S4060)。一定時間は短くともステップS3010以降の処理で視聴者の立体視範囲を計算する単位時間を越える時間長である必要がある。立体視範囲の予測方法については後述する。
奥行き範囲選択部400は、現在選択されている奥行きの範囲と、ステップS3020で計算された立体視範囲と、立体視能力データベース391に記憶された当該視聴者の継続視聴時の立体視能力の時間変化と、ダウンロード制御部410に記憶されたダウンロード履歴に基づいて奥行き範囲の選択を行う(S4050)。ステップS4050での奥行き範囲の選択方法については後述する。
画面制御部130はステップS4050で奥行き範囲選択部400が選択した奥行き範囲に調整された3次元映像をコンテンツ情報蓄積部110から呼び出し、映像を提示する(S1090)。
【0074】
S1090実行後、ステップS1070へ戻り、ステップS1070からステップS1090を繰り返すことで、3次元映像を表示し続けるとともに視聴者の立体視能力をモニタして3次元映像の視聴中に変化する立体視能力に合わせて奥行きを調整して3次元映像を表示する。さらに、順次視聴者ごとの立体視能力を視聴の履歴と合わせて記憶できる。
【0075】
一方、ステップS4060で立体視範囲変化予測部481が一定時間後の視聴者の立体視の範囲を予測した後、ダウンロード制御部410はステップS4060で予測された一定時間後の立体視範囲とダウンロード履歴を比較する(S4070)。ステップS4060で予測された立体視範囲がすでにダウンロードされた映像ストリームのいずれかの奥行き範囲で対応可能である場合はステップS4090へ進む。ステップS4070でステップS4060で予測された立体視範囲がすでにダウンロードされた映像ストリームのいずれの奥行き範囲でも対応ができない場合はステップS4080に進み、ステップS4060で予測された立体視範囲に対応する奥行き範囲の映像ストリームをダウンロードする(S4080)。ステップS4090では、ダウンロード制御部410はダウンロードした映像ストリームの奥行き範囲の情報を含む、ダウンロードの履歴を生成して記憶する(S4090)。
【0076】
ステップS4070からステップS4090はステップS4060の終了後からステップS1090の実行中のいずれのタイミングで行ってもよい。
【0077】
図29はステップS4021またはステップS4060の立体視範囲の予測の処理の詳細を示すフローチャートである。
【0078】
図29に従って立体視範囲の予測の処理手順を説明する。
【0079】
まず、立体視範囲変化予測部481は立体視能力データベース391より当該視聴者の継続視聴による立体視範囲の変化を記録したデータを取得する(S4101)。立体視能力データベース391は図26に示すように視聴者ごとに3次元映像の視聴履歴を記憶している。視聴回ごとに単位時間ごとの表示奥行き範囲と視聴者の立体視範囲が記憶されている。すなわち視聴回ごとに経過時間に対して表示奥行き範囲と立体視範囲の変化が記録されており、継続視聴時間の長さによるが、図12に示したような経過時間による立体視範囲の変化の情報が、視聴回ごとに記憶されている。ステップS4101では記憶されている履歴から直近5回の視聴の履歴を取得するとする。記憶されている視聴回数が5回に満たない場合は記憶されている履歴のすべてを取得する。立体視範囲変化予測部481はステップS4101で取得した立体視範囲のデータについて、各視聴回の立体視範囲を視聴開始からの経過時間ごとにまとめる。さらに立体視範囲変化予測部481は立体視の最大値と最小値それぞれについて、同一経過時間の5回視聴分の値のうちはずれ値を除外する(S4102)。はずれ値は例えば5回視聴分データの平均から標準偏差を減算した値未満か、平均に標準偏差を加算した値を超える値とする。ステップS4102で除外された値以外について、立体視範囲変化予測部481は立体視の最大値と最小値のそれぞれについて、各視聴回の視聴開始時の値を減じて、変化量を求める(S4103)。最大値については7m以上は7mとして計算する。立体視範囲変化予測部481は視聴開始からの経過時間ごとに、ステップS4103で求めた各視聴回の変化量の代表値を求める(S4104)。代表値は平均でも中央値でもよい。立体視範囲変化予測部481は現在、すなわち、当該処理単位時間の視聴開始からの経過時間を求める(S4105)。さらに立体視範囲変化予測部481は、ステップS3020で計算された、現在すなわち当該処理単位時間中の視聴者の立体視範囲か、ステップS4010で推定された視聴開始時の視聴者の立体視範囲か、ステップS4040で視聴開始時に設定された奥行き範囲のいずれかの立体視の最大値と最小値について、視聴開始時の値を減算して視聴開始時からの変化量を求める(S4106)。現在の立体視の変化量と現在の視聴開始からの経過時間に対応する、ステップS4104で計算した変化量の代表値が同等であるか否かを判断する(S4107)。同等とは、ここでは現在の値と代表値との値の差が代表値の3%未満であるとする。ステップS4107で現在の変化量と変化量の代表値とが同等である場合はステップS4109に進む。ステップS4107において現在の変化量と変化量の代表値とが同等でない場合は、ステップS4104で求めた視聴開始からの経過時間ごとの変化量の代表値について、立体視範囲変化予測部481は現在の視聴開始からの経過時間を中心に周辺の処理単位時間4区間の中で、最も現在の変化量と変化量の代表値とが近い時間区間を現在の経過時間に置き換える(S4108)。なお、ここでは処理単位区間4区間中から現在の立体視範囲の変化量が当てはまる経過時間を求めたが、これ以外の時間範囲に対して現在の立体視範囲の変化量が当てはまる経過時間を求めてもよい。
【0080】
ステップS4109では、立体視範囲変化予測部481はステップS4104で計算した経過時間ごとの変化量の代表値から、現在の経過時間から一定時間後の変化量の代表値を抽出し、当該の視聴開始時の立体視の最大値と最小値にそれぞれの変化量を加算して立体視範囲の予測値を出力する(S4109)。
【0081】
なお、ステップS4101からステップS4104で経過時間に対する立体視範囲の変化量を求める処理は、処理単位時間ごとに行う必要はなく、視聴開始直後の処理でのみ行い、立体視範囲変化予測部が代表値を記憶しておくものとしてもよい。
【0082】
図30はステップS4050の奥行き範囲の選択方法の詳細を占めすフローチャートである。
【0083】
図30に従って奥行き範囲の選択方法を説明する。
【0084】
まず、奥行き範囲選択部400は、ステップS3020で立体視能力計算部480が計算した現在の立体視の最大値と最小値と、当該の時間区間でディスプレイ120に表示した映像の奥行きの最大値と最小値とを取得する(S4201)。さらに奥行き範囲選択部400は、立体視範囲変化予測部481よりステップS4060で生成した視聴開始からの経過時間に対する立体視範囲の変化量の代表値を取得する(S4202)。奥行き範囲選択部400は、ダウンロード制御部410よりダウンロード履歴を取得する(S4203)。奥行き範囲選択部400は現在の視聴開始からの経過時間を求める(S4204)。奥行き範囲選択部400は、ステップS3020で計算された、現在の視聴者の立体視の最大値と最小値について、視聴開始時の値を減算して視聴開始時からの変化量を求める(S4205)。現在の立体視の変化量と、現在の視聴開始からの経過時間に対応する変化量の代表値が同等であるか否かを判断する(S4206)。ステップS4206で現在の変化量と変化量の代表値とが同等である場合はステップS4208に進む。ステップS4206において現在の変化量と変化量の代表値とが同等でない場合は、視聴開始からの経過時間ごとの変化量の代表値について、奥行き範囲選択部400は、現在の視聴開始からの経過時間を中心に周辺の処理単位時間4区間の中で、最も現在の変化量と変化量の代表値とが近い時間区間を現在の経過時間に置き換える(S4207)。ステップS4208では現在の経過時間から処理単位時間3区間の変立体視の範囲が増加傾向にあるか否かを判断する(S4208)。ステップS4208において立体視範囲が増加傾向にある場合には、すでにダウンロードされた奥行き範囲の異なる映像ストリームの中から、現在の立体視範囲に最も近い奥行き範囲の映像ストリームまたは現在の立体視範囲より広い奥行き範囲の映像ストリームを選択する(S4209)。ステップS4208において立体視範囲が増加傾向にない場合には、すでにダウンロードされた奥行き範囲の異なる映像ストリームの中から、現在の立体視範囲に最も近い奥行き範囲の映像ストリームまたは現在の立体視範囲より狭い奥行き範囲の映像ストリームを選択する(S4210)。
【0085】
以上のように、3次元専用メガネ20より送信された生体信号から視聴者が知覚している奥行きを測定して視聴者が立体視可能な範囲を視聴者ごとに記憶することにより、次回視聴時には視聴者個人の立体視可能な範囲に合わせて3次元映像の奥行きを調節することができ、視聴者ごとに異なる立体視の能力に合わせた映像により、疲労の少ない範囲で3次元映像を楽しむことができる。さらに、視聴中の立体視範囲をモニタし、3次元映像の視聴への慣れによる立体視能力の向上や、逆に長時間視聴によっておこる疲労による立体視能力の低下に対応して表示する奥行きを調整することができる。また奥行き範囲ごとに映像ストリームが異なる場合にも、過去の履歴より、視聴の経過時間に伴う立体視範囲の変化を予測して、映像ストリームをダウンロードして表示を切り替えることにより、表示したい奥行き範囲のストリームのダウンロードが間に合わないという問題を回避して、視聴者の立体視範囲の変化に応じた3次元映像を提供することができる。
(実施の形態1の変形例3)
実施の形態1においては、画面の中央に表示されている星型を注視することで個人ごとの輻輳量を測定するための基準値を設定した。この基準値に基づいて個人ごとの輻輳量を測定し、測定結果に応じて立体の奥行き度合いを変更することで、個人に適した立体コンテンツの提供を行った。さらに、第1の変形例においては、個人の立体視能力の時系列変化の特性に応じて、コンテンツの奥行き方向の制御を行い、無理のない3次元映像コンテンツの提供を行っている。また、変形例2においては、個人の立体視能力の時系列変化の履歴を蓄積しておくことで、将来の立体視能力の変化を事前に予測することで、その能力に応じた3次元映像コンテンツを事前にネットワークでダウンロードしておくことで、ストレスのない立体視聴を実現する技術の開示を行っている。
【0086】
さらに、本変形例においては、視聴者の立体視能力を画面位置に応じて測定することで、個人に適した3次元映像を提供するものである。視聴者の中には、斜視や斜位といった眼球位置が左右にずれる人がある。このような場合、目を動かす方向によって、動きが良い場合と動きが悪い場合がある。そのため、表示画面においても、立体物が表示される位置によって、輻輳が十分に生成できる位置と、輻輳が十分に生成できない位置が存在する。本変形例においては、画面上の複数の位置に立体視を行う対象物が表示されたときに、個人の輻輳が追従できる画面上の位置と、追従できない画面上の位置を特定し、各個人の立体視能力の画面上での偏りを計測するものである。
【0087】
図38は本変形例のシステム構成の3次元表示テレビ10の部分を示した構成図である。図38のシステム構成は基本的に、図1のシステム構成と同様であるが、さらに、画面の表示位置ごとの被験者の輻輳範囲を蓄積する位置別輻輳範囲蓄積部3801が追加されている。輻輳状態計算部170では、眼球画像の瞳孔位置等を計測することで視聴者の輻輳状態を計算するが、対象物の表示されている位置に応じて、輻輳状態を計算し、その計測結果を位置別輻輳範囲蓄積部3801で蓄積することとなる。さらに、対象物の表示位置に応じた輻輳範囲を用いて、視聴者の立体視能力を立体視能力計算部180で計算する。
【0088】
斜視や斜位あるいはその傾向を持つ視聴者については、対象物を中央に表示したときだけでなく、画面の左右の位置に表示したときの輻輳を測定することで、視聴者の立体視能力を総合的に測定するものとなる。具体的な計算方法を次に述べる。
【0089】
はじめに、対象物が中央の位置にある場合の例について図39を用いて説明する。図39の黒い星の位置に画像が表示されていた場合の瞳孔中心位置に対して、白抜きの星の位置に画像が表示された場合には、眼球を撮影している画像において、P1ピクセルだけ移動したとする。このとき、白抜きの星に対して眼球が十分に追従できていたとすると、
P1=k(Rtan(θ1+Δθ1)−Rtanθ1) (1)
で表現される。ここで、Rは眼球の回転中心からの半径であり、kは単位移動距離あたりのピクセル数に相当する。ここで、眼球を撮像しているカメラのレンズひずみを考慮しなければ、kは一定の値として計算できる。
【0090】
一方、図39の幾何学的な関係より、
tanθ1=d/(L0+R) (2)
tan(θ1+Δθ1)=d/(L+R) (3)
で表現できる。ここで、Lは、視聴者からの白抜き星が提示されたときの、視聴者からの仮想的な距離を示しており、L0は被験者の顔からディスプレイまでの距離である。眼球の瞳孔中心の移動ピクセル数P1が計測されたとき、視聴者にとって白抜き星の位置は、数式1から3を用いることで、
L=kRdL0/(kRd+P1L0) (4)
となる。
【0091】
一方、白抜き星の位置はディスプレイ画面上ではuだけ中央からずれた位置に表示されたときに視聴者からLの距離にあるように見えるものである。よって、図39の三角形の相似関係より
(u+d)/(L0+R)=u/(L0−L) (5)
の関係が成立する。この式からuだけずらしたときのLの値を計算すると、L>>Rとしたときは、
L=(d×L0)/(u+d) (6)
で計算される。被験者の瞳孔が目標物である白抜き星の立体度に追従できていた場合には、数式4で計算されたLの値と数式6で計算されたLの値が同じ値となる。しかしながら、視聴者の眼球の輻輳が作成できない場合には、数式6で計算された値より、数式4で計算された値の方が大きくなり、画像的には視聴者に近いところで表示しようとしている物体が、視聴者に近すぎて十分に輻輳ができていないことを示すこととなる。表示画面の中央における立体視能力は、上記のようにして計測することが可能である。
【0092】
一方、中央からずれた位置での立体視能力の測定方法を図40を用いて説明する。図40では、ディスプレイ画面上において、右目用の画像を中心からu1だけ移動させ、左目用の画像をu2だけ移動させることで、視聴者から距離Lの近さで距離sだけ左方向に移動している白抜きの星が、輻輳が追従していれば確認できることとなる。そこで、図39での説明と同様に、左右の眼球画像の移動量から計測されるP1、P2の値から、距離Lと距離sを計算する。一方で、u1とu2の値から距離Lと距離sを計算する。これらの値が同一の値であれば、白抜きの星の画像に対して、眼球の輻輳量が追従し、ディスプレイへの表示時の計算通りの立体度合いで観測できていると推測される。しかしながら、Lの値が所定の値より小さくなると、十分な輻輳を実現することができずに、視聴者は立体に見えなくなってしまう。このように、視聴者の輻輳を起こさせる画像を提示することで、各視聴者が追従できる立体度合いを計測することが可能になる。特に、本変形例においては、立体を提示する画面上の各位置に対して輻輳量を算出することで、視聴者の眼球の特性をより正確に計測することが可能になる。
【0093】
例えば、図41に示すように、画面上の9点において、立体度合いを変化させて画像を視聴者に提示し、眼球の瞳孔の中心位置を計測することで、各画像が立体に見えているか否かを判断することが可能になる。図41では9点の位置を提示しており、特に、輻輳の量は、縦方向に並んでいる(1,4,7)、(2,5,8)、(3,6,9)では、同様の輻輳が検出される。そのため、効率的に、被験者の輻輳量を計測するためには、水平方向に異なる位置での目標物に対する輻輳力を計測する方が効率的である。
【0094】
例えば、(4,5,6)の各位置の奥行き度合いを変化させて目標物を、被験者に追従させ、十分な輻輳量が瞳孔の移動から検出されるか否かを測定する。測定の結果、例えば、図42に示すように、5、6の領域では目標物の奥行きに対して瞳孔の輻輳量は追従できているが、4の領域(画面の左の領域)では輻輳が十分に追従できていないことがわかる。一方、図43の結果では、中央の5の領域では輻輳が追従できているが、4、6の領域で、輻輳が追従できていないことがわかる。図42、43で示したように、視聴者は左右の眼球の運動範囲が、必ずしも同一ではないため、複数の領域で輻輳範囲を計測する必要がある。さらに、計測された輻輳範囲から、提示する3次元映像の奥行き量を制御する必要がある。
【0095】
次に、眼球画像から瞳孔中心を求める画像処理の詳細について説明する。実施の形態1においては、瞳孔中心を楕円マッチング手法等により求めていた。しかしながら、眼球画像においては、図44に示すように、眼球の上部にまつげが存在したり、目を大きく開いていない視聴者がいたりするために、瞳孔の上部の画像が正確に検出できないことが多くある。このために、計算した瞳孔中心の座標位置が不正確になるあるいはノイズが多くなることがある。そこで、本変形例においては、瞳孔の下部の画像を利用することで瞳孔の中心を検出する画像処理方法について図45を用いて説明する。
【0096】
図45において、はじめに、眼球画像の2値化処理を行うことで、瞳孔部分を抽出する。次に、エッジ抽出を行い、瞳孔部分の輪郭を検出する。このとき、瞳孔の上部にまつげがかかっていたり、瞳孔の楕円全体が抽出できていない場合には、実施の形態1で述べた楕円マッチングを用いても、正確に瞳孔の中心が検出されないことが多い。一方、眼球の下部に関しては、瞳孔の曲線部分が正確に検出されていることが多い。そこで、瞳孔の下部のエッジに対して、垂直方向において最も下部のエッジ点を検出し、その点の水平方向の座標を求めることで、瞳孔の中心座標とする。
【0097】
このように、瞳孔の下部の曲線を利用して瞳孔中心を求めるため、瞳孔はなるべく上を向いている画像を利用した方がよい。そこで、図46で示すように、垂直方向に複数の対象物を表示し、瞳孔の下部がまぶたより下にならない画像を用いることで、瞳孔中心の検出の成功率が高くなる。
【0098】
また、視聴者が眼鏡を装着しているときに、眼球の画像を取得するためには、赤外線のLED照明を眼球に照射し、赤外線カメラを用いて眼球画像を取得することとなる。そのため、LED照明によって反射する部分は、赤外線カメラにおいては白く写るため、LEDの照射位置を眼球の上部に当たるようにすることで、さらに、瞳孔中心の検出の失敗率を低下させることが可能になる。
(実施の形態2)<システムの説明>
図31は実施の形態2における画像表示システム1の構成図である。
画像表示システム1は3次元表示テレビ10と3次元専用メガネ20と入力インタフェース30からなる。図31は図1に示した実施の形態1と、3次元表示テレビ10では視聴者データ管理部190が視聴者データ管理部590に置き換わり、視聴制限データベース520が付け加わった以外は図1に示した3次元表示テレビと同様である。また、3次元専用メガネ20では生体信号センサ230がカメラ510に置き換わり、個人選択入力ボタン270が無くなった以外は図1に示した3次元専用メガネ20と同様である。図1と同一部分には同一の記号を付し、適宜説明を省略する。
図32は実施の形態2における画像表示システム1の一部の構成の詳細を示す構成図である。図32は図2に示した実施の形態1と、個人特定部194が虹彩認証部594に入れ替わり、立体視能力データベース191が立体視能力データベース591に入れ替わり、認証データ生成部595が付け加わった以外は図2と同様である。図2と同一の部分には同一の記号を付し、適宜説明を省略する。
実施の形態2の画像表示システムは、3次元専用メガネ20のセンサとして眼球を撮像するカメラ510を採用している。さらに視聴者データ管理部590はカメラ510により撮像される眼球の画像から虹彩を認証して個人を特定する。視聴制限データベース520に記憶された視聴者の年齢等により設定された視聴制限の情報に基づいて、成人向けのコンテンツを子供が視聴する等を防ぐ。
実施の形態2の3次元表示テレビ10はコンテンツ情報蓄積部110と、ディスプレイ120と、画面制御部130と、制御信号送信部140と、通信制御部150と、送受信部160と、輻輳状態計算部170と、立体視能力計算部180と、視聴者データ管理部590と、奥行き調整量決定部200と、登録された視聴者ごとに、視聴を制限する映像の属性を記憶した視聴制限データベース520とからなる。3次元専用メガネ20は制御信号受信部210と、シャッタ制御部220と、両眼球を撮像するカメラ510と信号生成部240と送受信部250と通信制御部260とを備える。
視聴者データ管理部590は、立体視能力データベース591、管理部192、眼球基礎データ生成部193、虹彩認証部594、認証データ生成部595とを備える。
立体視能力データベース591は、視聴者ごとの立体視能力と個人認証に用いる虹彩認証データを記憶する。
虹彩認証部594は、3次元専用メガネ20より送信された眼球の画像データと立体視能力データベース591の虹彩認証データとのマッチング処理により個人認証を行う。
認証データ生成部595は、新規視聴者の登録の際に3次元専用メガネ20から送信された眼球の画像データより虹彩認証用の虹彩認証データを生成する。
実施の形態2の奥行きの調整にかかわる動作は実施の形態1と同様であるので説明を省略する。
図34は実施の形態2の3次元表示テレビ10と3次元専用メガネ20との通信プロトコルを示したものである。
図34に従って、3次元専用メガネ20上のカメラで撮像した眼球画像による個人認証に関する動作を説明する。
まず、3次元表示テレビ10の電源が入り、画像表示システム1は動作を開始する。3次元専用メガネ20の電源が入り、3次元専用メガネ20の送受信部250から3次元表示テレビ10の送受信部160に3次元専用メガネ20のメガネID情報が送信される(通信1)。これにより、3次元表示テレビ10の通信制御部150は3次元専用メガネ20が動作中であることを確認し、通信制御部150の制御に基づいて送受信部160はメガネID受信完了信号を3次元専用メガネ20に送信する(通信2)。
次いで、通信制御部150の制御に基づいて送受信部160は個人認証情報を要求する要求信号を3次元専用メガネ20に送信する(通信21)。3次元専用メガネ20の送受信部250は個人認証情報の要求信号を受信し、要求信号に基づいて、カメラ510は眼球を撮像し信号生成部240はカメラ510で撮像された認証用画増データ送信用信号を生成する。3次元専用メガネ20の送受信部250は通信制御部260の制御に基づいて個人認証情報を3次元表示テレビ10に送信する(通信22)。視聴者データ管理部590は送受信部160が受信した個人認証情報を取得する。視聴者データ管理部590の虹彩認証部594は取得した個人認証情報と立体視能力データベースに蓄積された登録済み視聴者の虹彩認証データとのマッチングを行う。取得した個人認証情報が登録済み視聴者の虹彩データとマッチする場合は、管理部192は虹彩データがマッチした視聴者に対応する視聴制限を抽出し、画面制御部130へ出力する。画面制御部130は視聴制限に従ってコンテンツ映像を取得し、特定された視聴者の立体視の能力にあわせた奥行き範囲の情報を奥行き調整量決定部200へ出力する。奥行き調整量決定部200は抽出された視聴者の立体視範囲に応じてコンテンツ映像をディスプレイ120に提示する際の奥行き範囲を決定する。
さらに、送受信部160は通信制御部150の制御に基づいて生体信号取得開始要求信号を3次元専用メガネ20に送信する(通信5)。送受信部250は生体信号取得開始要求信号を受信し、カメラ510は眼球の撮像を開始する。
画面制御部130はコンテンツ情報蓄積部110に蓄積された3次元映像を呼び出し、ディスプレイ120を制御して3次元映像を表示し、制御信号送信部140を制御して、画面に表示される右目用と左目用の画像に同期して3次元専用メガネ20のシャッタを開閉するための制御信号を3次元専用メガネ20に送信する(通信6)。3次元専用メガネ20の制御信号受信部210は制御信号送信部140から送信された制御信号を受信し、シャッタ制御部220は図示しないシャッタを開閉して右目用画像を視聴者の右目にのみ提示し、左目用画像を視聴者の左目のみに提示する。
【0099】
入力インタフェース30より視聴者がコンテンツの変更を指示する入力を行うと、通信制御部150の制御に基づいて送受信部160は個人認証情報を要求する要求信号を3次元専用メガネ20に送信する(通信23)。3次元専用メガネ20の送受信部250は個人認証情報の要求信号を受信し、要求信号に基づいて、カメラ510は眼球を撮像し信号生成部240はカメラ510で撮像された認証用画増データ送信用信号を生成する。3次元専用メガネ20の送受信部250は通信制御部260の制御に基づいて個人認証情報を3次元表示テレビ10に送信する(通信24)。視聴者データ管理部590は送受信部160が受信した個人認証情報を取得し、虹彩認証部594は取得した個人認証情報と立体視能力データベースに蓄積された登録済み視聴者の虹彩認証データとのマッチングを行う。取得した個人認証情報が登録済み視聴者の虹彩データとマッチする場合は、管理部192は虹彩データがマッチした視聴者に対応する視聴制限を抽出し、画面制御部130へ出力する。画面制御部130は視聴制限に従ってコンテンツ映像を取得し、コンテンツを変更する。
虹彩認証部594が送受信部160から取得した個人認証情報が登録済み視聴者とマッチしない場合は視聴者の新規登録を行う。送受信部160から取得した個人認証情報より認証データ生成部595が虹彩認証データを生成し、虹彩認証データと視聴者IDとをあわせて立体視能力データベース591に蓄積する。
【0100】
以上のように、3次元専用メガネ20に備えられた眼球撮像用のカメラで撮像された画像を用いて、3次元表示テレビで虹彩認証による視聴者の個人を特定する。これにより、視聴者個人ごとに設定された視聴制限に従って映像が表示され、教育的配慮や、視覚と空間認識能力の成長過程における3次元映像の影響への配慮の元に映像を表示することができる。さらに、コンテンツの変更のたびに虹彩認証を行うことで、初期の認証の後にメガネをかけ替える等による成り済ましにより、不正に視聴することを防止することができる。
【0101】
なお、コンテンツの変更あるいはダウンロード、またコンテンツ視聴への課金のタイミングで視聴者の個人認証を行うことで、有料コンテンツの不正視聴を防止することもできる。メガネに備えたセンサにより生体認証ができることで、手をかざす等の特別な認証動作を行うことなく、自動的に認証データを取得、送信することができる。視聴者はコンテンツへのアクセス等を自由に行いながら、コンテンツ変更、課金等のタイミングでしばしば起こる認証の操作に煩わされることが無い。
(実施の形態2の第1の変形例)
実施の形態2においては、コンテンツを変更するときに、視聴者の虹彩画像で認証を行う動作について説明した。しかしながら、虹彩画像等を用いた認証を行うためには、メガネに装着されたカメラで取得した画像をテレビ側に送信するため、虹彩認証の精度を向上させるために、画像の詳細度をあげると通信に時間がかかってしまう。また、個人認証を行うときには、他人除外性能を向上させようとすると、一回の虹彩画像の取得では認証に失敗することも多い。このように、コンテンツが切り替わるタイミングで個人の認証を行うと視聴者にとって、認証のプロセスが手間になることがある。
【0102】
そこで、本変形例においては、一度、メガネに装着しているデバイスで認証を行うと、そのメガネを装着している限りにおいては、認証を必要としないシステムの動作について説明する。メガネに装着されたカメラ画像等で認証を行うため、一度、そのメガネで認証を行えば、視聴者がメガネを次にはずすまでは、認証を行う必要がないものとする。これを実現するためには、メガネに装着されたカメラで認証を行った後は、視聴者がメガネをはずすか、テレビとメガネとの通信がとぎれるまでは、視聴者は始めに特定された個人であるものとする。
【0103】
上記システムを動作させるためのシステムの構成を図47に示す。図47においては、図31のシステム構成に、さらに、視聴者がメガネを装着しているか否かを検出するメガネ装着検出部4701が付加されている。メガネ装着検出部4701では、メガネに装備されたカメラ画像等により、視聴者がメガネをはずしたか否かを取得されている画像で判断する。画像による判断方法としては、虹彩認証等で個人認証を行った後には、1秒程度の所定の間隔で静止画像を取得し、眼球または眼球周囲の画像が取得されている場合には、視聴者はメガネを装着し続けているものとする。逆に、眼球画像が取得できなかった場合には、視聴者がメガネをはずしたものと判断し、再び、個人の特定が必要な場合には、再度、虹彩認証等の個人特定の処理を行うものとする。これにより、視聴者は、メガネを装着している限りにおいては、最初に特定された個人であるとシステムが認識し続けるものであり、個人特定の処理を行う手間が省けるものである。この機能は、メガネ等の被験者が装着するデバイスによって個人を認証することで実現できるものである。
【0104】
上記変形例のテレビに導入されているシステムの動作のフローチャートを図48に示す。はじめに、テレビ側において、周囲に3Dメガネが通信到達可能範囲にあるか否かを探索する(S4801)。メガネは、電源が投入されると、常に通信待ち状態となり、周囲のテレビからメガネIDの要求があった場合には、それに対する応答を生成するものとしている。周囲に3Dメガネが検出されなかった場合には、このステップを繰り返し、メガネが検出されたときには、S4802へ進む。
【0105】
3Dメガネが検出された場合には、視聴者がメガネを装着しているか否かを判断する(S4802)。メガネを装着しているか否かは、メガネに画像センサが装着されている場合には、センサによって、眼球画像が取得されているか否かで判断する。
【0106】
なお、画像センサだけでなく、メガネが被験者の皮膚と接触する箇所に電極等が設置されていて、その電極のインピーダンスや電位等を計測することでメガネが装着されている状態にあるか否かを検出してもよい。
【0107】
視聴者がメガネを装着していなかった場合には、テレビの周囲に電源が投入された3Dメガネが置かれている状態であるため、視聴者がメガネを装着するまで本ステップを繰り返す。視聴者がメガネを装着したことが検出できた場合には、S4803へ進む。
【0108】
S4803では、メガネに装着されている画像センサによって虹彩画像を取得する。次に、虹彩画像のデータをメガネの送信部から送信し、テレビ側の受信部でデータを受信する。データを受信したら、取得した虹彩画像のデータが認証登録済の虹彩画像であるか否かを判断する(S4804)。既に登録済みの虹彩画像であった場合には、S4806へ進む。登録されていない虹彩画像の場合には、S4805へ進む。登録されていない虹彩画像であった場合には、新たなユーザの虹彩画像として登録を促す(S4805)。視聴者が登録を完了させた場合には、S4806へ進む。
【0109】
S4806では、登録されている虹彩画像とのマッチングの結果、現在、3Dテレビを視聴中のユーザとして登録し、次のステップへと進む。現在、視聴中のユーザが識別できた場合には、3D視聴時の眼球画像の履歴データとして蓄積を開始する(S4807)。次に、3Dの輻輳状態の検出等の個人に応じた特定の処理を実行する(S4808)。さらに、定期的に、メガネ状態検出部4801によって、視聴者がメガネを装着状態にあるか否かを確認する(S4809)。この確認方法は、S4802での確認方法と同様で、カメラの画像センサやメガネに装着された電極等で行うことが可能である。
【0110】
定期的にメガネの装着を確認し、メガネが装着された状態にある場合には、S4804に戻り、所定の生体情報データの処理を行うが、視聴者のメガネがはずされたことを検出した場合には、S4810へ進む。
【0111】
S4810では、メガネがはずされたため、一旦、生体情報の履歴蓄積は終了させ、S4811へ進み、メガネとの通信が切断されたか否かを判断する。メガネの電源が切られたり、テレビとメガネが通信できない場所まで、メガネが離れた場合には、S4810へ戻り、再度、テレビ周囲のメガネの検出から虹彩による個人認証を行う。
【0112】
以上のステップの動作によって、虹彩画像等により個人が特定された後に、メガネがはずされたか否かを検出し、メガネがはずされたときのみ、再度、個人認証を行うことで、利便性が高い認証システムを実現することが可能になる。
(実施の形態3)<メガネ(デバイス)の説明>
図35は実施の形態3における3次元専用メガネ20の構成図である。
図35に示した3次元専用メガネ20は図1に示した実施の形態1における3次元専用メガネ20の個人選択入力ボタン270が認証データ取得制御部610に置き換わり、光源620とカメラ630とか付け加わった以外は、図1に示した実施の形態1における3次元専用メガネ20と同様である。図1と同一部分には同一の記号を付し、適宜説明を省略する。
実施の形態3の3次元専用メガネ20は制御信号受信部210と、シャッタ制御部220と、生体信号センサ230と、信号生成部240と、送受信部250と、通信制御部260と、認証データ取得制御部610、カメラ630とを備える。
認証データ取得制御部610は、こめかみの静脈パタンを撮像して個人認証を行うための認証データの取得を制御する。
カメラ630は、認証データ取得制御部610の制御信号に基づきこめかみの静脈パタンを撮像する際に必要な光を提供する光源620と認証データ取得制御部610の制御信号に基づきこめかみの静脈パタンを撮像する。光源は近赤外光源であることが望ましく、カメラは赤外線領域が撮像可能なカメラであることが望ましい。
図36は実施の形態3における3次元専用メガネ20の一例である。メガネの内側の図については、左のつる部分を省略している。メガネの内側すなわち視聴者の顔面側にカメラ630と光源620とが設けられている。光源620はメガネのレンズフレームの顔の側面寄り下半分または、それに接触するメガネのツルの付け根部分に備える。カメラ630はメガネのレンズフレームの顔の側面寄り上半分または、それに接触するメガネのツルの付け根部分に備える。
図37は実施の形態3における3次元専用メガネ2011年7月8日で静脈パタンを撮像する際の光源620による照射範囲と、カメラ630による撮像範囲とを模式的に示した図である。
図37は視聴者の顔を右から見た図である。視聴者の目部分については点線で示してある。メガネのフレームは省略されている。眼窩上孔は眉の下、上まぶたの上にあるくぼみ部分を指す。光源620の照射範囲は目の外側すなわち目尻側よりの上まぶたから眼窩上孔にかけてであり、おおむね図中の斜線部である。カメラ630の照射範囲は、こめかみから額の外側で目尻の直上である。こめかみは目尻から耳の間の前方、すなわち目側から1/2程度の範囲を指すものとする。
静脈パタンによる認証は指の静脈や手のひらの静脈で知られている。金融機関や入出門管理等においては、手を近づけることは自然な動作である。しかし、家庭のテレビにおいては視聴ごと、コンテンツの変更操作ごと、あるいは課金等の操作ごとに認証の動作を行うのは煩わしい。3次元専用メガネ20であれば、視聴中は身に着けており、メガネに備えたセンサにより生体認証ができれば、認証のための特別な動作を行うことなく、自動的に認証データを取得、送信することができる。
静脈のパタンは顔面においても個人ごとに異なっている。そこで、本願では、顔面の静脈パタンにより個人認証を行う仕組みを開示する。
静脈パタンは近赤外光を目に照射し、近赤外光が目内部で乱反射した結果、目の表面を撮像するカメラには表面近くの静脈のみが影として撮像されることを利用している。静脈パタンを撮像するためには、近赤外線が目内の特に軟組織で乱反射することが重要である。骨の周辺に適当な体積の軟組織があること、光源からの直接光がカメラに入射しないで照射できること等が条件となる。発明者らは、図37に示すように眼窩上孔に顔面の下方向から眉の下上まぶたの目尻より位置と眉との間のくぼみに近赤外線を照射した際に、こめかみの静脈が撮像可能であることを発見した。この照射範囲を実現するための光源620の設置位置の一例として、上記のメガネのレンズフレームの顔の側面寄り下半分または、それに接触するメガネのツルの付け根部分があるが、図37に示した照射位置を実現する光源位置と方向であればこれに限らない。こめかみの静脈で図37に示した範囲を撮像するためのカメラ630の設置位置の一例として上記のメガネのレンズフレームの顔の側面寄り上半分または、それに接触するメガネのツルの付け根部分があるが、図37に示した撮像範囲を実現するカメラ位置であればこれに限らない。
なお、本実施の形態3において図36に示すとおり光源620とカメラ630とは顔面の右側用と左側用との2組を備えたが、右または左のどちらか一方に光源620とカメラ630とを備えても良い。
以上のようにこめかみの静脈パタンを撮像する光源位置とカメラ位置を定めて、光源とカメラを備えることで、3次元専用メガネ20で静脈パタンを撮像することができる。メガネ内部に備えた認証手段または、メガネから通信により認証画像を取得するテレビ等に備えた認証手段により、メガネをかけている個人の個人認証を行うことができる。これは実施の形態1と実施の形態1の第1の変形例、変形例2で、個人選択入力ボタンによって行っていた個人特定を自動で行うことに用いることができる。また、実施の形態2で虹彩認証によって行っていた個人認証の変わりに利用することもできる。
【産業上の利用可能性】
【0113】
本発明にかかる画像表示システムは、専用メガネを用いて立体映像を視聴する画像表示システムのうち特にテレビ、コンピュータの表示画面等で3次元映像を表示して個人が視聴する際に有用である。コンテンツ視聴のみでなく、画像診断装置や内視鏡等の医療機器の画像表示や、手術や乗り物のシミュレーション等ゲームや教育訓練用のシステム等の用途に応用できる。
【符号の説明】
【0114】
1 画像表示システム
10 3次元表示テレビ
20 3次元専用メガネ
30 入力インタフェース
100 映像提供者
110 コンテンツ情報蓄積部
120 ディスプレイ
130 画面制御部
140 制御信号送信部
150、260 通信制御部
160、250 送受信部
170 輻輳状態計算部
180、380、480 立体視能力計算部
190、390、590 視聴者データ管理部
200、300 奥行き調整量決定部
210 制御信号受信部
220 シャッタ制御部
230 生体信号センサ
240 信号生成部
270 個人選択入力ボタン
191、391、591 立体視能力データベース
192、392 管理部
193 眼球基礎データ生成部
194 個人特定部
195 表示画像生成部
381 奥行き情報計算部
382 立体視範囲計算部
385 標準奥行きデータ
386 奥行き情報抽出部
400 奥行き範囲選択部
410 ダウンロード制御部
481 立体視範囲変化予測部
510、630 カメラ
520 視聴制限データベース
594 虹彩認証部
595 認証データ生成部
610 認証データ取得制御部
620 光源
3801 位置別輻輳範囲蓄積部
4701 メガネ装着検出部

【特許請求の範囲】
【請求項1】
視聴者の左目に提示する画像と右目に提示する画像を交互に出力する画面を備える画像表示装置と、
前記画面に左目用画像が表示されるときに左目側のシャッタを透過状態にし、前記画面に右目用画像が表示されるときに右目側のシャッタを透過状態にする、前記視聴者の顔面または頭部に装着するメガネとを備える3次元画像表示システムにおいて、
前記画像表示装置とメガネとが双方向に通信する通信手段を備え、
前記メガネは、
前記視聴者の眼の状態を測定する生体信号測定手段と、
前記生体信号測定手段で測定された前記視聴者の眼の状態を通信信号に変換して前記 メガネから前記画像表示装置に送信する送信手段とを備え、
前記画像表示装置は、
前記メガネから前記画像表示装置に送信する通信信号を受信する受信手段と、
前記視聴者を特定する個人特定手段と、
前記受信手段で受信した前記メガネから送信された前記視聴者の眼の状態を用いて前記視聴者の眼球運動を測定する眼球運動測定手段と、
前記眼球運動測定手段で測定した前記視聴者の眼球運動を用いて視聴者の立体視能力を計算する立体視能力計算手段と、
前記立体視能力計算手段で計算された前記立体視能力を、前記個人特定手段で特定した視聴者ごとに記憶する立体視能力記憶手段と
前記立体視能力記憶手段に記憶された視聴者ごとの立体視能力に従って奥行き調整量を決定する奥行き調整量決定手段を前記画像表示装置に備えることを特徴とする画像表示システム。
【請求項2】
前記立体視能力記憶手段は、
表示奥行き情報と、立体視範囲情報との少なくともいずれか1つを含む視聴履歴を記憶し、
前記立体視能力計算手段は、前記立体視能力記憶手段で記憶されている前記視聴履歴から、前記視聴者の視聴ごとの前記立体視能力の変化を推定することを特徴とする請求項1記載の画像表示システム。
【請求項3】
前記立体視能力記憶手段は、前記視聴者ごとの視聴履歴として視聴コンテンツの分類情報を記憶し、
前記立体視能力計算手段は、コンテンツの分類ごとの奥行き範囲を用いて前記視聴者の立体視能力を推定することを特徴とする請求項1記載の画像表示システム。
【請求項4】
前記立体視能力計算手段は、前記画像表示装置で表示された所定の画像に対する、前記視聴者の眼球運動の輻輳量を用いて立体視能力を計算することを特徴とする請求項1記載の画像表示システム。
【請求項5】
前記立体視能力記憶手段は、前記画像表示装置で表示された連続コンテンツの奥行き量の変化の履歴の時系列情報と、表示された前記連続コンテンツに対する前記視聴者の輻輳量の変化の履歴の時系列情報とを蓄積し、
前記立体視能力計算手段は、前記立体視能力記憶手段で記憶されている前記履歴から、前記視聴者の立体視能力の時系列変化を推定することを特徴とする請求項4記載の画像表示システム。
【請求項6】
前記画像表示システムにおいて、さらに、
同一コンテンツに対して奥行き量が異なるコンテンツを蓄積するコンテンツ情報蓄積手段を有し、
前記奥行き調整量決定手段で決定された奥行き量から前記コンテンツ情報蓄積手段で蓄積されているコンテンツを、ネットワークを介して取得するコンテンツ取得手段を有し、
前記立体視能力計算手段で計算された前記視聴者の将来の立体視能力に基づき、事前にコンテンツ取得手段でコンテンツを取得することを特徴とする請求項5記載の画像表示システム。
【請求項7】
前記立体視能力計算手段は、前記視聴者の眼球画像から立体視能力を計算するものであり、
さらに、
前記眼球画像から前記視聴者の輻輳状態を計算する視聴者輻輳状態計算手段を有し、
前記画像表示装置で表示される画像位置から計算される奥行き量と、前記視聴者輻輳状態計算手段で計算された輻輳量から算出される奥行き量との差に基づいて、前記立体視能力が計算されることを特徴とする請求項1記載の画像表示システム。
【請求項8】
前記画像表示システムにおいて、さらに、
前記画像表示装置で表示される所定の画像は複数の位置で表示され、各位置での輻輳状態を蓄積する立体視能力を計算した結果を蓄積する位置別輻輳範囲蓄積手段を有し、
前記立体視能力計算手段では、複数の位置での輻輳範囲から前記視聴者の立体視能力を計算することを特徴とする請求項4記載の画像表示システム。
【請求項9】
前記位置別輻輳範囲蓄積手段で蓄積する輻輳範囲を計算する表示位置は、前記画像表示装置の水平方向に異なる位置で提示した目標物に対する輻輳範囲であることを特徴とする請求項8記載の画像表示システム。
【請求項10】
前記視聴者輻輳状態計算手段では、前記画像表示装置で垂直方向に異なる位置で提示された目標物に対する眼球画像を取得し、瞳孔の下部の画像が取得できる位置の垂直位置を用いて輻輳能力を測定することを特徴とする請求項9記載の画像表示システム。
【請求項11】
前記画像表示システムにおいて、前記個人特定手段が、前記メガネに装着されたカメラによる個人認証を行うことを特徴とする請求項1記載の画像表示システム。
【請求項12】
前記画像表示システムにおいて、
前記個人特定手段が、前記メガネに装着されたカメラによる個人認証を行い、
さらに、前記視聴者のメガネの装着の有無を検出するメガネ装着状態検出手段を有し、
前記メガネ装着状態検出手段で、メガネが装着されていると判断されたときに、前記個人特定手段で個人を特定し、その後、前記メガネ装着状態検出手段でメガネの装着が検出されなくなったときまでの期間に、
前記生体信号測定手段で測定された信号は、前記個人特定手段で特定された個人から得られた信号であるとすることを特徴とする請求項11記載の画像表示システム。
【請求項13】
前記画像表示システムにおいて、
前記個人特定手段では、前記視聴者の虹彩画像を取得することによって、個人を特定することを特徴とする請求項11記載の画像表示システム。
【請求項14】
前記画像表示システムにおいて、
前記個人特定手段では、前記視聴者の顔面の静脈の画像を取得することによって、個人を特定することを特徴とする請求項11記載の画像表示システム。
【請求項15】
前記画像表示システムにおいて、さらに、
前記画像表示装置は個人ごとの視聴制限情報を記憶する視聴制限記憶手段を有し、
前記視聴制限記憶手段に記憶された、前記個人特定手段で特定された個人に対応する前記視聴制限情報に従ってコンテンツの表示を制御する制御手段とを備える
ことを特徴とする請求項11に記載の画像表示システム。
【請求項16】
右目側シャッタ及び左目側シャッタの透過状態を制御するシャッタ制御部と、前記視聴者の眼の状態情報を計測するセンサとを有するメガネと双方向に通信する通信手段と、
前記視聴者を特定する個人特定手段と、
前記メガネから受信した前記視聴者の眼の状態情報を用いて前記視聴者の眼球運動を測定する眼球運動測定手段と、
前記眼球運動測定手段により測定した前記視聴者の眼球運動を用いて視聴者の立体視能力を計算する立体視能力計算手段と、
前記立体視能力計算手段で計算された前記立体視能力を、前記個人特定手段で特定した視聴者ごとに記憶する立体視能力記憶手段と
前記立体視能力記憶手段に記憶された視聴者ごとの立体視能力に従って奥行き調整量を決定する奥行き調整量決定手段と、
前記奥行き調整量決定手段により決定された奥行き調整量に基づいて、左目用画像と右目用画像の視差を調節し、視差を調整した右目用画像及び左目用画像を交互に出力する画像表示部とを備える3次元表示装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate

【図31】
image rotate

【図32】
image rotate

【図33】
image rotate

【図34】
image rotate

【図35】
image rotate

【図36】
image rotate

【図37】
image rotate

【図38】
image rotate

【図39】
image rotate

【図40】
image rotate

【図41】
image rotate

【図42】
image rotate

【図43】
image rotate

【図44】
image rotate

【図45】
image rotate

【図46】
image rotate

【図47】
image rotate

【図48】
image rotate


【公開番号】特開2013−55383(P2013−55383A)
【公開日】平成25年3月21日(2013.3.21)
【国際特許分類】
【出願番号】特願2011−190312(P2011−190312)
【出願日】平成23年9月1日(2011.9.1)
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.ZIGBEE
【出願人】(000005821)パナソニック株式会社 (73,050)
【Fターム(参考)】