説明

投影装置、投影方法及び投影プログラム

【課題】投影部と被投影体との間に物体が存在する場合でも、良好な視認性が得られるようにする。
【解決手段】被投影体に主映像を投影する投影部2と、投影部と被投影体との間に存在する物体を検出する物体検出部3と、物体検出部3により検出された物体には主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部4と、投影部を制御する制御部5とを設けるようにした。こうすることで、投影部と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、投影装置、投影方法及び投影プログラムに関し、例えば、スクリーンや壁などの被投影体に映像を投影するプロジェクタに適用して好適なものである。
【背景技術】
【0002】
従来、スクリーンや壁などの被投影体に映像を投影する投影装置としてプロジェクタが広く知られている(例えば特許文献1参照)。プロジェクタは、別途被投影体が必要となるが、小型で大画面を実現できることから、様々な分野で利用されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2005−338379公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、例えば、ユーザが、プロジェクタによってスクリーンに投影されている映像の任意の箇所を指し示そうとして、スクリーンの投影面上に手を置いたとする。すると、プロジェクタによってスクリーンに投影されている映像の一部が、この手の上に投影されることになる。
【0005】
このとき、手の表面が凹凸を有していることから、手の上に投影されている部分の映像(例えば指の上に投影されている部分の映像)が見難くなる。一方で、このときスクリーンと手とに境界なく映像が投影されることから、映像と手を区別し難い。
【0006】
このように、従来のプロジェクタでは、プロジェクタとスクリーンの投影面との間に手などの物体が存在する場合に、投影する映像及び物体に対する視認性が低下するという問題があった。
【0007】
本発明は以上の点を考慮してなされたもので、投影部と被投影体との間に物体が存在する場合でも、良好な視認性が得られる投影装置、投影方法及び投影プログラムを提案しようとするものである。
【課題を解決するための手段】
【0008】
かかる課題を解決するため本発明においては、被投影体に主映像を投影する投影部と、投影部と被投影体との間に存在する物体を検出する物体検出部と、物体検出部により検出された物体には主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部と、投影部を制御する制御部とを設けるようにした。
【0009】
こうすることで、投影部と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。
【発明の効果】
【0010】
本発明によれば、投影部と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。かくして、投影部と被投影体との間に物体が存在する場合でも、良好な視認性が得られる投影装置、投影方法及び投影プログラムを実現することができる。
【図面の簡単な説明】
【0011】
【図1】実施の形態の概要となる投影装置の機能構成を示すブロック図である。
【図2】映像投影システムの構成を示す略線図である。
【図3】プロジェクタ装置の構成を示すブロック図である。
【図4】デスクトップ画面の構成を示す略線図である。
【図5】投影面上に手が存在するときのデスクトップ画面の投影の説明にともなう略線図である。
【図6】ワープロ画面の構成を示す略線図である。
【図7】ワープロ画面に対する操作入力例(1)の説明にともなう略線図である。
【図8】ワープロ画面に対する操作入力例(2)の説明にともなう略線図である。
【図9】文字の表示の制御の説明にともなう略線図である。
【図10】ペイント画面の構成を示す略線図である。
【図11】ペイント画面に対する操作入力例(1)の説明にともなう略線図である。
【図12】ペイント画面に対する操作入力例(2)の説明にともなう略線図である。
【図13】Webブラウザ画面の構成を示す略線図である。
【図14】Webブラウザ画面に対する操作入力例(1)の説明にともなう略線図である。
【図15】Webブラウザ画面に対する操作入力例(2)の説明にともなう略線図である。
【図16】Webブラウザ画面に対する操作入力例(3)の説明にともなう略線図である。
【図17】Webブラウザ画面に対する操作入力例(4)の説明にともなう略線図である。
【図18】投影処理手順を示すフローチャートである。
【図19】第2の実施の形態における操作入力例(1)の説明にともなう略線図である。
【図20】第2の実施の形態における操作入力例(2)の説明にともなう略線図である。
【図21】変形例における操作入力例(1)の説明にともなう略線図である。
【図22】変形例における操作入力例(2)の説明にともなう略線図である。
【図23】変形例における操作入力例(3)の説明にともなう略線図である。
【発明を実施するための形態】
【0012】
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態の概要
2.第1の実施の形態
3.第2の実施の形態
4.変形例
【0013】
<1.実施の形態の概要>
まず、実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例である、第1の実施の形態、第2の実施の形態、変形例の説明に移る。
【0014】
図1において1は、投影装置を示す。この投影装置1には、スクリーンなどの被投影体に主映像を投影する投影部2が設けられている。またこの投影装置1には、投影部2と被投影体との間に存在する物体を検出する物体検出部3が設けられている。さらにこの投影装置1には、物体検出部3により検出された物体には主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部4と、投影部2を制御する制御部5とが設けられている。
【0015】
このような構成により、投影装置1は、投影部2と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部2と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。
【0016】
具体的に、映像処理部4は、物体検出部3により検出された物体には主映像がそのまま投影されないよう、例えば、主映像から、検出された物体に投影される部分を切り取る処理を行う。そして制御部5は、物体に投影される部分が切り取られた主映像を被投影体に投影するよう投影部2を制御する。
【0017】
また映像処理部4が、物体検出部3により検出された物体には主映像がそのまま投影されないよう、例えば、主映像の検出された物体に投影される部分を、他の部分よりも薄い色合いにする処理を行うようにしてもよい。このとき制御部5は、物体に投影される部分が他の部分よりも薄い色合いの主映像を被投影体に投影するよう投影部を制御する。
【0018】
また物体検出部3は、例えば、被投影体を撮像して得られる映像と、被投影体に投影する主映像とを比較することで、投影部2と被投影体との間に存在する物体を検出する。
【0019】
さらに物体検出部3が、例えば、被投影体を撮像して得られる映像を解析することで、投影部2と被投影体との間に存在する物体を検出するようにしてもよい。
【0020】
さらに制御部5が、物体検出部3により検出された物体に、主映像とは異なる副映像を投影するよう投影部2を制御するようにしてもよい。
【0021】
さらに物体検出部3が、投影部2と被投影体との間に存在する物体として、ユーザの手を検出するようにしてもよい。さらにこのとき制御部5が、物体検出部3により検出された手の甲に、副映像を投影するよう投影部を制御するようにしてもよい。
【0022】
さらに物体検出部3が、投影部2と被投影体との間に存在するユーザの手の動きを検出し、制御部5が、物体検出部3により検出された手の動きに応じて、各種処理を実行するようにしてもよい。
【0023】
具体的に、制御部5は、例えば、所定画面の映像を主映像として被投影体に投影するよう投影部2を制御し、物体検出部3により、所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する処理を実行する。
【0024】
さらにこのとき制御部5が、物体検出部3により、所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する映像を副映像として、当該手の甲に投影するよう投影部を制御するようにしてもよい。
【0025】
さらに制御部5が、物体検出部3により、手の甲に投影されている副映像をもう一方の手で操作するような手の動きが検出されると、当該副映像の操作に対応する処理を実行するようにしてもよい。
【0026】
さらに制御部5が、所定画面の映像を主映像として被投影体に投影するよう投影部2を制御し、物体検出部3により、所定画面に配置されているオブジェクトを選択するような手の動きが検出され、さらに当該オブジェクトを選択している手に対してもう一方の手で所定のジェスチャ操作を行うような手の動きが検出されると、当該オブジェクトに対して当該ジェスチャ操作に対応する処理を実行するようにしてもよい。
【0027】
このような構成でなる投影装置1の具体例について、以下、詳しく説明する。
【0028】
<2.第1の実施の形態>
[2−1.映像投影システムの構成]
次に、本実施の形態の具体例について説明する。まず図2を用いて、映像投影システム100の構成について説明する。この映像投影システム100は、上述した投影装置1の具体例であるプロジェクタ装置101と、被投影体の具体例であるスクリーン102とで構成されている。
【0029】
さらにこの映像投影システム100のプロジェクタ装置101は、パーソナルコンピュータ構成の本体部103と、当該本体部103にケーブル接続され、当該本体部103により制御されるプロジェクタ部104とで構成されている。
【0030】
この映像投影システム100は、例えば机上に平らなスクリーン102が載置され、このスクリーン102の上方に、プロジェクタ装置100のプロジェクタ部104が投影レンズ104Aを下向きにして設置される。尚、机をスクリーン102の代わりに利用するなどしてもよい。
【0031】
そして、この映像投影システム100では、スクリーン102の上方に設置されたプロジェクタ部104の投影レンズ104Aから、下方のスクリーン102の投影面102A上に映像が投影されることで、このスクリーン102に映像が表示されるようになっている。
【0032】
またプロジェクタ装置101のプロジェクタ部104には、投影レンズ104Aの近傍に投影レンズ104Aと同じ向きの撮像レンズ104Bが設けられている。プロジェクタ装置101は、この撮像レンズ104Bを介してスクリーン102の投影面102Aを撮像する。
【0033】
そしてプロジェクタ装置101は、投影レンズ104Aからスクリーン102の投影面102Aに投影している映像と、撮像レンズ104Bを介してスクリーン102の投影面102Aを撮像して得られた投影面102Aの映像との差分を取る。
【0034】
この差分をもとに、プロジェクタ装置101は、スクリーン102の投影面102A上にスクリーン102とは別の物体(例えばユーザの指)が存在する場合に、この物体を投影面102Aとは区別して検出できるようになっている。
【0035】
さらにプロジェクタ装置101は、このようにして物体を検出すると、スクリーン102に投影している映像の一部がそのままこの物体上に投影されないよう、投影する映像に対して映像処理を行う。尚、この映像処理について詳しくは後述する。
【0036】
[2−2.プロジェクタ装置の構成]
次に、図3を用いて、プロジェクタ装置101の構成について詳しく説明する。プロジェクタ装置101は、上述したように、本体部103とプロジェクタ部104とで構成されている。
【0037】
本体部103には、CPU110と、不揮発性メモリ111と、RAM112と、映像処理部113と、外部接続I/F114と、ネットワークI/F115とが設けられている。一方、プロジェクタ部104には、投影レンズ104A、液晶パネル及びランプ(共に図示せず)などからなる投影部116と、撮像レンズ104B及び撮像素子(図示せず)などからなる撮像部117と、外部接続I/F118とが設けられている。
【0038】
そして本体部103の外部接続I/F114と、プロジェクタ部104の外部接続I/F118とが、所定のケーブルを介して接続されている。
【0039】
また本体部103は、ネットワークI/F115を介して外部のネットワーク(例えばインターネット)NTに接続されている。
【0040】
このプロジェクタ装置101は、本体部103のCPU110が、不揮発性メモリ111に記憶されている各種プログラムをRAM112にロードして、このプログラムを実行することで全体を制御するようになっている。
【0041】
実際、CPU110は、まずOS(Operating System)のデスクトップ画面の映像を投影するよう、各部を制御する。
【0042】
具体的に、映像処理部113は、CPU110の制御のもと、デスクトップ画面の映像となる映像信号を生成する。この映像信号は、映像処理部113から、本体部103の外部接続I/F114とプロジェクタ部104の外部接続I/F118とを経由して、プロジェクタ部104の投影部116に送られる。
【0043】
投影部116は、この映像信号に基づく映像(すなわちデスクトップ画面の映像)を生成し、これを投影レンズ104Aにより拡大してスクリーン102に投影する。
【0044】
この結果、スクリーン102に、図4に示すデスクトップ画面200が表示される。
【0045】
さらにこのとき、プロジェクタ部104の撮像部117は、CPU110の制御のもと、スクリーン102の投影面102Aを撮像する。撮像部117は、撮像結果として投影面102の映像を得、これを映像信号に変換する。この映像信号は、撮像部117から、プロジェクタ部104の外部接続I/F118と本体部103の外部接続I/F114とを経由して、本体部103の映像処理部113に送られる。
【0046】
映像処理部113は、送られてきた映像信号(すなわち投影面102Aを撮像して得られた映像信号)と、投影面102Aに投影している映像信号との差分を取り、この結果をCPU110に送る。
【0047】
CPU110は、この比較結果をもとに、スクリーン102の投影面102A上にスクリーン102とは別の物体が存在するかどうかを判別すると共に、物体が存在すると判別したときには、投影面102A上に存在する物体の領域を検出する。
【0048】
実際、ユーザがスクリーン102の投影面102A上に手を置いているとする。このときCPU110は、投影面102Aに投影している映像と、投影面102Aを撮像して得られた映像との差分をもとに、この手の領域を検出することができる。
【0049】
さらにCPU110は、撮像部117からこの手までの距離と、撮像部117から投影面102Aまでの距離とを測定するように撮像部117を制御する。
【0050】
具体的に撮像部117は、被写体までの距離を測定できる測距センサを有し、この測距センサにより、手までの距離と、投影面102Aまでの距離とを測定する。
【0051】
そしてCPU110は、撮像部117により測定された、撮像部117から手までの距離と、撮像部117から投影面102Aまでの距離との差分を取ることで、投影面102Aから手までの距離を算出する。
【0052】
さらにCPU110は、手の領域の検出と投影面102Aから手までの距離の算出とを所定時間ごとに行うことで、投影面102A上での手の動きを3次元的に検出することができ、例えば、投影面102Aに対するタッチ(触る)、タップ(触って離す)、ドラッグ(なぞる)、フリック(払う)などのジェスチャ操作を検出することもできる。
【0053】
尚、投影面102Aから手までの距離を高精度に測定することは難しいので、ここでは、CPU110が、投影面102Aから手までの距離が所定値未満である場合に、投影面102Aに手がタッチされていると判断するようになっている。
【0054】
このようにして物体(ここでは手とする)を検出すると、CPU110は、図5(A)に示すように、投影しているデスクトップ画面200の映像から手の上に投影される部分を切り取った映像Pi1を生成するよう映像処理部113を制御する。
【0055】
具体的に、映像処理部113は、手の輪郭を抽出し、投影しているデスクトップ画面200の映像から、手の輪郭の内側となる部分の映像を切り取る。
【0056】
そしてCPU110は、このようにして生成した映像(すなわち手の上に表示されている部分を切り抜いたデスクトップ画面200の映像)Pi1を、投影部116からスクリーン102に投影させる。
【0057】
すると、図5(B)に示すように、手の上には何も表示されないようにして、デスクトップ画像200の映像がスクリーン102の投影面102Aに表示される。
【0058】
このように、プロジェクタ装置101は、投影面102A上に手が存在する場合に、この手の上にはデスクトップ画面200の映像を投影しないようになっている。
【0059】
こうすることで、プロジェクタ装置101は、凹凸を有する手の上にデスクトップ画面200の映像の一部分が投影されてこの一部分が見づらくなってしまうことを防ぐことができると共に、手と容易に区別できる状態でデスクトップ画面200の映像を投影することができる。
【0060】
さらにこうすることで、プロジェクタ装置101は、あたかもデスクトップ画面200上に手を置いているかのような感覚をユーザに与えることができる。
【0061】
さらにこのプロジェクタ装置101では、投影されているデスクトップ画面200にタッチするような感覚で、デスクトップ画面200に対する各種操作入力を行うことができるようになっている。
【0062】
ここで、デスクトップ画面200には、図4に示すように、各種アプリケーションに対応するアイコン200Aが複数配置されるようになっている。
【0063】
このようなデスクトップ画面200が投影されている状態で、ユーザが、所望のアイコン200Aを指先で2回タッチするようなジェスチャ操作を投影面102A上で行ったとする。このとき、CPU110は、このようなジェスチャ操作が行われた旨を、検出した手の動きから認識する。
【0064】
そしてCPU110は、このようなジェスチャ操作を、アイコン200Aに対応するアプリケーションを起動する操作として受け付け、このアプリケーションのプログラムを不揮発性メモリ111から読み出して実行することで、アプリケーションを起動する。
【0065】
ここで、映像処理部113は、CPU110の制御のもと、アプリケーション画面の映像となる映像信号を生成する。そしてこの映像信号が、映像処理部113から、本体部103の外部接続I/F114とプロジェクタ部104の外部接続I/F118とを経由して、プロジェクタ部104の投影部116に送られる。
【0066】
投影部116は、この映像信号に基づく映像(すなわちアプリケーション画面の映像)を生成し、これを投影レンズ104Aにより拡大してスクリーン102に投影する。
【0067】
この結果、スクリーン102にアプリケーション画面が表示される。
【0068】
プロジェクタ装置101では、このアプリケーション画面に対しても、デスクトップ画面200と同様、直接触るような感覚で、各種操作入力を行うことができるようになっている。
【0069】
以下、アプリケーション画面に対する操作入力について、アプリケーションごとに詳しく説明する。
【0070】
尚、ここでは、ワープロソフト、ペイントソフト、Webブラウザがアプリケーションとしてプロジェクタ装置101にインストールされているとする。
【0071】
因みに、実施の形態の概要で説明した投影装置1の投影部2に対応するのが上述したプロジェクタ装置101の投影部116である。また投影装置1の物体検出部3に対応するのがプロジェクタ装置101のCPU110及び撮像部117である。さらに投影装置1の映像処理部4に対応するのがプロジェクタ装置101の映像処理部113である。さらに投影装置1の制御部5に対応するのがプロジェクタ装置101のCPU110である。
【0072】
[2−3.アプリケーション画面に対する操作入力]
[2−3−1.ワープロ画面での操作入力]
まず、ワープロソフトのアプリケーション画面(ワープロ画面とも呼ぶ)に対する操作入力について説明する。
【0073】
プロジェクタ装置101は、ワープロソフトを起動すると、図6に示すような、ワープロ画面201の映像をスクリーン102の投影面102Aに投影する。
【0074】
このワープロ画面201は、入力された文字が表示されるテキスト表示領域201Aと、複数のキー画像kpで構成されるソフトウェアキーボードSkが表示されるキーボード表示領域201Bとで構成されている。
【0075】
このようなワープロ画面201を投影する場合も、プロジェクタ装置101は、投影面102A上に存在する手の上にはワープロ画面201の映像を投影しないようになっている。
【0076】
これにより、プロジェクタ装置101は、投影面102A上に手を置いたときに、あたかもワープロ画面201上に手を置いているかのような感覚をユーザに与えることができる。
【0077】
このワープロ画面201では、キーボード表示領域201Bに表示されているソフトウェアキーボードSkを利用して文字入力を行うようになっている。
【0078】
実際、図7に示すように、ユーザが、例えば文字「F」を入力しようと、この文字「F」に対応するキー画像kp(F)を右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。この場合も、手の上にはワープロ画面201は表示されない。ゆえに、ユーザから見れば、タッチしている指先によってキー画像kp(F)の一部が隠れているように見える。
【0079】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置と各キー画像kpの配置とをもとに、右手の人差し指によってキー画像kp(F)がタッチされたと認識する。
【0080】
ここでCPU110は、投影面102A上に存在する手の表面で比較的平坦な部分となる手の甲に、人差し指でタッチされたキー画像kp(F)を表示するように、映像処理部113及び投影部116を制御する。
【0081】
具体的に、映像処理部113は、キー画像kp(F)と、手の輪郭の内側となる部分を切り抜いたワープロ画面201の映像とを、手の輪郭の内側の手の甲となる部分にキー画像kp(F)が位置するよう合成して合成映像を生成する。そしてこの合成映像が、投影部116によって、スクリーン102に投影される。
【0082】
尚、映像処理部113は、手の領域の形状(すなわち手の輪郭)をもとに、手の領域の内側で甲となる部分を推定するようになっている。
【0083】
この結果、投影面102A上に存在する手の外側に、ワープロ画面201の映像が表示されると共に、投影面102A上に存在する手の甲にキー画像kp(F)が表示される。
【0084】
こうすることで、プロジェクタ装置101は、キー画像kpを直接タッチするような感覚をユーザに与えつつ、現在どのキー画像kpをタッチしているのか(すなわち指先で隠れているキー画像kpはどれか)をユーザに容易に認識させることができる。
【0085】
そしてプロジェクタ装置101は、この手の甲の部分に表示させたキー画像kp(F)が、もう一方の手の指先でタッチされると、入力文字を確定するようになっている。
【0086】
実際、図8に示すように、ユーザが、右手でソフトウェアキーボードSkのキー画像kp(F)をタッチしたまま、この右手の甲に表示されているキー画像kp(F)を左手の人差し指の指先でタッチしたとする。
【0087】
このときプロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の甲の位置と、左手の人差し指の指先の位置とを特定する。そしてCPU110は、これらの位置をもとに、右手の甲に表示されているキー画像kp(F)が左手でタッチされたと認識する。
【0088】
ここでCPU110は、入力文字をキー画像kp(F)に対応する文字「F」に確定すると共に、この文字「F」を、ワープロ画面201の文字表示領域201A内に表示するように、映像処理部113及び投影部116を制御する。
【0089】
この結果、図9に示すように、投影面102Aに投影されているワープロ画面201の文字表示領域201A内に文字「F」が表示される。
【0090】
こうすることでプロジェクタ装置101では、タッチパネルのような操作感覚で、且つ確実に文字入力を行うことができる。
【0091】
ここまで説明したように、プロジェクタ装置101は、ワープロソフト起動時、スクリーン102に投影されたワープロ画面201のソフトウェアキーボードSkを直接タッチするような操作感覚で、確実に文字入力を行うことができるようになっている。
【0092】
[2−3−2.ペイント画面での操作入力]
次に、ペイントソフトのアプリケーション画面(ペイント画面とも呼ぶ)に対する操作入力について説明する。
【0093】
プロジェクタ装置101は、ペイントソフトを起動すると、図10に示すような、ペイント画面202の映像をスクリーン102の投影面102Aに投影する。
【0094】
このペイント画面202は、自由に線を描くことのできるキャンバス領域202Aと、線の色を指定する為のカラーパレット202Bとで構成されている。カラーパレット202Bは、各色に対応する複数のカラーボックスCbで構成される。
【0095】
このようなペイント画面202を投影する場合も、プロジェクタ装置101は、投影面102A上に置かれた手の上にはペイント画面202の映像を投影しないようになっている。
【0096】
このペイント画面202では、カラーパレット202Bから線の色を選択した後、キャンバス領域202A内をドラッグするようにして線を描くようになっている。
【0097】
実際、図11に示すように、ユーザが、例えば赤色を選択しようと、カラーパレット202B内の赤色に対応するカラーボックスCb(R)を右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。
【0098】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置と各カラーボックスCbの配置とをもとに、右手の人差し指によってカラーボックスCb(R)がタッチされたと認識する。
【0099】
ここでCPU110は、線の色を赤色に決定すると共に、投影面102A上に存在する手の甲に、人差し指でタッチされたカラーボックスCb(R)を表示するように、映像処理部113及び投影部116を制御する。
【0100】
具体的に、映像処理部113は、カラーボックスCb(R)と、手の輪郭の内側となる部分を切り抜いたペイント画面202の映像とを、手の輪郭の内側の手の甲となる部分にカラーボックスCb(R)が位置するよう合成して合成映像を生成する。そしてこの合成映像が、投影部116によって、スクリーン102に投影される。
【0101】
この結果、投影面102A上に存在する手の外側に、ペイント画面202の映像が表示され、投影面102A上に存在する手の甲にカラーボックスCb(R)が表示される。
【0102】
こうすることで、プロジェクタ装置101は、カラーボックスCbを直接タッチするような感覚をユーザに与えつつ、現在どの色が選択されているのかをユーザに容易に認識させることができる。
【0103】
尚、CPU110は、継続的に投影面102A上に存在する手の領域を検出していくことで、例えば、投影面102A上で手が移動しても、手の甲にカラーボックスCb(R)を表示させ続けるようになっている。
【0104】
またこのペイント画面202では、再度、別の色のカラーボックスCbをタッチすることで、選択する色を変更することができるようにもなっている。
【0105】
その後、図12に示すように、ユーザが、カラーボックスCb(R)が表示されている右手の人差し指の指先で、キャンバス領域202A内をドラッグするようなジェスチャ操作を、投影面102A上で行ったとする。
【0106】
このときプロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置をもとに、右手の人差し指の指先でキャンバス領域202A内がドラッグされていると認識する。
【0107】
ここでCPU110は、キャンバス領域202A内に、ドラッグの軌跡に沿って現在選択されている色で線を描くように、映像処理部113及び投影部116を制御する。
【0108】
この結果、投影面102A上に投影されているペイント画面202のキャンバス領域202A内に、ドラッグの軌跡に沿って現在選択されている色で線が描かれる。
【0109】
ここまで説明したように、プロジェクタ装置101は、ペイントソフト起動時、スクリーン102に投影されたペイント画面202のキャンバス領域202A内を直接ドラッグするような操作感覚で、絵を描くことができるようになっている。
【0110】
[2−3−3.Webブラウザ画面での操作入力]
次に、Webブラウザのアプリケーション画面(Webブラウザ画面とも呼ぶ)に対する操作入力について説明する。
【0111】
プロジェクタ装置101は、Webブラウザを起動すると、図13に示すような、Webブラウザ画面203の映像をスクリーン102の投影面102Aに投影する。
【0112】
このWebブラウザ画面203は、各種メニュー、ボタン、アドレス入力欄、検索キーワード入力欄などが配置されたツールバー203Aと、Webページのページ画像が表示されるページ表示領域203Bとで構成されている。
【0113】
このようなWebブラウザ画面203を投影する場合も、プロジェクタ装置101は、投影面102A上に置かれた手の上にはWebブラウザ画面203の映像を投影しないようになっている。
【0114】
このWebブラウザでは、ツールバー203Aの各種メニュー、ボタンをタッチすることで、各種メニュー、ボタンに応じた処理が実行されるようになっている。
【0115】
実際、ユーザが、例えばホームページに設定されているWebページを閲覧しようと、ツールバー203A内のホームページボタンを右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。
【0116】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、ホームページボタンが右手の人差し指の指先でタッチされたと認識する。
【0117】
ここでCPU110は、ネットワークI/F115を介して、ホームページに設定されているWebページのアドレスにアクセスして、このWebページのページデータを受信する。
【0118】
そしてCPU110は、このページデータに基づくページ画像を、Webブラウザ画面203のページ表示領域203B内に表示するように、映像処理部113及び投影部116を制御する。
【0119】
この結果、Webブラウザ画面203のページ表示領域203B内に、ホームページのページ画像が表示される。
【0120】
ここで、図14に示すように、ユーザが、ページ表示領域203B内に表示されているページ画像内のハイパーリンクHLを右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。
【0121】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、ページ画像内のハイパーリンクHLが右手の人差し指の指先でタッチされたと認識する。
【0122】
するとCPU110は、ネットワークI/F115を介して、ハイパーリンクHLが示すリンク先にアクセスして、このリンク先からページデータを受信する。
【0123】
そしてCPU110は、このページデータに基づくページ画像(これをリンク先ページ画像とも呼ぶ)を手の甲に収まるよう縮小して、ハイパーリンクHLをタッチしている手の甲に投影するように、映像処理部113及び投影部116を制御する。
【0124】
この結果、ハイパーリンクHLをタッチしている手の甲に、縮小されたリンク先ページ画像(これを縮小リンク先ページ画像とも呼ぶ)Spが表示される。
【0125】
こうすることで、プロジェクタ装置101は、ページ表示領域203Bの表示内容をリンク先ページ画像に切り換える前に、リンク先のWebページがどのようなページなのかをユーザに確認させることができる。
【0126】
そしてプロジェクタ装置101は、この手の甲の部分に表示させた縮小リンク先ページ画像Spが、もう一方の手の指先でタッチされると、ページ表示領域203Bの表示内容を、リンク先ページ画像に切り換えるようになっている。
【0127】
具体的に、ユーザが、右手でハイパーリンクHLをタッチしたまま、右手の甲に表示されている縮小リンク先ページ画像Spを左手の人差し指の指先でタッチするように、左手の人差し指の指先を右手の甲の上に乗せたとする。
【0128】
このときプロジェクタ装置101のCPU110は、検出した手の領域と動きから、右手の甲に表示されている縮小リンク先ページ画像Spが左手でタッチされたと認識する。
【0129】
するとCPU110は、リンク先ページ画像を、ページ表示領域203B内に表示するように、映像処理部113及び投影部116を制御する。この結果、ページ表示領域203B内に、リンク先ページ画像が表示される。
【0130】
このように、Webブラウザ画面203では、リンク先のWebページがどのようなページなのかをユーザに確認させてから、そのWebページをページ表示領域203Bに表示できるようになっている。
【0131】
こうすることで、プロジェクタ装置101は、より確実にユーザが所望するWebページをユーザに閲覧させることができる。
【0132】
さらにこのWebブラウザ画面203では、ページ表示領域203Bに表示されているページ画像内のテキスト上をドラッグすることで、テキストの所望部分をコピーできるようにもなっている。
【0133】
実際、図15に示すように、ユーザが、ページ画像内のテキストの所望部分を右手の人差し指の指先でドラッグするようなジェスチャ操作を、投影面102A上で行ったとする。
【0134】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、テキストの所望部分が右手の人差し指の指先でドラッグされたと認識する。
【0135】
するとCPU110は、ドラッグされた所望部分を囲うコピー範囲を示す枠Frをページ画像上に表示するように映像処理部113及び投影部116を制御する。この結果、ページ画像上に、この枠Frが表示される。
【0136】
またこのときCPU110は、ドラッグしている右手の甲に、枠Frで囲われた部分のテキストを投影するように映像処理部113及び投影部116を制御する。この結果、ドラッグしている右手の甲に、枠Frで囲われた部分のテキストが表示される。
【0137】
こうすることで、プロジェクタ装置101は、テキスト上を直接ドラッグするような感覚をユーザに与えつつ、ドラッグにより現在テキストのどの部分がコピー範囲になっているのかをユーザに容易に認識させることができる。
【0138】
その後、ユーザが、ドラッグしている指先を投影面102Aから離すことで、ドラッグを終了したとする。
【0139】
このときCPU110は、検出した手の動きから、ドラッグが終了したと認識する。
【0140】
するとCPU110は、このとき右手の甲に表示されている部分(すなわち枠Frで囲われている部分)をコピーする部分に決定して、この部分のテキストをクリップボードにコピーする。このようにして、テキストの所望部分がコピーされる。
【0141】
ここで、CPU110は、テキストの所望部分をクリップボードにコピーした後も、後述する貼り付け操作が行われるまでは、この所望部分が右手の甲に表示され続けるように映像処理部113及び投影部116を制御するようになっている。
【0142】
こうすることで、プロジェクタ装置101は、現在どのような情報がクリップボードにコピーされているのかをユーザに容易に認識させることができる。
【0143】
また一方で、このWebブラウザ画面203では、ページ表示領域203Bに表示されているページ画像内の所望の画像を所定時間タッチし続けることで、この画像をコピーできるようにもなっている。
【0144】
実際、図16に示すように、ユーザが、ページ画像内の所望の画像Piを右手の人差し指の指先で所定時間タッチし続けるようなジェスチャ操作を、投影面102A上で行ったとする。
【0145】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、画像Piが右手の人差し指の指先で所定時間タッチされ続けたと認識する。
【0146】
するとCPU110は、この画像Piをタッチしている右手の甲に、この画像Piを投影するように映像処理部113及び投影部116を制御する。この結果、画像Piをタッチしている右手の甲に、この画像Piが表示される。
【0147】
またこれと共にCPU110は、この画像Piをクリップボードにコピーする。このようにして、所望の画像Piがコピーされる。
【0148】
ここで、CPU110は、所望の画像Piをクリップボードにコピーした後も、後述する貼り付け操作が行われるまでは、この画像Piが右手の甲に表示され続けるように映像処理部113及び投影部116を制御するようになっている。
【0149】
こうすることで、プロジェクタ装置101は、画像を直接タッチするような感覚で画像をコピーすることができ、さらに現在クリップボードにコピーしている画像をユーザに容易に認識させることができる。
【0150】
さらにこのWebブラウザ画面203では、一方の手で、他方の手の甲に表示されている情報(すなわちクリップボードにコピーされているテキスト又は画像)を他方の手の指先にドラッグすることで、この情報を他方の手の指先で指し示している位置に貼り付けることができるようにもなっている。
【0151】
実際、図17に示すように、ユーザが、右手の甲にテキストが表示されている状態で、ツールバー203Aの検索キーワード入力欄を、右手の人差し指の指先で指し示しているとする。そのうえでユーザが、左手の人差し指の指先で、右手の甲に表示されているテキストを右手の人差し指の指先にドラッグしたとする。
【0152】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、右手の甲に表示されているテキストが、左手の人差し指の指先で、右手の人差し指の指先にドラッグされたと認識する。
【0153】
するとCPU110は、右手の人差し指の指先で指し示されている検索キーワード入力欄に、右手の甲に表示されているテキスト(すなわちクリップボードにコピーされているテキスト)を表示するように映像処理部113及び投影部116を制御する。この結果、クリップボードにコピーされているテキストが、検索キーワード入力欄に表示される。このようにして、クリップボードにコピーされている情報が貼り付けられる。
【0154】
こうすることで、プロジェクタ装置101は、クリップボードにコピーされている情報を直感的な操作で所望の位置に貼り付けることができる。
【0155】
[2−4.処理手順]
次に、スクリーン102の投影面102A上に映像を投影するときに、プロジェクタ装置101により実行される処理の手順(これを投影処理手順とも呼ぶ)の概要について、図18に示すフローチャートを用いて説明する。
【0156】
尚、図18に示す投影処理手順RTは、プロジェクタ装置101のCPU110が、不揮発性メモリ111に格納されているプログラムにしたがって実行する処理の手順である。
【0157】
CPU110は、例えば、プロジェクタ装置101の電源がオンされると、この投影処理手順RTを開始して、ステップSP1に移る。ステップSP1においてCPU110は、映像処理部113及び投影部116を制御して、スクリーン102の投影面102Aに、投影面102Aに表示すべき各種画面の映像(これを主映像とも呼ぶ)を投影し、次のステップSP2に移る。
【0158】
ステップSP2においてCPU110は、投影部116から投影面102Aに投影している主映像と、撮像部117で投影面102A上を撮像した映像とを比較することで、撮像部117の視野内(すなわち投影面102A上)に、手などの物体が存在するか否かを判断する。
【0159】
このステップSP2で否定結果を得ると、このことは、投影面102A上に何も存在していないことを意味する。このときCPU110は、そのまま投影面102Aに主映像を投影させ続け、再びステップSP1に戻る。
【0160】
これに対して、ステップSP2で肯定結果を得ると、このことは、投影面102A上に手などの物体が存在することを意味する。このときCPU110は、ステップSP3に移る。
【0161】
ステップSP3においてCPU110は、物体の領域を検出して、次のステップSP4に移る。CPU110は、検出した物体の領域外に主映像が表示されるように、検出した物体の領域内となる部分を切り抜いた主映像を、投影面102に投影させて、次のステップSP5に移る。
【0162】
ステップSP5においてCPU110は、検出した物体の領域内に、主映像とは異なる映像(これを副映像とも呼ぶ)を投影するか否かを判断する。
【0163】
このステップSP5で否定結果を得ると、このときCPU110は、再びステップSP1に戻る。
【0164】
これに対してこのステップSP5で肯定結果を得ると、このことは、例えば、ソフトウェアキーボードSkを構成するキー画像kpが手でタッチされたことにより、CPU110が、この手の甲にキー画像kpを投影すると判断したことを意味する。このときCPU110は、ステップSP6に移る。
【0165】
ステップSP6においてCPU110は、撮像部117から、プロジェクタ部104から物体までの距離と、プロジェクタ部104から投影面102Aまでの距離とを得、これらをもとに、手と投影面102Aとの中間の位置にピントを合わせるよう投影部116を制御する。
【0166】
こうすることで、プロジェクタ装置101は、プロジェクタ部104からの距離が異なる物体と投影面102Aとの両方に、良好な画質で映像を投影することができる。
【0167】
その後、CPU110は、次のステップSP7に移り、検出した物体の領域内で平坦な部分(例えば手の甲)に、副映像が表示されるように、主映像と副映像とを合成した映像を投影面102に投影させて、再びステップSP1に戻る。
【0168】
このような投影処理手順RTにしたがって、プロジェクタ装置101は、スクリーン102の投影面102A上に映像を投影するようになっている。
【0169】
[2−5.第1の実施の形態の動作及び効果]
以上の構成において、プロジェクタ装置101は、スクリーン102の投影面102Aに投影するデスクトップ画面200などの映像(主映像)と、スクリーン102の投影面102Aを撮像して得られる映像とを比較することで、投影面102A上にユーザの手が存在するか否かを判別する。
【0170】
ここで、ユーザの手が存在すると判別した場合、プロジェクタ装置101は、手の上には主映像が投影されないよう、手の領域内に投影される部分を切り取った主映像を、投影面102Aに投影する。
【0171】
この結果、手の領域を除くように、スクリーン102の投影面102Aに主映像が表示される。
【0172】
こうすることで、プロジェクタ装置101は、凹凸を有する手の領域内に主映像の一部分が投影されて、この一部分が見づらくなることを防ぐことができると共に、手と容易に区別できる状態で主映像をスクリーン102に投影することができる。
【0173】
さらにプロジェクタ装置101は、必要に応じて、投影面102A上に存在する手の領域内で比較的平坦な部分となる手の甲に、主映像とは異なる映像(副映像)を投影する。
【0174】
このように、プロジェクタ装置101は、手の甲の部分を、スクリーン102の投影面102Aとは別の表示領域として利用することで、主映像と副映像とを同時に且つ明確に切り分けてユーザに視認させるようなことができる。
【0175】
以上の構成によれば、プロジェクタ装置101は、投影面102A上に存在する手の上に主映像が表示されてしまうことを防止して、投影面102A上に存在する手と容易に区別できるようにして主映像を投影面102Aに投影することができる。かくして、プロジェクタ装置101は、投影面102A上に手が存在する場合でも、良好な視認性を得ることができる。
【0176】
<3.第2の実施の形態>
次に、第2の実施の形態について説明する。この第2の実施の形態では、デスクトップ画面200に配置されているアイコン200Aがタッチされると、このアイコン200Aのコンテキストメニューを、タッチしている手の甲に表示するようになっている。
【0177】
コンテキストメニューは、オプションメニュー、ショートカットメニューなどとも呼ばれ、「コピー」、「削除」、「アプリケーションの起動」など、アイコンに対して実行可能な処理の名称をリスト表示し、所望の処理を選択・実行できるようにしたメニューである。
【0178】
尚、この第2の実施の形態の映像投影システムの構成については、第1の実施の形態と同様であるので、第1の実施の形態を参照とする。ゆえに、ここでは、デスクトップ画面200に対する操作入力についてのみ説明する。
【0179】
まず、第1の実施の形態と同様、スクリーン102の投影面102Aに、各種アプリケーションに対応するアイコン200Aが複数配置されたデスクトップ画面200が投影されているとする。
【0180】
ここで、図19に示すように、ユーザが、所望のアイコン200Aを右手の人差し指の指先でタッチするようなジェスチャ操作を投影面102A上で行ったとする。この場合も、第1の実施の形態と同様、手の上にはデスクトップ画面200は表示されない。
【0181】
このとき、CPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置と各アイコン200Aの配置とをもとに、右手の人差し指によって任意のアイコン200Aがタッチされたと認識する。
【0182】
ここでCPU110は、アイコン200Aをタッチしている右手の甲に、タッチされているアイコン200AのコンテキストメニューCmの映像を投影するように、映像処理部113及び投影部116を制御する。
【0183】
具体的に、映像処理部113は、コンテキストメニューCmの映像と、手の輪郭の内側となる部分を切り取ったデスクトップ画面200の映像とを、手の甲となる部分にコンテキストメニューCmの映像が位置するよう合成して合成映像を生成する。そしてこの合成映像が、投影部116によって、スクリーン102に投影される。
【0184】
この結果、投影面102A上に存在する手の外側に、デスクトップ画面200の映像が表示されると共に、投影面102A上に存在する手の甲にコンテキストメニューCmの映像が表示される。
【0185】
このコンテキストメニューCmは、複数行のリストで構成され、タッチされたアイコン200Aに対して実行可能な処理の名称(「コピー」、「削除」、「アプリケーションの起動」など)が項目Cmiとして、各行に中央揃えで表示されるようになっている。
【0186】
そしてプロジェクタ装置101は、図20に示すように、手の甲に表示されているコンテキストメニューCmの行の1つが、もう一方の手の指先でタッチされると、タッチされた行の項目Cmiに対応する処理を実行するようになっている。
【0187】
具体的に、ユーザが、右手でアイコン200Aをタッチしたまま、この右手の甲に表示させているコンテキストメニューCmの行の1つを、左手の人差し指の指先でタッチしたとする。
【0188】
このときプロジェクタ装置101のCPU110は、検出した手の領域の形状と動きから、右手の甲に表示させているコンテキストメニューCmの行の1つが左手でタッチされたと認識する。するとCPU110は、タッチされた行の項目Cmiに対応する処理を実行する。
【0189】
このように、プロジェクタ装置101は、手の甲の部分を、スクリーン102の投影面102Aとは別の表示領域、すなわちコンテキストメニューCmを表示する表示領域として利用することで、デスクトップ画面200とコンテキストメニューCmとを同時に且つ明確に切り分けた状態でユーザに視認させることができる。
【0190】
<4.変形例>
[4−1.変形例1]
尚、上述した第1の実施の形態では、Webブラウザ画面203のページ表示領域203Bに表示されている画像が所定時間タッチされ続けることに応じて、この画像をクリップボードにコピーするようにした。
【0191】
これに限らず、例えば、図21に示すように、右手の指先で画像をタッチしている状態で、左手の指先で右手の甲に「C」の文字を描くジェスチャ操作が行われることに応じて、この画像をクリップボードにコピーするようにしてもよい。
【0192】
実際、ユーザが、ページ表示領域203Bに表示されている所望の画像を右手の人差し指の指先でタッチしている状態で、左手の人差し指の指先で右手の甲に「C」の文字を描くジェスチャ操作を行ったとする。
【0193】
このとき、プロジェクタ装置101のCPU110は、検出した手の領域の形状と動きから、画像をタッチしている右手の甲に、左手の人差し指の指先で「C」の文字が描かれたと認識する。
【0194】
するとCPU110は、画像をタッチしている右手の甲に、この画像を表示するように映像処理部113及び投影部116を制御する。この結果、画像をタッチしている右手の甲に、この画像が表示される。
【0195】
またこれと共にCPU110は、この画像をクリップボードにコピーする。このようにして、所望の画像がコピーされる。
【0196】
また画像に限らず、例えば、デスクトップ画面200に配置されているアイコン200Aが一方の手でタッチしている状態で、他方の手で一方の手の甲に「C」の文字を描くジェスチャ操作が行われることに応じて、このアイコン200Aをコピーするなどしてもよい。
【0197】
またここでは、コピーに対応する操作を、手の甲に「C」の文字を描くジェスチャ操作としたが、コピーを容易に想到させるような操作であれば、この他種々の操作でもよい。
【0198】
[4−2.変形例2]
また上述した第2の実施の形態では、アイコン200Aがタッチされると、タッチしている手の甲に、各行に中央揃えで項目Cmiが表示されるコンテキストメニューCmを投影するようにした。
【0199】
ここで、アイコン200Aをタッチしている手が右手か左手かに応じて、コンテキストメニューCmの各行に表示される項目Cmiを、ユーザから見て右寄り、又は左寄りに表示させるようにしてもよい。
【0200】
具体的に、CPU110は、検出した手の領域の形状から、アイコン200Aをタッチしている手が右手か左手かを特定する。そしてCPU110は、アイコン200Aをタッチしている手が右手であれば、図22に示すように、各行に右端揃えで項目Cmiが表示されるコンテキストメニューCmを、この右手の甲に投影させる。
【0201】
こうすることで、プロジェクタ装置101では、右手の甲に投影されているコンテキストメニューCmの行の1つを、左手の指先でタッチしようとしたときに、指先と項目Cmiが重なって項目Cmiが見づらくなることを防止できる。
【0202】
一方で、アイコン200Aをタッチしている手が左手であれば、プロジェクタ装置101のCPU110は、各行に左端揃えで項目Cmiが表示されるコンテキストメニューCmを、この左手の甲に投影させる。
【0203】
こうすることで、プロジェクタ装置101では、左手の甲に表示されているコンテキストメニューCmの行の1つを、右手の指先でタッチしようとしたときに、指先と項目Cmiが重なって項目Cmiが見づらくなることを防止できる。
【0204】
[4−3.変形例3]
さらに上述した第2の実施の形態では、デスクトップ画面200に配置されているアイコン200Aがタッチされると、このアイコン200AのコンテキストメニューCmを、タッチした手の甲に投影するようにした。
【0205】
これに限らず、図23に示すように、例えば、アイコン200Aがタッチされることに応じて、このアイコン200Aを、タッチした手の甲に投影するようにしてもよい。このときアイコン200Aだけでなく、アイコン200Aの名称も手の甲に投影するようにする。
【0206】
実際、デスクトップ画面200Aには、各アイコン200Aの直下に、アイコン200Aの名称が表示されるようになっている。この名称は、デスクトップ画面200Aのレイアウトにもよるが、表示可能な文字数が決まっている。
【0207】
ゆえに、アイコン200Aの名称が、この表示可能な文字数を超えている場合、超えている部分が省略された状態で表示されることになる。
【0208】
そこで、通常、デスクトップ画面200上で各アイコン200A及び名称に割り当てられている領域よりも大きな領域となる手の甲にアイコン200A及び名称を表示させるときには、名称全体を表示させるようにする。
【0209】
このようにすれば、容易に、所望のアイコン200Aの名称全体をユーザに確認させることができる。
【0210】
さらにこのようにして手の甲に表示させているアイコン200Aが、もう一方の手でタッチされることに応じて、このアイコン200Aに対応するアプリケーションを起動するようにしてもよい。
【0211】
尚、アイコン200A及び名称の手の甲への表示、及びアプリケーションの起動は、第1及び第2の実施の形態と同様、プロジェクタ装置101のCPU110の制御により実行される。
【0212】
[4−4.変形例4]
さらに上述した第2の実施の形態では、アイコン200Aがタッチされると、タッチしている手の甲に、アイコン200Aに対して実行可能な処理の名称がリスト表示されるコンテキストメニューCmを投影するようにした。
【0213】
これに限らず、アイコン200Aがタッチされることに応じて、アイコン200Aに関係するこの他種々のサブ情報を、アイコン200Aをタッチしている手の甲に表示させるようにしてもよい。
【0214】
例えば、デスクトップ画面200に、楽曲の再生曲順を示すプレイリストに対応するアイコンが配置されているとする。ここで、このアイコンがタッチされると、CPU110は、タッチしている手の甲に、このアイコンに対応するプレイリストを投影する。
【0215】
そして手の甲に投影しているプレイリストに記されている楽曲名の1つが、もう一方の手の指先でタッチされると、CPU110は、この楽曲名に対応する楽曲データを、例えば、不揮発性メモリ111から読み出して再生する。この結果得られる音声は、例えば、図示しない出力端子を介して出力される。
【0216】
[4−5.変形例5]
さらに上述した第1及び第2の実施の形態では、投影面102A上に手などの物体が存在する場合に、この物体の領域内には、デスクトップ画面200やワープロ画面201などの主映像を投影しないようにした。
【0217】
これに限らず、物体の領域内には、例えば、物体の領域外よりも薄い色合いで主映像を投影するようにしてもよい。
【0218】
このようにすると、半透明の物体が画面上に置かれているような感覚をユーザに与えることができる。
【0219】
またこれに限らず、物体の領域内には、例えば、物体の領域外よりも低い解像度で主映像を投影するなどしてもよい。
【0220】
このように、物体の領域内には、物体の領域外と比べて目立たないように映像処理された主映像を投影するようにしてもよい。
【0221】
[4−6.変形例6]
さらに上述した第1及び第2の実施の形態では、投影面102A上に存在する手を検出して、この手の上に副映像を投影するようにした。
【0222】
これに限らず、例えば、投影面102A上にプラスチックなどの素材でなる板を置くようにして、この板の上にガジェットなどの副映像を投影するなどしてもよい。
【0223】
この場合も、プロジェクタ装置101のCPU110は、手の場合と同様の方法で、この板を検出ことができる。
【0224】
[4−7.変形例7]
さらに上述した第1及び第2の実施の形態では、種々のタッチ操作により、アプリケーション画面に配置された各種オブジェクト(アイコン、ソフトウェアキーボード、カラーパレット、ハイパーリンクなど)に対する操作入力を行うようにした。これに限らず、タッチ操作とは異なる操作で、各種操作入力を行うようにしてもよい。
【0225】
具体的には、例えば、ユーザの指先が、デスクトップ画面200に配置されている所望のアイコン200A上に所定時間位置し続けたら、CPU110が、アイコン200Aを選択決定する操作が行われたと認識するようにしてもよい。
【0226】
また例えば、ユーザの指先が、ワープロ画面201のソフトウェアキーボードSkの任意のキー画像kp上に移動した時点で、CPU110が、このキー画像kp上に位置する手の甲にキー画像kpを投影するようにしてもよい。
【0227】
このようにすれば、手とスクリーン102の投影面102Aとの距離を算出しなくとも、アプリケーション画面に対する操作入力を実現でき、結果として、CPU110の処理負荷を低減することもできる。
【0228】
[4−8.変形例8]
さらに上述した実施の形態では、スクリーン102の投影面102Aに投影している映像と、投影面102Aを撮像して得られた映像とを比較することで、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の領域を検出するようにした。
【0229】
これに限らず、この他種々の方法で、投影面102A上に手などの物体が存在するかどうかを判別したり、存在する物体の領域を検出したりしてもよい。
【0230】
例えば、既存の映像解析技術を利用して、投影面102Aを撮像して得られた映像を解析することで、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の領域を検出するようにしてもよい。
【0231】
さらに例えば、プロジェクタ部104の投影面102Aと対向する面に、複数の測距用赤外線センサをアレイ状に設けるようにして、これら複数の赤外線センサの検出結果をもとに、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の領域を検出するようにしてもよい。
【0232】
このようなアレイ状に配置された赤外線センサを利用することで、プロジェクタ部104から手までの距離と、プロジェクタ部104から投影面102Aまでの距離とを検出することができ、さらにこれらの距離と、手の平均的な厚さとをもとに、手と投影面102Aとの距離を算出するようなこともできる。
【0233】
またこのようなアレイ状に配置された赤外線センサを利用することで、手の表面で比較手平坦な部分となる手の甲を一段と正確に検出することもできる。
【0234】
尚、このような手の甲の検出についても、このような方法に限定するものではなく、この他種々の方法で検出するようにしてもよい。
【0235】
さらに例えば、プロジェクタ部104の投影面102Aと対応する面に、2つのカメラで構成されるステレオカメラを設け、このステレオカメラで投影面102Aを撮像して得られた映像を解析することにで、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の形状を検出するようにしてもよい。
【0236】
このようなステレオカメラを利用すれば、プロジェクタ部104から手までの距離と、プロジェクタ部104から投影面102Aまでの距離とを検出することができ、さらにこれらの距離と、手の平均的な厚さとをもとに、手と投影面102Aとの距離を算出することができる。
【0237】
[4−9.変形例9]
さらに上述した第1及び第2の実施の形態では、本体部103とプロジェクタ部104とがケーブル接続されてなるセパレート型のプロジェクタ装置101に本発明を適用するようにした。
【0238】
これに限らず、例えば、プロジェクタ部104に本体部103の機能を内蔵させた一体型のプロジェクタ装置101に本発明を適用するようにしてもよい。
【0239】
さらに上述した第1及び第2の実施の形態では、スクリーン102を机上に載置して、このスクリーン102に対して、スクリーン102の上方から映像を投影するタイプのプロジェクタ装置101に本発明を適用するようにした。
【0240】
これに限らず、例えば、スクリーン102を壁に設置して、このスクリーン102に対して、スクリーン102の前方から映像を投影するタイプのプロジェクタ装置101に本発明を適用するようにしてもよい。
【0241】
この場合、プロジェクタ装置101のCPU110は、スクリーン102の投影面102Aの前方に物体が存在するかどうかを検出することになる。
【0242】
またこのようなタイプのプロジェクタ装置に限らず、この他種々のタイプのプロジェクタ装置に本発明を適用するようにしてもよい。
【0243】
さらに上述した第1及び第2の実施の形態では、1つの投影部116により、主映像と副映像との2つの映像を投影するようにした。
【0244】
これに限らず、例えば、投影部を2つ設けるようにして、一方の投影部で、主映像を投影し、他方の投影部で副映像を投影するようにしてもよい。
【0245】
[4−10.他の実施の形態10]
さらに上述した第1及び第2の実施の形態では、投影装置としてのプロジェクタ装置101に、投影部としての投影部116と、物体検出部としての撮像部117と、映像処理部としての映像処理部113と、物体検出部及び制御部としてのCPU110とを設けるようにした。
【0246】
本発明はこれに限らず、同様の機能を有するのであれば、上述したプロジェクタ装置101の各機能部(投影部、物体検出部、映像処理部、制御部)を、他の種々の構成で実現するようにしてもよい。
【0247】
[4−11.他の実施の形態11]
さらに上述した第1及び第2の実施の形態では、各種処理を実行するためのプログラムを、本体部103の不揮発性メモリ111に書き込んでおくようにした。
【0248】
これに限らず、例えば、本体部103に光ディスクやメモリカードといった記憶媒体のドライブを設け、CPU110が、ドライブを介して記憶媒体からプログラムを読み出して実行するようにしてもよい。またCPU110が、この記憶媒体から読み出したプログラムを、不揮発性メモリ111にインストールするようにしてもよい。さらにCPU110が、このプログラムを、ネットワークI/F1135介して、ネットワーク上の機器からダウンロードして、不揮発性メモリ111にインストールするなどしてもよい。
【0249】
[4−12.他の実施の形態12]
さらに、本発明は、上述した第1及び第2の実施の形態と変形例とに限定されるものではない。すなわち本発明は、上述した第1及び第2の実施の形態と変形例の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
【産業上の利用可能性】
【0250】
本発明は、スクリーンに映像を投影するプロジェクタなどで広く利用することができる。
【符号の説明】
【0251】
1……投影装置、2……投影部、3……物体検出部、4……映像処理部、5……制御部、100……映像投影システム、101……プロジェクタ装置、102……スクリーン、102A……投影面、110……CPU、113……映像処理部、116……投影部、117……撮像部。

【特許請求の範囲】
【請求項1】
被投影体に主映像を投影する投影部と、
上記投影部と上記被投影体との間に存在する物体を検出する物体検出部と、
上記物体検出部により検出された物体には上記主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部と、
上記投影部を制御する制御部と
を具える投影装置。
【請求項2】
上記映像処理部は、
上記主映像から、上記物体検出部により検出された物体に投影される部分を切り取る処理を行い、
上記制御部は、
上記物体に投影される部分が切り取られた上記主映像を上記被投影体に投影するよう上記投影部を制御する
請求項1に記載の投影装置。
【請求項3】
上記映像処理部は、
上記主映像の上記物体検出部により検出された物体に投影される部分を、他の部分よりも薄い色合いにする処理を行い、
上記制御部は、
上記物体に投影される部分が他の部分よりも薄い色合いの上記主映像を上記被投影体に投影するよう上記投影部を制御する
請求項1に記載の投影装置。
【請求項4】
上記物体検出部は、
上記被投影体を撮像して得られる映像と、上記被投影体に投影する主映像とを比較することで、上記投影部と上記被投影体との間に存在する物体を検出する
請求項2に記載の投影装置。
【請求項5】
上記物体検出部は、
上記被投影体を撮像して得られる映像を解析することで、上記投影部と上記被投影体との間に存在する物体を検出する
請求項2に記載の投影装置。
【請求項6】
上記制御部は、
上記物体検出部により検出された物体に、上記主映像とは異なる副映像を投影するよう上記投影部を制御する
請求項4に記載の投影装置。
【請求項7】
上記物体検出部は、
上記投影部と上記被投影体との間に存在する物体として、ユーザの手を検出する
請求項6に記載の投影装置。
【請求項8】
上記制御部は、
上記物体検出部により検出された手の甲に、上記副映像を投影するよう上記投影部を制御する
請求項7に記載の投影装置。
【請求項9】
上記物体検出部は、
上記投影部と上記被投影体との間に存在するユーザの手の動きを検出し、
上記制御部は、
上記物体検出部により検出された手の動きに応じて、各種処理を実行する
請求項8に記載の投影装置。
【請求項10】
上記制御部は、
所定画面の映像を主映像として上記被投影体に投影するよう上記投影部を制御し、
上記物体検出部により、上記所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する処理を実行する
請求項9に記載の投影装置。
【請求項11】
上記制御部は、
上記物体検出部により、上記所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する映像を副映像として、当該手の甲に投影するよう上記投影部を制御する
請求項10に記載の投影装置。
【請求項12】
上記制御部は、
上記物体検出部により、上記手の甲に投影されている副映像を、もう一方の手で操作するような手の動きが検出されると、当該副映像の操作に対応する処理を実行する
請求項11に記載の投影装置。
【請求項13】
上記制御部は、
所定画面の映像を主映像として上記被投影体に投影するよう上記投影部を制御し、
上記物体検出部により、上記所定画面に配置されているオブジェクトを選択するような手の動きが検出され、さらに当該オブジェクトを選択している手に対して、もう一方の手で所定のジェスチャ操作を行うような手の動きが検出されると、当該オブジェクトに対して当該ジェスチャ操作に対応する処理を実行する
請求項9に記載の投影装置。
【請求項14】
制御部が、投影部を制御して被投影体に主映像を投影する投影ステップと、
物体検出部が、上記投影部と上記被投影体との間に存在する物体を検出する検出ステップと、
映像処理部が、上記検出ステップで検出された物体には上記主映像がそのまま投影されないよう、当該主映像に対する処理を行う処理ステップと
を具える投影方法。
【請求項15】
投影装置に対し、
制御部が、投影部を制御して被投影体に主映像を投影する投影ステップと、
物体検出部が、上記投影部と上記被投影体との間に存在する物体を検出する検出ステップと、
映像処理部が、上記検出ステップで検出された物体には上記主映像がそのまま投影されないよう、当該主映像に対する処理を行う処理ステップと
を実行させるための投影プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate


【公開番号】特開2012−208439(P2012−208439A)
【公開日】平成24年10月25日(2012.10.25)
【国際特許分類】
【出願番号】特願2011−75998(P2011−75998)
【出願日】平成23年3月30日(2011.3.30)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】