説明

ビデオコミュニケーションシステム、方法およびプログラム

【課題】映像重畳装置のユーザとモバイル端末のユーザとが位置、方向感を共有することを可能にする。
【解決手段】モバイル端末2の座標・ポインタ管理部24は、ユーザの視線の移動量またはユーザがポインティングした位置のポインタ情報を計算する。映像重畳装置1の映像合成部12は、視線の移動量またはポインタ情報を取得したときに、モバイル端末2から送信された撮影映像を表示する領域の形状が視線の移動量またはポインタ情報に応じて変化するように、モバイル端末2から送信された撮影映像を合成して表示部11に表示させる。モバイル端末2の映像合成部22は、映像重畳装置1の表示部11の位置にモバイル端末2のユーザが立っていると仮定したときにユーザから見える映像が表示されるように、映像重畳装置1から送信された映像を合成して表示部21に表示させる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、カメラで撮影した撮影映像と他地点の撮影映像とを重ね合わせて表示することにより遠隔地点間での同期コミュニケーションを円滑にするビデオコミュニケーションシステムに係り、特にユーザを取り囲むようにディスプレイを配置して構成された映像重畳装置とモバイル端末とを接続する技術に関するものである。
【背景技術】
【0002】
遠隔地間で同期的なコミュニケーションを行うようなビデオ共有面によるビデオコミュニケーションシステムが知られている(非特許文献1,2参照)。非特許文献1,2に開示されたシステムは、図10のように、ユーザ100−Aを含む地点Aの映像をビデオカメラ101−Aで撮影し、撮影した映像からディスプレイ102−Aに表示されている表示映像を除去し、表示映像を除去した地点Aの映像を地点Bに送って、地点Bのディスプレイ102−Bに表示させるシステムである。このときのディスプレイの面をビデオ共有面と呼ぶ。同様に、ユーザ100−Bを含む地点Bの映像をビデオカメラ101−Bで撮影し、撮影した映像からディスプレイ102−Bに表示されている表示映像を除去し、表示映像を除去した地点Bの映像を地点Aに送って、地点Aのディスプレイ102−Aに表示させる。
【0003】
非特許文献1,2に開示されたシステムによれば、ビデオ共有面の表面付近では遠隔地間でオブジェクトの位置関係が共有されるため、ポインティングなどの身体的ジェスチャも、同じ地点で対面しているときと同じような感覚で利用することができる。
さらに、非特許文献1,2に開示されたシステムでは、ユーザの回りを上記のビデオ共有面で囲むようにして空間を構成することで、システム内にいる遠隔地のユーザ同士が位置、距離感、方向感などを共有することができる。
【先行技術文献】
【非特許文献】
【0004】
【非特許文献1】梶克彦,平田圭二,原田康徳,「t-Roomの仮想共有面と過去再生機能を用いたアプリケーションについて」,7th Forum on Information Technology (FIT2008),第4分冊,RM-005,pp.51-54,IPSJ/IEICE-ISS,2008
【非特許文献2】梶克彦,平田圭二,「社会的インタラクションのコンテンツ化のためのアーキテクチャ」,社団法人情報処理学会,グループウェアとネットワークサービスワークショップ2007(GNWS2007) 予稿集,pp.119-124,2007
【発明の概要】
【発明が解決しようとする課題】
【0005】
非特許文献1,2に開示されたシステムでは、複数地点のユーザ同士が空間を共有するために各地点に等身大のディスプレイを複数個並べる構成となっているため、装置が大きくコストがかかり、個人でこのようなシステムを利用することが難しいという問題点があった。
【0006】
本発明は、上記課題を解決するためになされたもので、ユーザを取り囲むようにディスプレイを配置して構成された映像重畳装置とモバイル端末とを接続したときに、映像重畳装置のユーザとモバイル端末のユーザとが位置、距離感、方向感などを共有することを可能にし、モバイル端末のユーザがビデオコミュニケーションシステムを利用することを可能にすることを目的とする。
【課題を解決するための手段】
【0007】
本発明のビデオコミュニケーションシステムは、ユーザを取り囲むように表示手段を配置して構成された映像重畳装置と、この映像重畳装置とネットワークを介して接続されたモバイル端末とを備え、前記映像重畳装置は、映像を表示可能な第1の表示手段と、カメラを用いて映像を撮影する第1の撮影手段と、この第1の撮影手段によって撮影された撮影映像を前記モバイル端末に送信する第1の送信手段と、前記第1の撮影手段によって撮影された撮影映像と前記モバイル端末から送信された撮影映像とを合成して前記第1の表示手段に表示させ、前記モバイル端末から視線の移動量またはポインタ情報を取得したときは、前記モバイル端末から送信された撮影映像を表示する領域の形状が前記視線の移動量またはポインタ情報に応じて変化するように、前記モバイル端末から送信された撮影映像を合成して前記第1の表示手段に表示させる第1の映像合成手段とを有し、前記モバイル端末は、映像を表示可能な第2の表示手段と、カメラを用いて映像を撮影する第2の撮影手段と、この第2の撮影手段によって撮影された撮影映像を前記映像重畳装置に送信する第2の送信手段と、前記モバイル端末のユーザの指示に応じてユーザの視線の移動量またはユーザがポインティングした位置の座標を示すポインタ情報を計算し、視線の移動量の情報またはポインタ情報を前記映像重畳装置に送信する管理手段と、前記映像重畳装置の第1の表示手段の位置にモバイル端末のユーザが立っていると仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記第2の表示手段に表示させ、前記管理手段から視線の移動量の情報を取得したときは、この移動量の分だけモバイル端末のユーザが視線を移動させたと仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記第2の表示手段に表示させる第2の映像合成手段とを有することを特徴とするものである。
【0008】
また、本発明は、ユーザを取り囲むように表示手段を配置して構成された映像重畳装置と、この映像重畳装置とネットワークを介して接続されたモバイル端末とを用いて遠隔地点間での同期コミュニケーションを実現するビデオコミュニケーション方法であって、前記映像重畳装置の第1の撮影手段が、カメラを用いて映像を撮影する第1の撮影ステップと、前記映像重畳装置の第1の送信手段が、前記第1の撮影手段によって撮影された撮影映像を前記モバイル端末に送信する第1の送信ステップと、前記モバイル端末の第2の撮影手段が、カメラを用いて映像を撮影する第2の撮影ステップと、前記モバイル端末の第2の送信手段が、前記第2の撮影手段によって撮影された撮影映像を前記映像重畳装置に送信する第2の送信ステップと、前記映像重畳装置の第1の映像合成手段が、前記第1の撮影手段によって撮影された撮影映像と前記モバイル端末から送信された撮影映像とを合成して前記映像重畳装置の第1の表示手段に表示させる第1の映像表示ステップと、前記モバイル端末の第2の映像合成手段が、前記映像重畳装置の第1の表示手段の位置にモバイル端末のユーザが立っていると仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記モバイル端末の第2の表示手段に表示させる第2の映像表示ステップと、前記モバイル端末の管理手段が、前記モバイル端末のユーザの指示に応じてユーザの視線の移動量またはユーザがポインティングした位置の座標を示すポインタ情報を計算し、視線の移動量の情報またはポインタ情報を前記映像重畳装置に送信する計算ステップと、前記映像重畳装置の第1の映像合成手段が、前記モバイル端末から視線の移動量の情報またはポインタ情報を取得したときに、前記モバイル端末から送信された撮影映像を表示する領域の形状が前記視線の移動量またはポインタ情報に応じて変化するように、前記モバイル端末から送信された撮影映像を合成して前記映像重畳装置の第1の表示手段に表示させる第1の映像変更表示ステップと、前記モバイル端末の第2の映像合成手段が、前記視線の移動量の情報を取得したときに、この移動量の分だけモバイル端末のユーザが視線を移動させたと仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記モバイル端末の第2の表示手段に表示させる第2の映像変更表示ステップとを備えることを特徴とするものである。
また、本発明のビデオコミュニケーションプログラムは、ビデオコミュニケーション方法の各ステップをコンピュータに実行させることを特徴とするものである。
【発明の効果】
【0009】
本発明によれば、映像重畳装置のユーザとモバイル端末のユーザとが位置、距離感、方向感などを共有することができる。その結果、本発明では、大型の装置を導入することが難しいモバイル端末のユーザが、ビデオコミュニケーションシステムを利用することができ、映像重畳装置のユーザと位置、距離感、方向感などを共有して、コミュニケーションを行うことができる。
【図面の簡単な説明】
【0010】
【図1】本発明の実施の形態に係るビデオコミュニケーションシステムの構成を示すブロック図である。
【図2】本発明の実施の形態に係るビデオコミュニケーションシステムにおいて映像重畳装置の表示部に表示される映像の1例を示す図である。
【図3】本発明の実施の形態に係るビデオコミュニケーションシステムにおいてモバイル端末の表示部に表示される映像の1例を示す図である。
【図4】本発明の実施の形態に係るビデオコミュニケーションシステムにおいてモバイル端末の表示部に表示される映像の他の例を示す図である。
【図5】本発明の実施の形態に係るビデオコミュニケーションシステムにおいてモバイル端末のユーザが視線の移動を指示したときにモバイル端末の表示部に表示される映像の1例を示す図である。
【図6】本発明の実施の形態に係るビデオコミュニケーションシステムにおいてモバイル端末のユーザが視線の移動を指示したときに映像重畳装置の表示部に表示される映像の1例を示す図である。
【図7】本発明の実施の形態に係るビデオコミュニケーションシステムにおいて映像重畳装置の表示部の直径を説明するための図である。
【図8】本発明の実施の形態に係るビデオコミュニケーションシステムにおいてモバイル端末のユーザが視線の移動を指示したときの映像重畳装置の表示部における映像の表示領域の算出方法を説明するための図である。
【図9】本発明の実施の形態に係るビデオコミュニケーションシステムにおいてモバイル端末のユーザがポインティングを行ったときに映像重畳装置の表示部に表示される映像の1例を示す図である。
【図10】従来のビデオコミュニケーションシステムを説明するための図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の実施の形態に係るビデオコミュニケーションシステムの構成を示すブロック図である。
ビデオコミュニケーションシステムは、ある地点S1に設置された映像重畳装置1と、別の地点S2にいるユーザが利用するモバイル端末2とをネットワーク3を介して接続したものである。
【0012】
映像重畳装置1は、非特許文献1,2に開示されたシステムと同様の構成を有する。表示部11は、ユーザの周りを取り囲むように配置された複数台の大型のディスプレイから構成される。
撮影部13は、複数台のカメラから構成される。表示部11の各ディスプレイの映像を取得できる位置にそれぞれカメラが設置されているものとする。撮影部13は、撮影した映像を映像合成部12に出力する。また、撮影部13は、撮影した映像をネットワーク3を介して他地点に送信する送信部(不図示)を備えている。
【0013】
映像合成部12は、ネットワーク3を介して遠隔地から取得した映像と撮影部13で撮影された映像とを合成した合成映像を表示部11に表示させる。以下の説明では、映像重畳装置1のユーザをU1とする。
【0014】
モバイル端末2は、液晶ディスプレイ等の表示部21と映像合成部22とUSBカメラ等の撮影部23とキーボードやマウス等の入力部25とを備えるノートパソコンなどのモバイル機器である。モバイル端末2を利用するユーザをU2とする。表示部21は、1台のディスプレイで構成される。
【0015】
撮影部23は、表示部21の周辺に設けられ、ユーザU2の上半身を撮影する。撮影部23は、撮影した映像を映像合成部22に出力する。また、撮影部23は、撮影した映像をネットワーク3を介して他地点に送信する送信部(不図示)を備えている。
映像合成部22は、ネットワーク3を介して映像重畳装置1から取得した映像と撮影部23で撮影された映像とを合成した合成映像を表示部21に表示させる。
【0016】
以下では、1台の映像重畳装置1と1台のモバイル端末2とを接続する場合を例に説明をするが、映像重畳装置1とモバイル端末2とはそれぞれ複数台あってもよく、各映像重畳装置1およびモバイル端末2の撮影部13,23で取得した映像を合成して、各々の表示部11,21に表示するものとする。
【0017】
映像重畳装置1の映像合成部12は、図2に示すように、モバイル端末2から送信されたユーザU2の映像V2が表示部11の表示面のある位置Pに等身大で表示されるように映像を合成して、合成映像を表示部11に表示させる。このとき、ユーザU2の映像V2に枠をつけることで、ユーザU1から見て、ユーザU2が窓枠から覗きこんでいるような状態を表現することができる。なお、図2の例では、表示部11はユーザU1を取り囲むように円筒状に配置されている。
【0018】
モバイル端末2の映像合成部22は、図3に示すように、映像重畳装置1から送信されたユーザU1の映像V1が表示されるように映像を合成して、合成映像を表示部21に表示させる。このとき、映像合成部22は、地点S1の表示部11のPの位置にユーザU2が立ってユーザU1の方を見たと仮定したときにユーザU2から見える映像が表示部21に表示されるように映像を合成する。これにより、ユーザU2は、実際に地点S1のPの位置にいるように感じられる。
【0019】
なお、映像合成部22は、上記の映像に加えて、必要に応じて他地点の鳥瞰映像やユーザU2の自己像を表示部21に表示させてもよい。これにより、ユーザU2は、今自身の入り込んでいる位置や他のユーザとの位置関係、自身の映り具合等を確認することができる。図4(A)の例は、撮影部13の複数台のカメラによって撮影された各映像を平面状に並べるように合成した展開映像を示している。図4(B)の例は、円筒状の表示部11と表示部11に取り囲まれたユーザU1とを真上から見たときの映像が表示されるように合成した映像である。図4(C)の例は、円筒状の表示部11と表示部11に取り囲まれたユーザU1とを斜め上から見たときの映像が表示されるように合成した映像である。図4(A)〜図4(C)の例では、地点S1のPに相当する位置にユーザU2の映像V2(自己像)が表示されるように合成されている。以上の図4(A)〜図4(C)の映像は、映像重畳装置1の撮影部13によって撮影された複数の映像とモバイル端末2の撮影部23によって撮影された映像とを合成することで生成できる。
【0020】
ユーザU2は、地点S1のPの位置に立っていると仮定したときの視線方向を移動させるための移動情報を、モバイル端末2の入力部25を操作して入力することができる。視線は、左、右、上、下などに移動させることができる。移動情報は、例えば、左移動、右移動のためのアイコンをそれぞれ表示部21に表示させておき、いずれかのアイコンが指定される度に、指定されたアイコンが表す移動方向へ所定の移動量だけ移動させるような形式としてもよいし、現在の視線方向を0度として左方向への移動をマイナスの角度、右方向への移動をプラスの角度として移動量を自由に指定できる形としてもよい。
【0021】
モバイル端末2の座標・ポインタ管理部24は、入力部25から移動情報が入力されると、移動情報を基に視線の移動量を計算し、計算した視線移動量を映像重畳装置1の映像合成部12とモバイル端末2の映像合成部22に送る。
映像合成部22は、座標・ポインタ管理部24から取得した視線移動量に従って、ユーザU2が地点S1のPの位置に立って視線移動量の分だけ視線を移動させたと仮定したときにユーザU2から見える映像が表示部21に表示されるように映像を合成する。視線移動の指示後に表示部21に表示される映像を図5に示す。図5の例では、ユーザU2がユーザU1側から見て右方向(ユーザU2側から見て左方向)に視線を移動したときの例を示している。
【0022】
映像重畳装置1の映像合成部12は、座標・ポインタ管理部24から取得した視線移動量に応じて、ユーザU2の映像V2が視線移動量の分だけ変化するように映像を合成して、合成映像を表示部11に表示させる。このとき、映像合成部12は、映像V2の表示領域を台形で表示し、映像重畳装置1を利用しているユーザU1が、映像V2の表示されている窓枠の形から、ユーザU2がどちらの方向を向いているのかを推測できるようにする。ユーザU2による視線移動の指示後に表示部11に表示される映像を図6に示す。ユーザU2がユーザU1側から見て左方向に視線を移動させる指示を出したときは映像V2の枠が左側の辺が短い台形となるようにし、右方向に視線を移動させる指示を出したときは映像V2の枠が右側の辺が短い台形となるようにする。
【0023】
視線移動の指示後の映像V2の表示領域は、透視投影により算出することができる。以下、鉛直方向にy軸をとり、表示部11上の位置Pを含む表示面およびy軸に垂直な方向にz軸をとり、y軸およびz軸に垂直な方向にx軸をとり、地点S1の三次元位置を座標(x,y,z)で表すものとする。まず、地点S1の表示部11上の位置Pの中心を三次元位置(0,0,0)とし、(0,0,0)を中心としてユーザU2の映像V2を配置したときの映像V2の三次元座標から、ユーザU2が真正面を向いている状態の視点位置を算出する。表示部11にユーザU2が等身大になるように表示したときの映像V2の表示領域の幅と表示部11の直径D1との比から、ユーザU2が真正面を向いている状態の視点位置を算出する。表示部11はユーザU1を取り囲む円筒を形成するように配置された複数のディスプレイからなるので、この配置から表示部11の直径D1を求めることができる。
【0024】
例えば、図7に示すように、表示部11の直径D1を2mとし、ユーザU2の映像V2の表示領域の幅を50cmとする。このとき、映像V2の表示領域の幅と表示部11の直径との比は、50:200=1:4である。一方、表示部11上に表示したいユーザU2のカメラ映像の4隅の座標を画素の単位であるピクセルで(−20,10,0),(20,10,0),(20,−10,0),(−20,−10,0)と規定すると、カメラ映像の幅は40ピクセルである。よって、ユーザU2が真正面を向いている状態の視点位置の座標を(0,0,160)に設定する。
【0025】
次に、ユーザU2がユーザU1側から見て右方向に例えば45度視線を移動させることは、カメラ映像をy軸を回転軸にして45度まわすことと等価である(z=0を表示部11の表示面とする)。よって、視線移動後のカメラ映像の4隅の点P2’,P1’,P3’,P4’の座標は、それぞれ(−20×cos45°,10,−20×sin45°),(20×cos45°,10,20×sin45°),(20×cos45°,−10,20×sin45°),(−20×cos45°,−10,−20×sin45°)となる。
【0026】
このとき、図8に示すように、視点(0,0,160)と上記の視線移動後の各点P1’〜P4’とを結ぶ直線と、表示部11の表示面(z=0の平面)とが交わる点で表される表示面上の領域110が、ユーザU2が右方向に45度視線を移動させたときのカメラ映像の台形の領域となる。この領域にユーザU2の映像を表示すればよい。映像重畳装置1の映像合成部12は、以上のようにして視線移動の指示後の映像V2の表示領域を算出することができる。
【0027】
非特許文献1,2に開示されたシステムでは、それぞれの地点で、複数のディスプレイを円筒状に配置した空間を共有することができるので、遠隔地のユーザが指し示した位置(ポインティングした位置)を、ローカルのユーザと遠隔地のユーザとで正確に共有できることが特徴である。
本実施の形態のように、モバイル端末2と映像重畳装置1とをネットワーク3を介して接続する場合、モバイル端末2のユーザU2の指し示した位置が映像重畳装置1のユーザU1に正しく伝わるようにする必要がある。そのようなポインティングの伝達方法について説明する。
【0028】
ユーザU2は、表示部21に表示されている映像中のポインティングしたい位置をマウス等の入力部25を用いて指定することによって、ポインティングを行う。
ポインティングの指定が行われると、モバイル端末2の座標・ポインタ管理部24は、ユーザU2がポインティングした位置の座標を取得し、この座標をポインタ情報として映像重畳装置1の映像合成部12とモバイル端末2の映像合成部22に送る。
【0029】
映像重畳装置1の映像合成部12は、表示部11におけるユーザU2の映像V2の表示位置Pを、ユーザU2がポインティングした座標に相当する位置の付近まで移動させ、移動後の位置PとユーザU2がポインティングした座標に相当する位置との関係に応じてユーザの視点が右または左に向いた状態を表す台形の領域にユーザU2の映像V2が表示されるように映像を合成して、合成映像を表示部11に表示させる。
【0030】
すなわち、図9(A)に示すように、ユーザU1側から見て移動後の位置Pの右側にユーザU2がポインティングした座標に相当する位置90がある場合には、ユーザU2の映像V2の表示領域を右側の辺が短い台形で表す。また、図9(B)に示すように、移動後の位置Pの左側にユーザU2がポインティングした座標に相当する位置90がある場合には、映像V2の表示領域を左側の辺が短い台形で表す。
【0031】
モバイル端末2の映像合成部22は、座標・ポインタ管理部24からポインタ情報を取得するとポインティングモードに移行し、ユーザU2がポインティングした位置を中心とする予め設定された大きさの領域を、次にポインティングできる範囲としてポップアップするような映像を合成して、合成映像を表示部21に表示させる。ユーザU2がその範囲内でマウスを移動させると、ポインタの情報は座標・ポインタ管理部24を介して映像重畳装置1の映像合成部12に送られる。
【0032】
映像合成部12は、ポインタ情報に基づき、表示部11上の対応する箇所にポインタの画像が表示されるように映像を合成して、合成映像を表示部11に表示させる。このとき、ポインティングできる範囲はユーザU2の位置Pの周辺領域になるよう設定する。
なお、モバイル端末2からの参加者が複数いる場合には、どのユーザU2が指示しているのかの対応が取れるようにするため、映像合成部12は、映像重畳装置1の表示部11上に表示されるユーザU2の映像V2の表示領域を示す窓枠と、そのユーザU2の指示している位置を示すポインタとが同色になるように映像を生成する。
【0033】
以上のように、本実施の形態では、映像重畳装置1の映像合成部12は、モバイル端末2から視線の移動量の情報またはポインタ情報を取得したときに、モバイル端末2から送信された映像V2を表示する領域の形状を、視線の移動量またはポインタ情報に応じて変化させる。これにより、映像重畳装置1のユーザU1は、モバイル端末2のユーザU2が視線方向を移動させたときはユーザU2がどちらの方向を向いているのかを認識することができ、ユーザU2がポインティングを行ったときはユーザU2が指し示した位置を認識することができる。したがって、本実施の形態によれば、映像重畳装置1のユーザU1とモバイル端末2のユーザU2とが位置、距離感、方向感などを共有することができる。
【0034】
なお、本実施の形態の映像重畳装置1とモバイル端末2の各々の構成のうち、カメラとディスプレイを除く構成は、それぞれCPU、記憶装置および外部とのインタフェースを備えたコンピュータとこれらのハードウェア資源を制御するプログラムによって実現することができる。このようなコンピュータにおいて、本発明のビデオコミュニケーション方法を実現させるためのプログラムは、フレキシブルディスク、CD−ROM、DVD−ROM、メモリカードなどの記録媒体に記録された状態で提供され、コンピュータの記憶装置に格納される。各々の装置のCPUは、記録媒体から読み込んだプログラムを記憶装置に書き込み、プログラムに従って本実施の形態で説明した処理を実行する。
【産業上の利用可能性】
【0035】
本発明は、カメラで撮影した撮影映像と他地点の撮影映像とを重ね合わせて表示することにより遠隔地点間での同期コミュニケーションを円滑にするビデオコミュニケーションシステムに適用することができる。
【符号の説明】
【0036】
1…映像重畳装置、2…モバイル端末、3…ネットワーク、11,21…表示部、12,22…映像合成部、13,23…撮影部、24…座標・ポインタ管理部、25…入力部。

【特許請求の範囲】
【請求項1】
ユーザを取り囲むように表示手段を配置して構成された映像重畳装置と、
この映像重畳装置とネットワークを介して接続されたモバイル端末とを備え、
前記映像重畳装置は、
映像を表示可能な第1の表示手段と、
カメラを用いて映像を撮影する第1の撮影手段と、
この第1の撮影手段によって撮影された撮影映像を前記モバイル端末に送信する第1の送信手段と、
前記第1の撮影手段によって撮影された撮影映像と前記モバイル端末から送信された撮影映像とを合成して前記第1の表示手段に表示させ、前記モバイル端末から視線の移動量またはポインタ情報を取得したときは、前記モバイル端末から送信された撮影映像を表示する領域の形状が前記視線の移動量またはポインタ情報に応じて変化するように、前記モバイル端末から送信された撮影映像を合成して前記第1の表示手段に表示させる第1の映像合成手段とを有し、
前記モバイル端末は、
映像を表示可能な第2の表示手段と、
カメラを用いて映像を撮影する第2の撮影手段と、
この第2の撮影手段によって撮影された撮影映像を前記映像重畳装置に送信する第2の送信手段と、
前記モバイル端末のユーザの指示に応じてユーザの視線の移動量またはユーザがポインティングした位置の座標を示すポインタ情報を計算し、視線の移動量の情報またはポインタ情報を前記映像重畳装置に送信する管理手段と、
前記映像重畳装置の第1の表示手段の位置にモバイル端末のユーザが立っていると仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記第2の表示手段に表示させ、前記管理手段から視線の移動量の情報を取得したときは、この移動量の分だけモバイル端末のユーザが視線を移動させたと仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記第2の表示手段に表示させる第2の映像合成手段とを有することを特徴とするビデオコミュニケーションシステム。
【請求項2】
ユーザを取り囲むように表示手段を配置して構成された映像重畳装置と、この映像重畳装置とネットワークを介して接続されたモバイル端末とを用いて遠隔地点間での同期コミュニケーションを実現するビデオコミュニケーション方法であって、
前記映像重畳装置の第1の撮影手段が、カメラを用いて映像を撮影する第1の撮影ステップと、
前記映像重畳装置の第1の送信手段が、前記第1の撮影手段によって撮影された撮影映像を前記モバイル端末に送信する第1の送信ステップと、
前記モバイル端末の第2の撮影手段が、カメラを用いて映像を撮影する第2の撮影ステップと、
前記モバイル端末の第2の送信手段が、前記第2の撮影手段によって撮影された撮影映像を前記映像重畳装置に送信する第2の送信ステップと、
前記映像重畳装置の第1の映像合成手段が、前記第1の撮影手段によって撮影された撮影映像と前記モバイル端末から送信された撮影映像とを合成して前記映像重畳装置の第1の表示手段に表示させる第1の映像表示ステップと、
前記モバイル端末の第2の映像合成手段が、前記映像重畳装置の第1の表示手段の位置にモバイル端末のユーザが立っていると仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記モバイル端末の第2の表示手段に表示させる第2の映像表示ステップと、
前記モバイル端末の管理手段が、前記モバイル端末のユーザの指示に応じてユーザの視線の移動量またはユーザがポインティングした位置の座標を示すポインタ情報を計算し、視線の移動量の情報またはポインタ情報を前記映像重畳装置に送信する計算ステップと、
前記映像重畳装置の第1の映像合成手段が、前記モバイル端末から視線の移動量の情報またはポインタ情報を取得したときに、前記モバイル端末から送信された撮影映像を表示する領域の形状が前記視線の移動量またはポインタ情報に応じて変化するように、前記モバイル端末から送信された撮影映像を合成して前記映像重畳装置の第1の表示手段に表示させる第1の映像変更表示ステップと、
前記モバイル端末の第2の映像合成手段が、前記視線の移動量の情報を取得したときに、この移動量の分だけモバイル端末のユーザが視線を移動させたと仮定したときにユーザから見える映像が表示されるように、前記映像重畳装置から送信された撮影映像を合成して前記モバイル端末の第2の表示手段に表示させる第2の映像変更表示ステップとを備えることを特徴とするビデオコミュニケーション方法。
【請求項3】
請求項2に記載の各ステップをコンピュータに実行させることを特徴とするビデオコミュニケーションプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate


【公開番号】特開2011−35880(P2011−35880A)
【公開日】平成23年2月17日(2011.2.17)
【国際特許分類】
【出願番号】特願2009−183196(P2009−183196)
【出願日】平成21年8月6日(2009.8.6)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】