説明

会議システム

【課題】会議参加者の手の動きによるボディランゲージを直ちに画像化してディスプレイ装置に表示させ、会議参加者のイメージを共有させて議論の効率化を高めることのできる会議システムを得る。
【解決手段】画像を表示するためのディスプレイ装置30(プロジェクタ31とスクリーン32)、TV会議端末装置40、ビデオカメラ50を備えた複数の会議拠点A,Bをネットワーク10を介して接続した会議システム。拠点Aには画像形成複合装置20が設置されている。スクリーン32には、通常、接続先のビデオ画像が表示されている。会議参加者が特定のジェスチャーを行うと、そのジェスチャーをトリガとしてスクリーン32の表示を空画像に変更する。そして、ビデオカメラ50が撮影した特定の会議参加者の手の動作軌跡を電子データ化して線画としてスクリーン32上に表示する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、会議システム、特に、画像を表示するディスプレイ装置を有する複数の会議拠点をネットワークを介して接続した会議システムに関する。
【背景技術】
【0002】
近年、複数の会議拠点をネットワークを介して接続し、音声だけでなく、他の拠点の状況が分かるように、それぞれの拠点に設置されたディスプレイ装置に表示しつつ会議を進行するテレビ会議システムが実用化されている。その場合、会議の進行と連動させるようにパソコンのアプリケーションやインタラクティブボードなどを使用して文字や図形などの画像を表示し、情報を共有化している。
【0003】
特許文献1には、スクリーン上の発光ポインターの光とその位置を検出し、発表者が描いた光の軌跡パターンを記録し、その軌跡パターンと同じ形や位置に、光を投影することにより発光ポインターの光でスクリーン上に画像を描画する会議支援方法が記載されている。
【0004】
特許文献2には、ユーザにボディマーカーとヘッドホンを付け、頭や体の動きに応じて画面上のアバターの動作を行うコンピュータ会議システムが記載されている。
【0005】
特許文献3には、ユーザの動きを解析し、予め記憶しておいた動作パターンを使ってロボットを動作させるプレゼンター動作再現ロボットが記載されている。
【0006】
特許文献4には、タッチパネル上に描いた軌跡から、図形データ判定部にて図形の判定を行い、ディスプレイに表示させるディスプレイ装置の制御方法が記載されている。
【0007】
特許文献5には、電子資料をリアルタイムに閲覧できる画面共有ソフトウエアと、電子会議に参加する全員が議論の内容になる文字や描画などを自由に入手可能なアプリケーションソフトウエアとを同時に併用して電子会議を行うことができる電子会議システムが記載されている。
【0008】
ところで、TV会議では、参加者が発言中に、手などを使用してボディランゲージにて図を描いて説明する場合があるが、そのとき表示されている映像の大きさによっては他の会議拠点にいる参加者には伝わりづらい場合がある。また、同じ会議拠点にいる参加者にとっても、ボディランゲージが消えるとともに頭に描いた図形も直ちに忘れてしまったり、分からなくなったり、人によっては誤解したままであったりする。パソコンのアプリケーションやインタラクティブボードなどを使えば、このような課題を解決することは可能であるが、予めアプリケーションを立ち上げておくなどの準備が必要で、とっさの場合には対応できず、議論の効率が低下してしまうおそれがある。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】特開2000−242427号公報
【特許文献2】特開2000−244886号公報
【特許文献3】特開2008−254103号公報
【特許文献4】特開2005−228353号公報
【特許文献5】特開2006−164177号公報
【発明の概要】
【発明が解決しようとする課題】
【0010】
そこで、本発明の目的は、会議参加者の手の動きによるボディランゲージを直ちに画像化してディスプレイ装置に表示させ、会議参加者のイメージを共有させて議論の効率化を高めることのできる会議システムを提供することにある。
【課題を解決するための手段】
【0011】
以上の目的を達成するため、本発明の一形態である会議システムは、
画像を表示するディスプレイ装置を有する複数の会議拠点をネットワークを介して接続した会議システムにおいて、
前記複数の会議拠点は、
深度を測定可能な撮影装置と、
特定のジェスチャーを行った会議参加者を前記撮影装置による撮影画像から特定する人物認識部と、
前記ディスプレイ装置に通常は接続先のビデオ画像を表示し、前記人物認識部が特定の会議参加者を認識したことをトリガとして表示を空画像に変更する画像入力/表示制御部と、
前記撮影装置が撮影した前記特定の会議参加者の手の動作軌跡を認識して電子データ化する動作認識部と、
前記動作認識部が生成した動作軌跡データを線画として画像化する画像作成部と、
を備え、
前記画像入力/表示制御部は、前記画像作成部が作成した画像を各会議拠点に設けた前記ディスプレイ装置に表示させること、
を特徴とする。
【0012】
前記会議システムにおいては、発言したいという特定のジェスチャー(例えば、手のひらを閉じた状態で手を挙げる動作)を行った会議参加者を撮影画像から特定し、該会議参加者の手の動作軌跡を認識して該動作軌跡を画像化し、各会議拠点に設けたディスプレイ装置に表示する。発言者の手の動きは直ぐに消えてしまうが、あるいは、他の会議拠点にいる参加者には見えにくかったとしても、手で表現されたイメージを各会議拠点にいる参加者がディスプレイ装置によって映像として眼で認識することができる。それゆえ、会議参加者のイメージを共有させて議論の効率化を高めることが可能になる。
【発明の効果】
【0013】
本発明によれば、会議参加者の手の動きによるボディランゲージを直ちに画像化してディスプレイ装置に表示させ、会議参加者のイメージを共有させて議論の効率化を高めることができる。
【図面の簡単な説明】
【0014】
【図1】一実施例であるTV会議システムの構成図である。
【図2】各会議拠点の構成を示すブロック図である。
【図3】TV会議システムの全体的な進行手順を示すフローチャート図である。
【図4】会議支援モードの制御手順を示すフローチャート図である。
【図5】会議支援モードの制御手順(図4の続き)を示すフローチャート図である。
【図6】会議支援モードの説明図である。
【図7】会議支援モードにおけるディスプレイ装置での表示例を示す説明図である。
【発明を実施するための形態】
【0015】
以下、本発明に係る会議システムの実施例について、添付図面を参照して説明する。
【0016】
一実施例であるTV会議システムは、図1に示すように、会議室A1を有する拠点Aと、会議室B1を有する拠点Bとをネットワーク10を介して接続したものである。拠点Aには画像形成複合装置20が設置され、拠点A,Bにはディスプレイ装置30とTV会議端末装置40とが設置され、それらはLAN11で通信可能とされている。ディスプレイ装置30は画像を投影するプロジェクタ31とスクリーン32とで構成されている。TV会議端末装置40には、それぞれ、深度を測定可能なビデオカメラ50とプロジェクタ31とが接続されている。なお、画像形成複合装置は、以下、MFPとも記す。
【0017】
画像形成複合装置20は、スキャナによる原稿画像の読取りや電子写真法による画像形成機能を有するもので、さらに、図2に示すように、LAN11に接続されたネットワークインターフェース21、画像作成部22、画像管理部23、記憶装置24を有している。
【0018】
TV会議端末装置40は、図2に示すように、LAN11に接続されたネットワークインターフェース41、画像入力/表示制御部42、人物確認部43、音声認識部44、動作確認部45を有している。
【0019】
人物認識部43は、特定のジェスチャーを行った会議参加者をビデオカメラ50による撮影画像から特定する。特定のジェスチャーとは、通常はあまり行わない動作が好ましく、例えば、手のひらを閉じた状態で手を挙げる動作である。このような特定のジェスチャーは予め会議参加者に説明しておく。
【0020】
画像入力/表示制御部42は、プロジェクタ31によって通常は会議資料などのビデオ画像をスクリーン32上に表示させ、人物認識部43が特定の会議参加者を認識したことをトリガとして表示を空画像に変更する。音声認識部44は、図示しないマイクを通じて会議参加者の音声を収集してそれぞれの会議室A1,B1に音声を流す。動作認識部45は、ビデオカメラ50が撮影した特定の会議参加者の手の動作軌跡を認識して電子データ化する。手の動作軌跡を認識する場合、認識しやすいように、指を伸ばして(立てて)動作させた手の動作軌跡を認識することが好ましく、そのような動作をするように予め会議参加者に説明しておくことが必要となる。また、動作認識部45は、動作軌跡を認識する際に、音声認識部44で収集した音声データを、動作軌跡データの表示位置とリンクした画像を生成する。
【0021】
画像作成部22は、動作認識部45が生成した動作軌跡データを線画として画像化する。また、画像作成部22は、動作軌跡データから得られた線画を該線画に近い多角形、円、楕円などのいずれかに置換して画像化してもよい。
【0022】
さらに、画像入力/表示制御部42は、画像作成部22が作成した画像を各会議拠点A,Bに設けたプロジェクタ31にてスクリーン32上に表示させる。このとき、画像入力/表示制御部42は、人物認識部43が特定した発言者の撮影画像近辺を抜き出してビデオ画像を作成し、動作認識部45が生成した動作軌跡データをスクリーン32に投影するに際して、スクリーン32の隅にビデオ画像をオーバレイ表示する。
【0023】
画像入力/表示制御部42は、特定の会議参加者が特定のジェスチャーを行ったことをトリガとしてプロジェクタ31によるスクリーン32への特定の会議参加者に関する画像表示を停止させる。ここでの特定のジェスチャーとは、手を下した動作であることが分かりやすい。そして、画像入力/表示制御部42は、手を下した動作を認識したことをトリガとして所定の時間は画像を表示し、所定の時間が経過したときに元のビデオ画像を表示する。発言が終了してから若干の時間、発言者に関する画像の表示を残したほうが、会議参加者にとって視覚的なイメージを維持するうえで効果的である。
【0024】
ここで、以上の構成からなるTV会議システムを使用した会議の全体的な進行手順を図3のフローチャートに従って説明する。まず、会議拠点A,Bの会議システム(TV会議端末装置40)を接続する(ステップS1)。このときから、ビデオカメラ50が撮影を開始し、画像入力/表示制御部42は、参加人物を映像として特定し、特定した人物ごとにその画像を管理する(ステップS2)。また、特定した人物ごとに管理している画像をスクリーン32に表示することもできる。
【0025】
通常は、会議資料などのビデオ画像がスクリーン32上に表示され、人物認識部43がある参加者が所定のジェスチャー(手のひらを閉じて手を挙げる)を行ったことを認識すると(ステップS3でYES)、以下に詳述する会議支援モード(ステップS4)に移行する。会議が終了すると(ステップS5でYES)、会議システムを切断する(ステップS6)。
【0026】
ステップS4で実行される会議支援モードの制御手順を図4及び図5のフローチャートを参照して説明する。会議の進行中にある人物が挙手すると、人物認識部43がその人物を特定し(ステップS11)、特定した人物が既に保存している参加者の画像と同一人物であるか否かを判定する(ステップS12)。同一人物であれば、スクリーン32の画面を切り替えて当該人物の保存済み画像を表示する(ステップS13)。挙手した人物が保存画像に無ければ、スクリーン32の画面を切り替えて空画像を表示する(ステップS14)。
【0027】
次に、ビデオカメラ50が撮影しているビデオ画像中の対象者(手を挙げた人物)の上半身を抽出し、スクリーン32の隅にオーバレイ表示する(ステップS15)。例えば、図6(a)に示すように、4人の参加者51〜54がおり、参加者51が挙手すると、参加者51の画像をスクリーン32の隅に表示する(図6(b)参照)。
【0028】
表示された人物が、手を大きく左右に動かすと(ステップS16でYES)、スクリーン32上の画像をクリアして空画像を表示し(ステップS17)、前記ステップS16へ戻る。表示された人物が、指を伸ばして(立てて)動かすと(ステップS18でYES)、その動作軌跡をスクリーン32の空画像上に線画で描画し(ステップS19)、ステップS16へ戻る。このような表示状態を図6(c)に示す。
【0029】
また、発声があると(ステップS20でYES)、その音声を認識して前記線画に吹き出しを付けて文字表示し(ステップS21)、ステップS16へ戻る。例えば、図7は、線画61の動きと同時に人物が「MFPがあって」と発言し、線画62の動きと同時に「MFPから要求を出すのがよいのではないか?」と発言し、線画63の動きと同時に「仲介サーバがあって」と発言し、線画64の動きと同時に「LDAPサーバがあるときに」と発言した場合を示している。
【0030】
一方、表示された人物が、手を下していれば(ステップS22でYES)、所定時間経過フラグがセットされているか否かを判定する(ステップS23)。経過フラグが未セットであれば、経過フラグをセットし(ステップS24)、ステップS16へ戻る。経過フラグがセットされており、所定時間が経過すれば(ステップS25でYES)、経過フラグをクリアするとともに人物ごとの画像を保存し(ステップS26)、会議支援モードを終了する。
【0031】
その後、参加者54が挙手すると、前記同様に、参加者54の画像をスクリーン32の隅に表示する(図6(d)参照)。指を伸ばした状態での手の動作軌跡データから得られた線画を該線画に近い多角形、円、楕円の少なくともいずれかに置換して画像化してもよく、図6(e)にはこのような表示状態を示す。
【0032】
(他の実施例)
なお、本発明に係る会議システムは前記実施例に限定するものではなく、その要旨の範囲内で種々に変更することができる。
【0033】
例えば、前記実施例では、画像形成複合装置20は必ずしも必要ではなく、その画像作成部22や画像管理部23の機能をTV会議端末装置40に格納するようにしてもよい。逆に、TV会議端末装置40のいくつかの機能を画像形成複合装置20に格納し、全ての会議拠点に画像形成複合装置20を設置するようにしてもよい。また、ディスプレイ装置はスクリーンを伴ったプロジェクタ以外に液晶などの映像表示画面であってもよい。
【産業上の利用可能性】
【0034】
以上のように、本発明は、会議システムに有用であり、特に、会議参加者の手の動きによるボディランゲージを直ちに画像化してディスプレイ装置に表示させ、会議参加者のイメージを共有させて議論の効率化を高めることができる。
【符号の説明】
【0035】
10…ネットワーク
20…画像形成複合装置
22…画像作成部
23…画像管理部
24…記憶装置
30…ディスプレイ装置
31…プロジェクタ
32…スクリーン
40…TV会議端末装置
41…ネットワークインターフェース
42…画像入力/表示制御部
43…人物認識部
44…音声認識部
45…動作認識部
50…ビデオカメラ

【特許請求の範囲】
【請求項1】
画像を表示するディスプレイ装置を有する複数の会議拠点をネットワークを介して接続した会議システムにおいて、
前記複数の会議拠点は、
深度を測定可能な撮影装置と、
特定のジェスチャーを行った会議参加者を前記撮影装置による撮影画像から特定する人物認識部と、
前記ディスプレイ装置に通常は接続先のビデオ画像を表示し、前記人物認識部が特定の会議参加者を認識したことをトリガとして表示を空画像に変更する画像入力/表示制御部と、
前記撮影装置が撮影した前記特定の会議参加者の手の動作軌跡を認識して電子データ化する動作認識部と、
前記動作認識部が生成した動作軌跡データを線画として画像化する画像作成部と、
を備え、
前記画像入力/表示制御部は、前記画像作成部が作成した画像を各会議拠点に設けた前記ディスプレイ装置に表示させること、
を特徴とする会議システム。
【請求項2】
前記特定のジェスチャーとは、手のひらを閉じた状態で手を挙げた動作であること、を特徴とする請求項1に記載の会議システム。
【請求項3】
前記動作認識部は、指を伸ばして動作させた手の動作軌跡を認識すること、を特徴とする請求項1に記載の会議システム。
【請求項4】
前記動作認識部は、動作軌跡を認識する際に、前記特定の会議参加者の発言を音声認識し、動作軌跡データの表示位置と認識した音声データをリンクした画像を生成すること、を特徴とする請求項1に記載の会議システム。
【請求項5】
前記画像入力/表示制御部は、開催された会議において参加人物を特定し、特定した人物ごとに画像を管理すること、を特徴とする請求項1に記載の会議システム。
【請求項6】
前記画像入力/表示制御部は、前記特定した人物ごとに管理している画像を前記ディスプレイ装置に表示すること、を特徴とする請求項5に記載の会議システム。
【請求項7】
前記画像入力/表示制御部は、前記人物認識部が特定した人物の撮影画像近辺を抜き出してビデオ画像を作成し、前記動作認識部が生成した動作軌跡データを前記ディスプレイ装置に表示する際に、該ディスプレイ装置の隅に前記ビデオ画像をオーバレイ表示すること、を特徴とする請求項1に記載の会議システム。
【請求項8】
さらに、前記ネットワークを介して接続された画像形成複合装置を備え、前記画像作成部は該画像形成複合装置に設けられていること、を特徴とする請求項1に記載の会議システム。
【請求項9】
前記画像作成部は、前記動作軌跡データから得られた線画を該線画に近い多角形、円、楕円の少なくともいずれかに置換して画像化すること、を特徴とする請求項1に記載の会議システム。
【請求項10】
前記画像入力/表示制御部は、前記特定の会議参加者が特定のジェスチャーを行ったことをトリガとして前記ディスプレイ装置への前記特定の会議参加者に関する画像表示を停止すること、を特徴とする請求項1に記載の会議システム。
【請求項11】
前記特定のジェスチャーとは、手を下した動作であること、を特徴とする請求項10に記載の会議システム。
【請求項12】
前記画像入力/表示制御部は、前記トリガから所定の時間は画像を表示し、所定の時間が経過したときに元のビデオ画像を表示すること、を特徴とする請求項10に記載の会議システム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2012−23595(P2012−23595A)
【公開日】平成24年2月2日(2012.2.2)
【国際特許分類】
【出願番号】特願2010−160415(P2010−160415)
【出願日】平成22年7月15日(2010.7.15)
【出願人】(303000372)コニカミノルタビジネステクノロジーズ株式会社 (12,802)
【Fターム(参考)】