説明

通信端末装置、通信制御装置、通信端末装置の通信制御方法、通信制御プログラム

【課題】ユーザの動作に応じて送信するユーザ画像を変更できる通信端末装置、通信制御装置、通信端末装置の通信制御方法、通信制御プログラムを提供する。
【解決手段】遠隔会議中に、端末装置のユーザが、ジェスチャーを行っているか否かを検出する(S4)。ユーザがジェスチャーを行っていない場合には(S5:NO)、相手ユーザの端末装置に対して、ユーザの顔画像を送信する(S3)。ユーザがジェスチャーを行っている場合には(S5:YES)、相手ユーザの端末装置に対して、ユーザの上半身画像を送信する(S7)。ユーザがジェスチャーで感情を表現しようとした場合、相手ユーザはユーザのジェスチャーを確認することができる。ユーザがジェスチャーを行わない場合、相手ユーザは、ユーザの顔の表情を確認できる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、他拠点の端末との間で、画像と音声を双方向に送受信できる通信端末装置、通信制御装置、前記通信端末装置の通信制御方法、通信制御プログラムに関する。
【背景技術】
【0002】
従来、複数の端末をネットワークを介して接続し、画像と音声を双方向に送受信することで、遠隔の地にある者同士の会議を実現するテレビ会議システムが知られている。このシステムでは、会議参加者は表示画面に表示された相手と会議を行う。画像を介して情報を伝達できるため、会議参加者は、表示画面に表示された相手画像から相手の表情を読み取り、相手の感情などを推測することができる。例えば、入力音声から発言者を推定し、自動的にクローズアップ撮影することができるカメラ制御方法及び装置並びに記憶媒体が提案されている(例えば、特許文献1参照)。この制御方法では、発言者がクローズアップ撮影されるので、相手端末の表示画面には発言者の表情を確実に表示させることができる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平11−341334号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、会議参加者は、感情を表現する場合に会話に身振り手振り等のジェスチャーを交えることがある。特許文献1に記載のカメラ制御方法では、表示画面には会議参加者の顔画像のみが表示されるため、会議参加者がジェスチャーで感情を表現しようとしても、表示画面にジェスチャーが映らない問題点があった。表示画面にジェスチャーを映すために撮影範囲を広げると、会議参加者の顔画像が相対的に小さくなってしまい、表情が確認できなくなってしまうという問題点があった。
【0005】
本発明は、上記課題を解決するためになされたものであり、ユーザの動作に応じて送信するユーザ画像を変更できる通信端末装置、通信制御装置、通信端末装置の通信制御方法、通信制御プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するために、請求項1に係る発明の通信端末装置は、ネットワークを介して接続された他の通信端末装置と画像及び音声を介した通信を行う通信端末装置であって、ユーザを撮影する撮影手段と、前記撮影手段により撮影された撮影画像から、前記ユーザの掌及び腕の少なくともいずれかの動きが所定量以上ある状態を前記ユーザの動作として検出する動作検出手段と、前記動作検出手段によって前記動作が検出された場合に、前記撮影手段によって撮影された撮影画像の中から、前記ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する第一画像範囲決定手段と、前記動作検出手段によって前記動作が検出されなかった場合に、前記撮影画像の中から、前記ユーザの前記顔領域の画像の範囲を第二画像範囲として決定する第二画像範囲決定手段と、前記第一画像範囲決定手段によって決定された前記第一画像範囲の画像、又は前記第二画像範囲決定手段によって決定された前記第二画像範囲の画像を、前記他の通信端末装置に送信する画像送信手段と、前記他の通信端末装置から送信された前記画像を受信する画像受信手段と、前記画像受信手段によって前記画像が受信された場合に、前記画像を表示画面に表示させる画像表示制御手段とを備えている。
【0007】
また、請求項2に係る発明の通信端末装置は、請求項1に記載の発明の構成に加え、前記動作検出手段は、前記掌及び前記腕の両方に所定量以上の動きがある状態を前記動作として検出することを特徴とする。
【0008】
また、請求項3に係る発明の通信端末装置は、請求項1又は2に記載の発明の構成に加え、前記動作検出手段は、前記掌の形状に所定量以上の変化がある状態を前記掌の動きとして検出することを特徴とする。
【0009】
また、請求項4に係る発明の通信端末装置は、請求項1乃至3のいずれかに記載の発明の構成に加え、前記動作検出手段は、前記腕の位置が所定量以上変化した状態を前記腕の動きとして検出することを特徴とする。
【0010】
また、請求項5に係る発明の通信端末装置は、請求項1乃至4のいずれかに記載の発明の構成に加え、前記撮影画像から前記対象ユーザの鼻位置を検出する鼻位置検出手段をさらに備え、前記第一画像範囲決定手段は、前記鼻位置検出手段によって検出された前記鼻位置が、前記第一画像範囲の水平方向における中心点となるように、前記第一画像範囲を決定することを特徴とする。
【0011】
また、請求項6に係る発明の通信端末装置は、請求項1乃至5のいずれかに記載の発明の構成に加え、複数のユーザの中から発言者を特定する発言者特定手段を備え、前記動作検出手段は、前記発言者特定手段によって特定された前記発言者の掌及び腕の少なくともいずれかの動きが前記所定量以上ある状態を前記発言者の動作として検出し、前記第一画像範囲決定手段は、前記発言者の顔領域と掌領域と腕領域とを含む上半身画像の範囲を前記第一画像範囲として決定し、前記第二画像範囲決定手段は、前記発言者の前記顔領域を含む顔画像の範囲を前記第二画像範囲として決定することを特徴とする。
【0012】
また、請求項7に係る発明の通信端末装置は、請求項6に記載の発明の構成に加え、前記撮影手段により撮影された前記撮影画像から人物を認識する人物認識手段と、前記人物認識手段によって認識された前記人物の口形の変化を検出する口形検出手段とを備え、前記発言者特定手段は、前記口形検出手段によって前記口形の変化が所定量以上検出された人物を前記発言者として特定することを特徴とする。
【0013】
また、請求項8に係る発明の通信端末装置は、請求項6又は7に記載の発明の構成に加え、前記ユーザの音声を検出するとともに、前記音声の方向を検出する音声検出手段を備え、前記発言者特定手段は、前記音声検出手段により検出された前記方向にいる人物を前記発言者として特定することを特徴とする。
【0014】
また、請求項9に係る発明の通信制御装置は、ネットワークを介して複数の通信端末装置に接続され、前記通信端末装置間で行われる通信を制御する通信制御装置であって、前記通信端末装置の撮影手段によって撮影され、前記通信端末装置から送信される撮影画像を受信する撮影画像受信手段と、前記撮影画像受信手段によって受信された前記撮影画像に基づき、前記ユーザの掌及び腕の少なくともいずれかの動きがある状態を前記ユーザの動作として検出する動作検出手段と、前記動作検出手段によって前記動作が検出された場合に、前記撮影画像の中から、前記ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する第一画像範囲決定手段と、前記動作検出手段によって前記動作が検出されなかった場合に、前記撮影画像の中から、前記ユーザの前記顔領域を含む顔画像の範囲を第二画像範囲として決定する第二画像範囲決定手段と、前記第一画像範囲決定手段によって決定された前記第一画像範囲の画像、又は前記第二画像範囲決定手段によって決定された前記第二画像範囲の画像を、前記通信端末装置に送信する画像送信手段とを備えている。
【0015】
また、請求項10に係る発明の通信端末装置の通信制御方法は、ネットワークを介して接続された他の通信端末装置と、画像及び音声を介した通信を行う通信端末装置の通信制御方法であって、ユーザの掌及び腕の少なくともいずれかの動きがある状態を前記ユーザの動作として検出する動作検出ステップと、前記動作検出ステップにおいて前記動作が検出された場合に、ユーザを撮影する撮影手段によって撮影された撮影画像の中から、前記ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する第一画像範囲決定ステップと、前記動作検出ステップにおいて前記動作が検出されなかった場合に、前記撮影画像の中から、前記ユーザの前記顔領域の画像の範囲を第二画像範囲として決定する第二画像範囲決定ステップと、前記第一画像範囲決定ステップにおいて決定された前記第一画像範囲の画像、又は前記第二画像範囲決定手段において決定された前記第二画像範囲の画像を、前記他の通信端末装置に送信する画像送信ステップと、前記他の通信端末装置から送信された前記画像を受信する画像受信ステップと、前記画像受信ステップにおいて前記画像が受信された場合に、前記画像を表示画面に表示させる画像表示制御ステップとを備えている。
【0016】
また、請求項11に係る発明の通信制御プログラムは、請求項1乃至8のいずれかに記載の通信端末装置の各種処理手段としてコンピュータを機能させることを特徴とする。
【発明の効果】
【0017】
請求項1に係る発明の通信端末装置では、ネットワークを介して接続された他の通信端末装置と画像及び音声を介した通信が行われる。撮影手段はユーザを撮影する。動作検出手段は、撮影手段により撮影された撮影画像から、ユーザの掌及び腕の少なくともいずれかの動きが所定量以上ある状態をユーザの動作として検出する。第一画像範囲決定手段は、動作検出手段によって動作が検出された場合に、撮影手段によって撮影された撮影画像の中から、ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する。第二画像範囲決定手段は、動作検出手段によって動作が検出されなかった場合に、撮影画像の中から、ユーザの顔領域の画像の範囲を第二画像範囲として決定する。画像送信手段は、第一画像範囲決定手段によって決定された第一画像範囲の画像、又は第二画像範囲決定手段によって決定された第二画像範囲の画像を、他の通信端末装置に送信する。画像受信手段は、他の通信端末装置から送信された画像を受信する。画像表示制御手段は、画像受信手段によって画像が受信された場合に、その画像を表示画面に表示させる。このように、動作検出手段によって動作が検出されなかった場合は、ユーザの顔領域の画像が他の通信端末装置に送信され、動作が検出された場合は、上半身領域の画像が他の通信端末装置に送信される。よって、他の通信端末装置では、ユーザがジェスチャーを行っている場合には、ユーザの上半身領域の画像が表示画面に表示され、ユーザがジェスチャーを行っていない場合には、ユーザの顔領域の画像が表示される。よって、ユーザがジェスチャーで感情を表現しようとした場合、相手ユーザはユーザのジェスチャーを確認することができる。また、ユーザがジェスチャーを行わない場合、相手ユーザは、ユーザの顔の表情を確認できる。よって、異なる拠点にいる会議参加者同士で良好なコミュニケーションをとることができる。また、ユーザがジェスチャーを行わないときは、上半身画像よりもデータ量の小さい顔画像を送信するので、通信負荷を軽減できる。
【0018】
また、請求項2に係る発明の通信端末装置では、請求項1に記載の発明の効果に加え、動作検出手段は、掌及び腕の両方に所定量以上の動きがある状態を動作として検出する。つまり、ユーザの上半身の小さな揺れ等の動作として検出せず、ユーザの所定量以上の大きな動作のみを検出することができる。
【0019】
また、請求項3に係る発明の通信端末装置では、請求項1又は2に記載の発明の効果に加え、動作検出手段は、掌の形状に所定量以上の変化がある状態を掌の動きとして検出する。これにより、ユーザが掌を動かして感情表現している場合に、掌の画像を含む上半身画像を表示画面に表示させることができる。さらに、掌の形状に所定量以上の変化があった場合にのみ検出するので、掌の形状の小さな変化があった場合には、掌の動きとして検出することがない。
【0020】
また、請求項4に係る発明の通信端末装置では、請求項1乃至3のいずれかに記載の発明の効果に加え、動作検出手段は、腕の位置が所定量以上変化した状態を腕の動きとして検出する。これにより、ユーザが腕を動かして感情表現している場合に、腕の画像を含む上半身画像を表示画面に表示させることができる。さらに、腕の位置に所定量以上の変化があった場合にのみ検出するので、腕の位置の小さな変化があった場合には、腕の動きとして検出することがない。
【0021】
また、請求項5に係る発明の通信端末装置では、請求項1乃至4のいずれかに記載の発明の効果に加え、第一画像範囲決定手段は、鼻位置検出手段をさらに備えている。鼻位置検出手段は、撮影画像から対象ユーザの鼻位置を検出する。第一画像範囲決定手段は、鼻位置検出手段によって検出された鼻位置が、第一画像範囲の水平方向における中心点となるように、第一画像範囲を決定する。これにより、ユーザの顔画像を表示画面の中心に常に位置させることができる。
【0022】
また、請求項6に係る発明の通信端末装置では、請求項1乃至5のいずれかに記載の発明の効果に加え、発言者特定手段は、複数のユーザの中から発言者を特定する。動作検出手段は、発言者特定手段によって特定された発言者の掌及び腕の少なくともいずれかの動きが所定量以上ある状態を前記発言者の動作として検出する。第一画像範囲決定手段は、発言者の顔領域と掌領域と腕領域とを含む上半身画像の範囲を第一画像範囲として決定する。第二画像範囲決定手段は、発言者の顔領域を含む顔画像の範囲を第二画像範囲として決定する。従って、複数のユーザが一拠点にいる場合は、その中の発言者について第一画像範囲又は第二画像範囲を指定することができる。
【0023】
また、請求項7に係る発明の通信端末装置では、請求項6に記載の発明の効果に加え、人物認識手段は、撮影手段により撮影された撮影画像から人物を認識する。口形検出手段は、人物認識手段によって認識された人物の口形の変化を検出する。発言者特定手段は、
口形検出手段によって口形の変化が所定量以上検出された人物を発言者として特定する。これにより一拠点に複数のユーザがいる場合でもその中から発言者を的確に特定できる。
【0024】
また、請求項8に係る発明の通信端末装置では、請求項6又は7に記載の発明の効果に加え、音声検出手段は、ユーザの音声を検出するとともに、音声の方向を検出する。発言者特定手段は、音声検出手段により検出された方向にいる人物を発言者として特定する。これにより一拠点に複数のユーザがいる場合でもその中から発言者を的確に特定できる。
【0025】
また、請求項9に係る発明の通信制御装置では、ネットワークを介して複数の通信端末装置に接続され、通信端末装置間で行われる通信を制御する。撮影画像受信手段は、通信端末装置の撮影手段によって撮影され、通信端末装置から送信される撮影画像を受信する。動作検出手段は、撮影画像受信手段によって受信された撮影画像に基づき、ユーザの掌及び腕の少なくともいずれかの動きがある状態をユーザの動作として検出する。第一画像範囲決定手段は、動作検出手段によって動作が検出された場合に、撮影画像の中から、ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する。第二画像範囲決定手段は、動作検出手段によって動作が検出されなかった場合に、撮影画像の中から、ユーザの顔領域を含む顔画像の範囲を第二画像範囲として決定する。画像送信手段は、第一画像範囲決定手段によって決定された第一画像範囲の画像、又は第二画像範囲決定手段によって決定された第二画像範囲の画像を、通信端末装置に送信する。これにより、動作検出手段によって動作が検出されなかった場合は、ユーザの顔領域の画像を通信端末装置の表示画面に表示させ、動作が検出された場合は、ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像を表示画面に表示させることができる。ユーザの動作に応じてユーザの画像サイズを調節できるので、ユーザの動作に応じて表情や動作を通信端末装置の表示画面に確実に表示できる。従って、ユーザの感情を豊かに表現できるので、相手と良好なコミュニケーションをとることができる。また、ユーザが動作しないときは、第一画像範囲の画像よりもデータ量の小さい第二画像範囲の画像を送信するので、通信負荷を軽減できる。
【0026】
また、請求項10に係る発明の通信端末装置の通信制御方法では、動作検出ステップにおいて、ユーザの掌及び腕の少なくともいずれかの動きがある状態をユーザの動作として検出する。第一画像範囲決定ステップにおいて、動作検出ステップにて動作が検出された場合に、ユーザを撮影する撮影手段によって撮影された撮影画像の中から、ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する。第二画像範囲決定ステップにおいて、動作検出ステップにて動作が検出されなかった場合に、撮影画像の中から、ユーザの顔領域の画像の範囲を第二画像範囲として決定する。画像送信ステップにおいて、第一画像範囲決定ステップにて決定された第一画像範囲の画像、又は第二画像範囲決定手段において決定された第二画像範囲の画像を、他の通信端末装置に送信する。画像受信ステップにおいて、他の通信端末装置から送信された画像を受信する。画像表示制御ステップにおいて、画像受信ステップにて画像が受信された場合に、画像を表示画面に表示させる。このように、動作検出手段によって動作が検出されなかった場合は、ユーザの顔領域の画像が表示画面に表示され、動作が検出された場合は、ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像が表示画面に表示される。これにより、ユーザの動作に応じてユーザの画像サイズを調節できるので、ユーザの動作に応じて表情や動作を表示画面に確実に表示できる。従って、ユーザの感情を豊かに表現できるので、相手と良好なコミュニケーションをとることができる。また、ユーザが動作しないときは、第二画像範囲の画像よりもデータ量の小さい第一画像範囲の画像を送信するので、通信負荷を軽減できる。
【0027】
また、請求項11に係る発明の通信制御プログラムでは、請求項1乃至8のいずれかに記載の通信端末装置の各種処理手段としてコンピュータを機能させるので、請求項1乃至8のいずれかに記載の効果を得ることができる。
【図面の簡単な説明】
【0028】
【図1】テレビ会議システム1の構成を示すブロック図である。
【図2】端末装置3の電気的構成を示すブロック図である。
【図3】HDD31の各種記憶エリアを示す概念図である。
【図4】RAM22の各種記憶エリアを示す概念図である。
【図5】ディスプレイ28における一表示態様を示す図である(相手ユーザがジェスチャーを行っていない場合)。
【図6】ディスプレイ28における一表示態様を示す図である(相手ユーザがジェスチャーを行っている場合)。
【図7】撮影画像50における顔画像51の範囲を示す図である。
【図8】撮影画像50における上半身画像52の範囲を示す図である。
【図9】CPU20による画像送信処理のフローチャートである。
【図10】CPU20による顔画像範囲決定処理のフローチャートである。
【図11】CPU20による動作検出処理のフローチャートである。
【図12】CPU20による掌動作検出処理のフローチャートである。
【図13】CPU20による腕動作検出処理のフローチャートである。
【図14】CPU20による上半身画像範囲決定処理のフローチャートである。
【図15】CPU20による画像受信処理のフローチャートである。
【図16】第二実施形態の端末装置130の電気的構成を示すブロック図である。
【図17】RAM122の各種記憶エリアを示す概念図である。
【図18】CPU120による画像送信処理のフローチャートである。
【発明を実施するための形態】
【0029】
以下、本発明の第一実施形態である端末装置3について、図面を参照して説明する。はじめに、端末装置3を構成要素とするテレビ会議システム1の構成について、図1を参照して説明する。
【0030】
テレビ会議システム1は、ネットワーク2を介して相互に接続された端末装置3、4を備えている。端末装置3、4は、別拠点に設けられている。このテレビ会議システム1では、端末装置3、4間において、ネットワーク2を介して、画像、音声が互いに送受信されることで、別拠点にあるユーザ同士の遠隔会議が実施される。本実施形態では、端末装置3が設けられた拠点を自拠点、端末装置4が設けられた拠点を他拠点として説明する。
【0031】
なお、本実施形態では、端末装置3においてユーザがジェスチャーを交えながら会話をしている場合には、端末装置3のユーザの上半身画像を端末装置4に送信し、ユーザがジェスチャーをせずに会話している場合には、ユーザの顔画像を端末装置4に送信する点に特徴がある。
【0032】
端末装置3の電気的構成について、図2を参照して説明する。図2は、端末装置3の電気的構成を示すブロック図である。なお、端末装置3と端末装置4とは全て同じ構成であるので、ここでは端末装置3の構成についてのみ説明し、端末装置4については説明を省略する。
【0033】
端末装置3には、端末装置3の制御を司るコントローラとしてのCPU20が設けられている。CPU20には、BIOS等を記憶したROM21と、各種データを一時的に記憶するRAM22と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、各種記憶エリアを有するハードディスクドライブ31(以下、HDD31)が接続されている。
【0034】
I/Oインタフェイス30には、ネットワーク2と通信するための通信装置25と、マウス27と、ビデオコントローラ23と、キーコントローラ24と、ユーザを撮影するためのカメラ34と、ユーザの音声を取り込むためのマイク35と、CD−ROMドライブ26とが各々接続されている。ビデオコントローラ23には、端末装置4を使用する相手ユーザを表示するディスプレイ28が接続されている。キーコントローラ24には、キーボード29が接続されている。
【0035】
なお、CD−ROMドライブ26に挿入されるCD−ROM114には、端末装置3のメインプログラムや、本発明の通信制御プログラム等が記憶されている。CD−ROM114の導入時には、これら各種プログラムが、CD−ROM114からHDD31にセットアップされて、後述するプログラム記憶エリア313(図3参照)に記憶される。
【0036】
次に、HDD31の各種記憶エリアについて、図3を参照して説明する。HDD31には、カメラ34によって撮影された撮影画像50(図7、図8参照)を記憶する撮影画像データ記憶エリア311と、端末装置3のディスプレイ28に表示される画面データを記憶する表示画面データ記憶エリア312と、各種プログラムを記憶するプログラム記憶エリア313と、プログラムの実行に必要な所定値を記憶する所定値記憶エリア314と、その他の情報記憶エリア315とが少なくとも設けられている。
【0037】
プログラム記憶エリア313には、端末装置3のメインプログラムや、端末装置4との間で遠隔会議を実行するための会議支援プログラム、画像表示に係る本発明の通信制御プログラム等が記憶されている。その他の情報記憶エリア315には、端末装置3で使用されるその他の情報が記憶されている。なお、端末装置3がHDD31を備えていない専用機の場合は、ROM21に各種プログラムが記憶される。
【0038】
次に、RAM22の各種記憶エリアについて、図4を参照して説明する。RAM22には、画像範囲記憶エリア221と、掌動作記憶エリア222と、腕動作記憶エリア223と、動作検出記憶エリア224と、接続端末記憶エリア225と、処理画像記憶エリア226が少なくとも設けられている。画像範囲記憶エリア221には、撮影画像50における送信画像の画像範囲が記憶される。掌動作記憶エリア222には、撮影画像50におけるユーザの掌面積が記憶される掌面積記憶エリア2221と、撮影画像50に基づいて検出されたユーザの掌の形状変化の有無を記憶する掌変化記憶エリア2222とが設けられている。腕動作記憶エリア223には、ユーザの腕の輪郭データが記憶される輪郭データ記憶エリア2231と、ユーザの腕の位置が変化しているか否かを記憶する腕変化記憶エリア2232とが設けられている。動作検出記憶エリア224には、ユーザの動作が検出されたか否かが記憶される。接続端末記憶エリア225には、ネットワーク2を介して現在接続している接続端末の端末IDが記憶される。処理画像記憶エリア226には、画像処理を行うための画像データが記憶される。
【0039】
次に、端末装置3のディスプレイ28に表示される画面について、図5および図6を参照して説明する。端末装置3のディスプレイ28には、端末装置4から送信される相手ユーザの画像が表示される。相手ユーザがジェスチャーを行っていない場合には、図5に示すように、ディスプレイ28には相手ユーザの顔の画像が表示される。相手ユーザがジェスチャーを行っている場合には、図6に示すように、ディスプレイ28には相手ユーザの上半身の画像が表示される。
【0040】
次に、ユーザのジェスチャーを検出する方法について説明する。本実施形態においては、ユーザが掌と腕との両方を動かしている状態を、ユーザがジェスチャーを行っている状態として検出する。
【0041】
はじめに、ユーザの掌の動きを検出する方法について説明する。掌の動きの検出は、カメラ34によって撮影されたユーザの撮影画像50(図7参照)に基づいて行われる。まず、ユーザの撮影画像50から、ユーザの掌領域を抽出する。そして、抽出された掌領域の面積に一定以上の変化がある場合には、掌の動きがあるとして検出する。
【0042】
掌領域の抽出方法は、周知の様々な方法が適用可能であり、例えば、特開2003−346162に記載された方法が適用可能である。まず、RGB表色系で表示される撮影画像50をHSV表色系に変換する。HSV表色系は、色の種類を表す色相H(hue)、色の鮮やかさを表す彩度S(saturation)、そして明るさの程度を表す明度V(value)の3つの要素からなる。RGB表色系からHSV表色系への変換方法は、例えば高木・下田監修「画像解析ハンドブック」(東京大学出版会,pp.485−491,1991年発行)に記載されている。なお、H、S、Vの値の範囲は、下記の通りである。
・ 0≦H≦2π
・ 0≦S≦1
・ 0≦V≦1
【0043】
次に、画像中の手領域である場所を抽出するために、肌色抽出を行う。本実施形態では、肌色領域の閾値を下記のように設定する。
・0.11<H<0.22、
・0.2<S<0.5
色相Hと、彩度Sとが、上述の閾値内にある画素を、肌色画素として抽出する。
【0044】
手領域と背景とを分離するために、肌色画素と非肌色画素とに2値化する。そして、得られた2値画像において、所定範囲内の面積を有する肌色画素部分を掌領域として抽出する。掌領域の抽出は1/30秒ごとに行われる。
【0045】
抽出された掌の面積に所定値以上の変化がある場合には、掌の形状に変化があると検出され、面積に所定値以上の変化がない場合には、掌の形状に変化がないと検出される。
【0046】
次に、ユーザの腕の動きを検出する方法について説明する。腕の動きの検出は、カメラ34によって撮影されたユーザの撮影画像50(図7参照)に基づいて行われる。腕の動きの検出は、周知の方法によって行われ、たとえば、『オプティカルフローを用いた複雑背景下における人物の腕領域の抽出と運動パラメータ推定』(電気学会論文誌C分冊、 Vol.120−C、No.12、pp.1801−1808(2000 12))を用いた方法や、ユーザの撮影画像50から輪郭データを抽出して、輪郭データをもとに検出する方法や、撮影画像50からユーザの掌を検出して、掌の位置の変化をもとに検出する方法が適用可能である。本実施形態では、ユーザの撮影画像50から、ユーザの腕の輪郭データを抽出し、抽出した輪郭データの位置に一定以上の変化がある場合には、腕の動きがあるとして検出する方法を適用する。
【0047】
この方法では、まず、撮影画像50の中から、ユーザの腕の輪郭データを抽出するための抽出領域が指定される。ここでは、ユーザの撮影画像50に存在する一定面積以上の肌色部分が顔領域として抽出され、顔領域より下に存在する肌色部分が掌領域として抽出され、上下方向における顔領域と掌領域との間の領域が、腕の輪郭データを抽出するための抽出領域として指定される。肌色部分の抽出方法は、上述したとおりである。
【0048】
次に、撮影画像50に対してグレースケール化を行い、輪郭データを抽出する。輪郭データを抽出する際は、周知の一次微分法を使用する。一次微分法の輪郭抽出では、各画素における濃度の勾配を求めることによって輪郭の強さと方向とを算出し、濃度値が急激に変化する部分を輪郭データとして抽出する。抽出領域の指定および輪郭データの抽出は、1/30秒ごとに行われる。
【0049】
抽出された輪郭データに変化があれば腕の動きがあると検出され、輪郭データに所定値以上の変化がなければ、腕の動きがないと検出される。
【0050】
次に、撮影画像50の中から、ユーザの顔領域の画像(顔画像51)の範囲を決定する方法について、図7を参照して説明する。顔画像範囲の決定方法は、周知の方法であり、例えば、特開平10−334213に記載された方法が適用可能である。
【0051】
はじめに、ユーザの上半身が撮影された撮影画像50から、ユーザの顔領域が抽出される。撮影画像50からユーザの顔領域を抽出する場合、まず、RGB表色系で表示される撮影画像50をHSV表色系に変換する。そして、HSV表色系に変換された変換画像から、色相Hと、彩度Sとが、上述の閾値内にある画素を、肌色画素として抽出する。顔領域と背景とを分離するために、肌色画素と非肌色画素とに2値化する。HSV表色系への変換方法、肌色画素の抽出方法、2値化の方法は、掌領域の抽出方法で説明した方法と同様である。そして、得られた2値画像において、画像の上半分に存在する肌色画素部分を顔領域として抽出する。
【0052】
次に、顔画像51を切り出すための顔画像範囲を決定する。顔画像範囲を決定する場合、まず、撮影画像50の中から、ユーザの鼻位置を特定する。鼻位置の特定は、顔領域の中心部において隣り合ったふたつの鼻孔部分を検出することにより行う。鼻孔部分には光が照射されないため、暗く撮影される。撮影画像において、顔領域の中心部で暗く撮影された部分を鼻孔として検出し、検出された鼻孔の中心位置を鼻位置として特定する。そして、撮影画像50の画像領域の左下部分を撮影画像50におけるXY座標の原点として、鼻位置の撮影画像50におけるXY座標(x3、y3)を特定する。
【0053】
次に、抽出された顔領域のX座標の最大値と最小値、Y座標の最大値と最小値を検出し、それぞれの値について、鼻位置(x3、y3)との差分を算出する。算出された差分のうちの最も大きい値を第一差分αとし、第一差分αに所定値を加算した第一拡大値Nを算出する。第一拡大値Nを用いて、鼻位置(x3、y3)が顔画像51の中心となるように、顔画像51の範囲を決定する。具体的には、顔画像51の4隅の座標を下記のように決定する。
・ (x3+N、y3+N)
・ (x3+N、y3−N)
・ (x3−N、y3+N)
・ (x3−N、y3−N)
【0054】
次に、撮影画像50の中から、ユーザの上半身領域の画像(上半身画像52)の範囲を決定する方法について、図8を参照して説明する。まず、撮影画像50の中から、撮影画像の色、幾何学的な形状、濃淡パターン、動きなどが、パラメータとして抽出される。次いで、予めHDD31のその他の情報記憶エリア315に記憶された人物画像のパラメータのデータベースが参照されて、抽出された上述の各パラメータと、データベースに記憶されている人物画像のパラメータとのマッチング処理が実行される。そして、データベースに記憶されている人物画像のパラメータと良好に一致する撮影画像の部分が特定される。特定された部分の画像が、ユーザ領域として特定される。次に、撮影画像50の画像領域の左下部分を撮影画像50におけるXY座標の原点として、ユーザ領域のX座標の最大値と最小値とが検出される。
【0055】
次に、撮影画像50の中から、ユーザの鼻位置が検出される。鼻位置の特定方法は上述のとおりである。そして、検出された鼻位置のX座標x3と、検出されたユーザ領域のX座標の最大値と最小値との差分がそれぞれ算出される。差分のうちの大きい値が、第二差分βとされ、第二差分βと所定値Uとを加算した値である第二拡大値Mが算出される。
【0056】
そして、鼻位置(x3、y3)と、第二拡大値Mとをパラメータとして、上半身画像52の範囲が決定される。本実施形態では、鼻位置(x3、y3)が、上半身画像52の左右方向(X方向)において中心に位置し、上下方向(Y方向)において、下端から2/3のところに位置するように、上半身画像52が決定される。具体的には、上半身画像52の4隅の座標は下記のように表される。
・ (x3+M、y3+(M×(2/3)))
・ (x3+M、y3−(M×(4/3)))
・ (x3−M、y3+(M×(2/3)))
・ (x3−M、y3−(M×(4/3)))
【0057】
テレビ会議システム1におけるユーザのジェスチャーを考慮した通信制御処理について図9乃至図15のフローチャートを参照して説明する。本説明では、自拠点側にある端末装置3と、他拠点側にある端末装置4とが会議を行う場合を想定する。端末装置3、4では、カメラ34により撮影された撮影画像50から、ユーザの顔画像51又は上半身画像52を切り出して、他の端末装置に対して送信する「画像送信処理」と、他の端末装置が送信した画像を受信して表示する「画像受信処理」との両方が行われる。そこで、説明の便宜上、自拠点側の端末装置3において「画像送信処理」が実行され、他拠点側の端末装置4において「画像受信処理」が実行される場合を例に説明する。
【0058】
まず、自拠点側の端末装置3のCPU20において実行される画像送信処理について、説明する。端末装置3と端末装置4とが各々ネットワークに接続し、互いに通信を開始すると、図9に示す画像送信処理が開始される。画像送信処理が開始されると、はじめに、カメラ34が駆動され、カメラ34により撮影された撮影画像50の取得が開始される(S1)。カメラ34により撮影された撮影画像50の画像データは、撮影画像データ記憶エリア311に記憶される。
【0059】
撮影画像の取得が開始されると(S1)、顔画像範囲決定処理が行われる(S2)。顔画像範囲決定処理について、図10を参照して説明する。この顔画像範囲決定処理は、図9の画像送信処理のS2で実行されるサブルーチンである。
【0060】
顔画像範囲決定処理が開始されると、まず、RGB表色系である撮影画像50がHSV表色系に変換されて、変換画像として処理画像記憶エリア226に記憶される(S151)。HSV表色系への変換方法は上述のとおりである。そして、処理画像記憶エリア226に記憶された変換画像から、色相Hと、彩度Sとが、上述の閾値内にある画素が、肌色画素として抽出される(S152)。肌色画素の抽出方法は上述のとおりである。顔領域と背景とを分離するために、肌色画素と非肌色画素とが2値化される(S153)。画像の上半分に存在する肌色画素の部分が顔領域として特定される。
【0061】
次に、処理画像記憶エリア226が参照されて、ユーザの鼻位置が特定される(S154)。鼻位置の特定は、顔領域の中心部において隣り合ったふたつの鼻孔部分を検出することにより行われる。鼻孔部分には光が照射されないため、暗く撮影される。顔領域の中心部において暗く撮影された部分が鼻孔として検出され、検出された鼻孔の中心位置が鼻位置として特定される。そして、撮影画像50の画像領域の左下部分を撮影画像50におけるXY座標の原点として、鼻位置の撮影画像50におけるXY座標(x3、y3)が特定され、画像範囲記憶エリア221の鼻位置記憶エリア(図示省略)に記憶される。
【0062】
次に、顔領域について、X座標における最大値x1と最小値x2、Y座標における最大値y1と最小値y2が検出される(S155)。検出されたx1、x2、y1、y2は、画像範囲記憶エリア221の顔領域記憶エリア(図示省略)に記憶される。そして、顔領域記憶エリアと鼻位置記憶エリアとが参照されて、x1とx3との差分a、x3とx2との差分b、y1とy3との差分c、y3とy2との差分dが算出される(S156)。なお、差分a、b、c、dは、下記の式で表すことができる。
・ a=x1−x3
・ b=x3−x2
・ c=y1−y3
・ d=y3−y2
算出された4つの差分a、b、c、dのうちの最も大きい値が、第一差分αとされ、画像範囲記憶エリア221の第一差分記憶エリア(図示省略)に記憶される。
【0063】
そして、第一差分αと所定値記憶エリア314に記憶された所定値Kとを加算した値である第一拡大値Nが算出される(S157)。第一拡大値Nは、下記の式で表される。
・ N=α+K
算出された第一拡大値は、画像範囲記憶エリア221の第一拡大値記憶エリア(図示省略)に記憶される。
【0064】
次に、第一拡大値記憶エリアと、鼻位置記憶エリアとが参照されて、鼻位置のX座標x3から、N大きいX座標(x3+N)と、N小さいX座標(x3−N)とが算出される。鼻位置のY座標y3から、N大きいY座標(y3+N)と、N小さいY座標(y3−N)とが算出される。(x3+N)が、顔画像51におけるX座標の最大値となり、(x3−N)が、顔画像51におけるX座標の最小値となる。(y3+N)が、顔画像51におけるY座標の最大値となり、(y3−N)が顔画像51におけるY座標の最小値となる。そして、このX座標、Y座標の組み合わせからなる4点の座標が算出される。4点の座標は下記のように表される。
・ (x3+N、y3+N)
・ (x3+N、y3−N)
・ (x3−N、y3+N)
・ (x3−N、y3−N)
【0065】
4点の座標は、顔画像51の範囲を示す情報として、画像範囲記憶エリア221に記憶される(S158)。そして、顔画像範囲決定処理を終了して、画像送信処理(図9参照)に戻る。
【0066】
顔画像範囲決定処理(S2)が終了すると、撮影画像データ記憶エリア311と画像範囲記憶エリア221とが参照されて、ユーザの顔画像51に対応する画像データが相手ユーザの使用する端末装置4に送信される(S3)。顔画像51に対応する画像データが端末装置4に送信されると(S3)、ユーザの動作の有無を検出する動作検出処理が行われる(S4)。
【0067】
動作検出処理について、図11を参照して説明する。動作検出処理は、図9の画像送信処理のS4で実行されるサブルーチンである。動作検出処理が開始されると、まず、掌動作検出処理が開始される(S51)。掌動作検出処理は、図11に示す動作検出処理のS51で実行されるサブルーチンである。
【0068】
掌動作検出処理について、図12を参照して説明する。掌動作検出処理が開始されると、まず、RGB表色系である撮影画像50がHSV表色系に変換されて、変換画像として処理画像記憶エリア226に記憶される(S101)。次に、処理画像記憶エリア226が参照されて、変換画像から肌色抽出が行われる(S102)。そして、肌色画素と非肌色画素とが2値化され、得られた2値画像が処理画像記憶エリア226に記憶される(S103)。そして、所定値記憶エリア314と処理画像記憶エリア226とが参照されて、2値画像において、所定範囲の面積を有する肌色画素部分を掌領域として抽出する(S104)。掌領域の抽出は1/30秒ごとに行われる。
【0069】
そして、抽出された掌領域の面積が算出され、掌動作記憶エリア222の掌面積記憶エリア2221に記憶される(S105)。掌面積記憶エリア2221には、例えば60の記憶エリアが設けられ、1/30秒ごとに、それぞれの記憶エリアに掌領域の面積(掌面積)が記憶される。60番目の記憶エリアに掌面積が記憶されると、次は、1番目の記憶エリアに最新の掌面積が上書きされる。そして、所定量のデータが蓄積された段階で、掌面積記憶エリア2221が参照されて、記憶された最大掌面積に対する最小掌面積の割合が、一例として、3/4未満であるか否かが判断される(S106)。記憶された最大掌面積に対する最小掌面積の割合が、一例として3/4未満であれば、掌の形状に変化がある(掌の動きが検出された)として、掌変化記憶エリア2222に「1」が記憶される(S107)。一方、記憶された最大掌面積に対する最小掌面積の割合が、3/4以上であれば、掌の形状には変化がなかった(掌の動きが検出されなかった)として、掌変化記憶エリア2222に「0」が記憶される(S108)。そして、掌動作検出処理を終了して、動作検出処理(図11参照)に戻る。
【0070】
掌動作検出処理(S51)が終了すると、掌変化記憶エリア2222が参照されて、掌の動きが検出されたか否かが判断される(S52)。掌変化記憶エリア2222に、「0」が記憶されており、掌の動きが検出されなかったと判断された場合には(S52:NO)、ユーザの動作は検出されなかったとして、動作検出記憶エリア224に「0」が記憶される(S56)。掌変化記憶エリア2222に、「1」が記憶されており、掌の動きが検出されたと判断された場合には(S52:YES)、続いて腕動作検出処理が行われる(S53)。
【0071】
腕動作検出処理について、図13を参照して説明する。腕動作検出処理は、図11の動作検出処理のS53で実行されるサブルーチンである。動作検出処理が開始されると、まず、ユーザの腕の輪郭データを抽出するための抽出領域が指定される(S131)。ユーザの撮影画像50に存在する一定面積以上の肌色部分が顔領域として抽出され、顔領域より下に存在する肌色部分が掌領域として抽出され、上下方向における顔領域と掌領域との間の領域が、腕の輪郭データを抽出するための抽出領域として指定される。肌色部分の抽出方法は、上述したとおりである。
【0072】
次に、撮影画像50に対してグレースケール化を行い、輪郭データが抽出される(S132)。輪郭データを抽出する際は、周知の一次微分法を使用する。一次微分法の輪郭抽出では、各画素における濃度の勾配を求めることによって輪郭の強さと方向とを算出し、濃度値が急激に変化する部分が輪郭データとして抽出される。抽出領域の指定および輪郭データの抽出は、1/30秒ごとに行われる。
【0073】
抽出された輪郭データは、RAM22の腕動作記憶エリア223の輪郭データ記憶エリア2231に記憶される(S133)。輪郭データ記憶エリア2231には、例えば60の記憶エリアが設けられ、1/30秒ごとに、それぞれの記憶エリアに輪郭データが記憶される。60番目の記憶エリアに輪郭データが記憶されると、次は、1番目の記憶エリアに最新の輪郭データが上書きされる。輪郭データ記憶エリア2231に、所定量のデータが蓄積されると、60の記憶エリアが参照されて、記憶された複数の輪郭データのうちのX座標における最大値と最小値との差分△X1、Y座標の最大値と最小値との差分△Y1とが算出される(S134)。
【0074】
そして、差分△X1、又は差分△Y1のいずれかが、HDD31の所定値記憶エリア314に記憶された所定値よりも大きいか否かが判断される(S135)。差分△X1、又は差分△Y1のいずれかが、HDD31の所定値記憶エリア314に記憶された所定値よりも大きければ(S135:YES)、腕の位置に変化がある(腕の動きが検出された)として、腕変化記憶エリア2232に、「1」が記憶される(S136)。差分△X1、又は差分△Y1のいずれも、HDD31の所定値記憶エリア314に記憶された所定値よりも小さければ(S135:NO)、腕の位置に変化がない(腕の動きが検出されなかった)として、腕変化記憶エリア2232に、「0」が記憶される(S137)。そして、腕動作検出処理を終了して、動作検出処理(図11参照)に戻る。
【0075】
そして、動作検出処理では、腕動作検出処理が終了すると(S53)、腕変化記憶エリア2232が参照されて、腕の動きが検出されたか否かが判断される(S54)。腕変化記憶エリア2232に「0」が記憶されており、腕の動きが検出されていない場合には(S54:NO)、ユーザの動作は検出されなかったとして、動作検出記憶エリア224に「0」が記憶される(S56)。腕変化記憶エリア2232に「1」が記憶されており、腕の動きが検出されたと判断された場合には(S54:YES)、ユーザの動作が検出されたとして、動作検出記憶エリア224に「1」が記憶される(S55)。そして、動作検出処理を終了して、画像送信処理(図9参照)へ戻る。
【0076】
図9に戻り、動作検出処理(S4)が終了すると、動作検出記憶エリア224が参照されて、ユーザの動作が検出されたか否かが判断される(S5)。動作検出記憶エリア224に、「0」が記憶されている場合、動作が検出されなかったと判断されて(S5:NO)、会議終了であるか否かが判断される(S12)。会議終了であるか否かの判断は、ネットワーク2に接続されている端末装置が、自身のほかに1以上あるか否かがを判断することによって行われる。
【0077】
端末装置3、4では、ネットワーク2に接続すると、ネットワーク2に接続したことを示す接続信号が相手側の端末装置に送信される。他の端末装置からの接続信号を受信した場合、接続信号を送信した端末装置の端末IDが、RAM22の接続端末記憶エリア225に記憶される。一方、ネットワーク2への接続を切断すると、ネットワークへの接続を切断したことを示す切断信号が相手側の端末装置に送信される。ネットワーク2に接続されている端末装置が、自身の他には0である場合(S12:YES)、処理を終了する。一方、ネットワーク2に接続されている端末装置が、自身のほかに1以上ある場合(S12:NO)、S1〜S5の処理が繰り返される。すなわち、端末装置3において、ユーザのジェスチャーが検出されない場合(S5:NO)、引き続き、ユーザの顔画像51が端末装置4に送信される(S3)。
【0078】
動作検出記憶エリア224に、「1」が記憶されている場合、動作が検出されたと判断されて(S5:YES)、撮影画像データ記憶エリア311に記憶された撮影画像50からユーザの上半身画像52の範囲が決定される上半身画像範囲決定処理が行われる(S6)。
【0079】
上半身画像範囲決定処理について、図14を参照して説明する。上半身画像範囲決定処理は、図9の画像送信処理のS6で実行されるサブルーチンである。図14に示すように、上半身画像範囲決定処理が開始されると、まず、撮影画像におけるユーザ領域が特定される(S171)。具体的には、撮影画像データ記憶エリア311が参照されて、撮影画像の色、幾何学的な形状、濃淡パターン、動きなどがパラメータとして抽出される。予めHDD31のその他の情報記憶エリア315に記憶された人物画像のパラメータのデータベースが参照されて、抽出された上述の各パラメータと、データベースに記憶されている人物画像のパラメータとのマッチング処理が実行される。そして、データベースに記憶されている人物画像のパラメータと良好に一致する撮影画像の部分が特定される。特定された部分の画像が、ユーザ領域として特定される。次に、撮影画像50の画像領域の左下部分を撮影画像50におけるXY座標の原点として、ユーザ領域のX座標における最大値x4と最小値x5が検出される(S172)。検出されたx4、x5は、画像範囲記憶エリア221のユーザ領域記憶エリア(図示省略)に記憶される。
【0080】
次に、撮影画像50の中から、ユーザの鼻位置が特定される(S173)。鼻位置の特定方法は上述のとおりである。検出された鼻位置のX座標x3は、画像範囲記憶エリア221の鼻位置記憶エリア(図示省略)に記憶される。そして鼻位置記憶エリアとユーザ領域記憶エリアとが参照されて、x3、x4、x5から、x4とx3との差分e、x3とx5との差分fが算出される(S174)。なお、差分e、fは、下記の式で表すことができる。
・ e=x4−x3
・ f=x3−x5
【0081】
算出された2つの差分e、fのうちの大きい値が、第二差分βとされて、画像範囲記憶エリア221の第二差分記憶エリア(図示省略)に記憶される。第二差分βと所定値記憶エリア314に記憶された所定値Uとを加算した値である第二拡大値Mが算出される(S175)。第二拡大値Mは、下記の式で表される。
・ M=β+U
算出された第二拡大値Mは、画像範囲記憶エリア221の第二拡大値記憶エリア(図示省略)に記憶される。
【0082】
次に、第二拡大値記憶エリアと、鼻位置記憶エリアとが参照されて、鼻位置のX座標x3から、M大きいX座標(x3+M)と、M小さいX座標(x3−M)とが算出される。鼻位置のY座標y3から、(M×(2/3))大きいY座標(y3+(M×(2/3)))と、(M×(4/3))小さいY座標(y3−(M×(4/3)))とが算出される。(x3+M)が、上半身画像52におけるX座標の最大値となり、(x3−M)が、上半身画像52におけるX座標の最小値となる。(y3+(M×(2/3)))が、上半身画像52におけるY座標の最大値となり、(y3−(M×(4/3)))が上半身画像52におけるY座標の最小値となる。そして、このX座標、Y座標の組み合わせからなる4点の座標が算出される。4点の座標は下記のように表される。
・ (x3+M、y3+(M×(2/3)))
・ (x3+M、y3−(M×(4/3)))
・ (x3−M、y3+(M×(2/3)))
・ (x3−M、y3−(M×(4/3)))
【0083】
4点の座標は、上半身画像52の範囲を示す情報として、画像範囲記憶エリア221に記憶される(S176)。そして、上半身画像範囲決定処理が終了して、画像送信処理(図9参照)に戻る。
【0084】
図9に戻り、上半身画像範囲決定処理(S6)が終了すると、撮影画像データ記憶エリア311と画像範囲記憶エリア221とが参照されて、撮影画像50から上半身画像52の範囲が切り出されて端末装置4に送信される(S7)。つまり、端末装置3のユーザがジェスチャーを行っていると判断された場合には(S5:YES)、端末装置4に、ユーザの上半身の画像が送信される(S7)。
【0085】
ユーザの上半身画像52が、端末装置4に送信されると(S7)、接続端末記憶エリア225が参照されて、ネットワーク2に接続されている端末装置が、自身の他に1以上あるか否かが判断される(S8)。ネットワーク2に接続されている端末装置が、自身の他には0である場合、会議終了であるとして(S8:YES)、処理を終了する。一方、ネットワーク2に接続されている端末装置が、自身のほかに1以上ある場合、会議は終了していないとして(S8:NO)、ユーザの動作の有無を検出する動作検出処理が再度行われる(S9)。S9の処理はS4と同様であるため説明を省略する。
【0086】
動作検出処理(S9)が終了すると、動作検出記憶エリア224が参照されて、ユーザの動作が検出されたか否かが判断される(S10)。動作検出記憶エリア224に、「1」が記憶されている場合、動作が検出されたと判断され(S10:YES)、ユーザの顔領域および掌領域が、切り出された上半身画像52の範囲に含まれているか否かが判断される(S11)具体的には、まず、撮影画像データ記憶エリア311が参照されて、撮影画像50においてユーザの顔領域および掌領域が抽出される。顔領域と掌領域との抽出方法は上述のとおりである。そして、抽出された顔領域および掌領域のX座標、Y座標の最大値と最小値が検出される。検出された最大値と最小値とが、画像範囲記憶エリア221に記憶された画像範囲内にあるか否かが判断される。
【0087】
検出された掌領域および顔領域が、いずれも画像範囲記憶エリア221に記憶された画像範囲内にあるか否かが判断されると(S11:YES)、S8に戻って会議終了であるか否かが判断される。顔領域および掌領域のいずれかが、画像範囲記憶エリア221に記憶された画像範囲からはみ出していると判断されると(S11:NO)、再度、撮影画像データ記憶エリア311に記憶された撮影画像50からユーザの上半身画像52の範囲が決定される(S6)。決定された上半身画像52の範囲は、最新の画像範囲として画像範囲記憶エリア221に上書きされる。
【0088】
一方、S10において、動作検出記憶エリア224に、「0」が記憶されている場合、ユーザの動作が検出されなかったと判断されて(S10:NO)、会議終了であるか否かが判断される(S12)。ネットワーク2に接続されている端末装置が、自身の他には0である場合、会議終了であるとして(S12:YES)、処理を終了する。ネットワーク2に接続されている端末装置が、自身のほかに1以上ある場合、会議は終了していないとして(S12:NO)、S1の処理に戻る。すなわち、端末装置3において、ユーザの動作が検出されず(S10:NO)、会議が終了していない場合(S12:NO)ユーザの上半身画像52ではなくユーザの顔画像51が、端末装置4に送信される(S3)。
【0089】
次に、他拠点側の端末装置4のCPU20において実行される画像受信処理について、図15のフローチャートを参照して説明する。端末装置3と端末装置4とが各々ネットワークに接続し、互いに通信を開始すると、図15に示す画像受信処理が開始される。画像受信処理が開始されると、端末装置3から送信された画像が受信されたか否かが判断される(S31)。画像が受信されていない場合(S31:NO)、画像が受信されるまで、S31の処理が繰り返される。画像が受信された場合(S31:YES)、受信された画像がビデオコントローラ23によってディスプレイ28に表示される(S32)。
【0090】
上述のように、端末装置3のユーザがジェスチャーを行っている場合には、端末装置3からは、ユーザの上半身画像52に対応する画像データが送信される。一方、端末装置3のユーザがジェスチャーを行っていない場合には、端末装置3からは、ユーザの顔画像51に対応する画像データが送信される。よって、端末装置4のディスプレイ28には、端末装置3のユーザがジェスチャーを行っている場合、ユーザの上半身の画像が表示され(図5参照)、ジェスチャーを行っていない場合、ユーザの顔の画像が表示される(図6参照)。
【0091】
そして、接続端末記憶エリア225が参照されて、ネットワーク2に接続されている端末装置が、自身の他に1以上あるか否かが判断される(S33)。ネットワーク2に接続されている端末装置が、自身の他には0である場合(S33:YES)、処理を終了する。一方、ネットワーク2に接続されている端末装置が、自身のほかに1以上ある場合(S33:NO)、S31に戻り、S31〜S33の処理が繰り返される。
【0092】
以上説明したように、第一実施形態である端末装置3は、ネットワーク2を介して他の端末装置4と相互に接続される。これら端末装置間で、画像、音声を互いに送受信することで遠隔会議を実施するテレビ会議システム1を構成する。このテレビ会議システム1では、遠隔会議中に、端末装置3(又は4)のユーザの動作(ジェスチャー)を検出する。そして、ユーザがジェスチャーを行っていない場合には、相手ユーザの端末装置4(又は3)に対して、ユーザの顔画像51に対応するデータを送信する。ユーザがジェスチャーを行っている場合には、相手ユーザの端末装置4(又は3)に対して、ユーザの上半身画像52に対応するデータを送信する。
【0093】
よって、端末装置3のユーザがジェスチャーを行っている場合、端末装置4のディスプレイ28にはユーザの上半身の画像が表示され(図5参照)、ジェスチャーを行っていない場合、ディスプレイ28にはユーザの顔の画像が表示される(図6参照)。従って、ユーザがジェスチャーで感情を表現しようとした場合、相手ユーザはユーザのジェスチャーを確認することができる。また、ユーザがジェスチャーを行わない場合、相手ユーザは、ユーザの顔の表情を確認できる。よって、異なる拠点にいる会議参加者同士で良好なコミュニケーションをとることができる。また、ユーザがジェスチャーを行わないときは、上半身画像52よりもデータ量の小さい顔画像51の画像データを送信するので、通信負荷を軽減できる。
【0094】
なお、以上説明において、図2に示すカメラ34が本発明の「ユーザ撮影手段」に相当する。図2に示すディスプレイ28が本発明の「表示画面」に相当する。図10に示す顔画像範囲決定処理を実行するCPU20が本発明の「第二画像範囲決定手段」に相当する。図11に示す動作検出処理を実行するCPU20が本発明の「動作検出手段」に相当する。図14に示す上半身画像範囲決定処理を実行するCPU20が本発明の「第一画像範囲決定手段」に相当する。図9に示すS3およびS7の処理を実行するCPU20が本発明の「画像送信手段」に相当する。図14に示すS172の処理を実行するCPU20、および図10に示すS154の処理を実行するCPU20が、本発明の「鼻位置検出手段」に相当する。図15に示すS31の処理を実行するCPU20が本発明の「画像受信手段」に相当する。図15に示すS32の処理を実行するCPU20が本発明の「表示制御手段」に相当する。
【0095】
次に、本発明の第二実施形態である端末装置130について説明する。第一実施形態では、端末装置3、4にユーザが一人ずつの条件で行われる会議を想定している。第二実施形態は、各拠点の端末装置3、4に複数のユーザがいる場合に、その中の発言者を特定し、その発言者をカメラ34の撮影対象とする点が第一実施形態と異なる。なお、第二実施形態の端末装置130は、第一実施形態の端末装置3と同様に、図1に示すテレビ会議システム1を構成するものである。
【0096】
まず、端末装置130の電気的構成について、図16を参照して説明する。端末装置130には、端末装置130の制御を司るコントローラとしてのCPU120が設けられている。CPU120には、BIOS等を記憶したROM121と、各種データを一時的に記憶するRAM122と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、各種記憶エリアを有するハードディスクドライブ131(以下、HDD131)と、音声方向検出装置36と、駆動回路37とが接続されている。音声方向検出装置36には、ユーザの音声が入力されるマイク35が接続されている。音声方向検出装置36は、マイク35に入力される音声の位相差に基づき、音声が発せられた音源の方向を検出する。駆動回路37には、カメラ34を回転移動させるカメラ移動装置38が接続されている。
【0097】
RAM122には、図17に示すように、第一実施形態のRAM22と同様の各種記憶エリア(図4参照)に加えて、音源の方向が検出される音源方向記憶エリア227が設けられている。端末装置130のその他の電気的構成は、第一実施形態の端末装置3(図2参照)と同様の構成を備えている。
【0098】
発言者特定方法について説明する。発言者特定方法としては、周知の種々の方法が適用可能である。例えば、特開平11−341334に記載された方法や、特開2001−339703が適用可能である。本変形例では、はじめに、マイク35に入力される音声の位相差に基づき、音声方向検出装置36によって、音声が発せられた音源の方向を検出する。そして、カメラ移動装置38によって、カメラ34が検出された音源の方向を撮影するように撮影される。次いで、カメラ34の撮影範囲が狭められる。
【0099】
そして、撮影画像の色、幾何学的な形状、濃淡パターン、動きなどがパラメータとして抽出される。次いで、予めHDD31のその他の情報記憶エリア315に記憶された人物画像のパラメータのデータベースが参照されて、抽出された上述の各パラメータと、データベースに記憶されている人物画像のパラメータとのマッチング処理が実行される。そして、データベースに記憶されている人物画像のパラメータと良好に一致する撮影画像の部分が特定される。特定された部分の画像が、発言者の画像として特定される。
【0100】
次に、CPU120による画像送信処理について、図18のフローチャートを参照して説明する。本実施形態においても、端末装置130、端末装置4では、画像を送信する「画像送信処理」と、画像を受信する「画像受信処理」との両方が行われる。「画像受信処理」は、第一実施形態と同様であるため、説明を省略する。
【0101】
端末装置130と端末装置4とが各々ネットワークに接続し、互いに通信を開始すると、図18に示す画像送信処理が開始される。画像送信処理が開始されると、はじめに、カメラ34が駆動され、カメラ34により撮影された撮影画像の取得が開始される(S71)。カメラ34により撮影された撮影画像は、撮影画像データ記憶エリア311に記憶される。
【0102】
次に、マイク35から音声が入力されたか否かが判断される(S84)。マイク35から音声が入力されていない場合、自拠点側に発言者がいないと判断されて(S84:NO)、S71およびS84の処理が繰り返される。
【0103】
一方、マイク35から音声が入力されている場合、自拠点側に発言者がいると判断されて(S84:YES)、マイク35から入力された音声の位相差に基づき、音声方向検出装置36によって音声が発せられた音源の方向が検出される。音源の方向は、音源方向記憶エリア227に記憶される。そして、音源方向記憶エリア227が参照されて駆動回路37によってカメラ移動装置38が駆動され、カメラ34の撮影方向が音源の方向に向けられる。そして、マッチング処理により、発言者の画像が特定される(S85)。特定された発言者の画像は、撮影画像データ記憶エリア311に記憶される。
【0104】
次に、撮影画像データ記憶エリア311に記憶された撮影画像から発言者の顔画像の範囲を決定する顔画像範囲決定処理が行われる(S72)。顔画像範囲決定処理は、第一実施形態と同様のため、説明を省略する。顔画像範囲決定処理が終了すると(S72)、撮影画像データ記憶エリア311と画像範囲記憶エリア221とが参照されて、発言者の顔画像が、送信画像として撮影画像から切り出され、端末装置4に送信される(S73)。
【0105】
発言者の顔画像が端末装置4に送信されると(S73)、発言者の動作の有無を検出する動作検出処理が行われる(S74)。動作検出処理は、第一実施形態と同様であるため説明を省略する。動作検出処理(S74)が終了すると、動作検出記憶エリア224が参照されて、発言者の動作が撮影画像に基づき検出されたか否かが判断される(S75)。動作検出記憶エリア224に、「0」が記憶されている場合、動作が検出されなかったと判断されて(S75:NO)、会議終了であるか否かが判断される(S82)。
【0106】
会議終了である場合(S82:YES)、処理を終了する。一方、ネットワーク2に接続されている端末が、自身のほかに1以上ある場合(S82:NO)、S71〜S75の処理が繰り返される。すなわち、端末装置130において、発言者の動作が検出されず(S75:NO)、会議終了でない場合(S82:NO)、引き続き、発言者の顔画像が送信画像として端末装置4に送信される(S73)。
【0107】
動作検出記憶エリア224に、「1」が記憶されている場合、動作が検出されたと判断されて(S75:YES)、撮影画像データ記憶エリア311に記憶された撮影画像から発言者の上半身画像の範囲を決定する上半身画像範囲決定処理が行われる(S76)。上半身画像範囲決定処理は、第一実施形態と同様のため、説明を省略する。上半身画像範囲決定処理が終了すると、撮影画像データ記憶エリア311と画像範囲記憶エリア221とが参照されて、発言者の上半身画像が、送信画像として撮影画像から切り出され、端末装置4に送信される(S77)。すなわち、端末装置130において、発言者の動作が検出された場合(S75:NO)、発言者の上半身画像が端末装置4に送信される(S77)。
【0108】
発言者の上半身画像が、端末装置4に送信されると(S77)、接続端末記憶エリア225が参照されて、ネットワーク2に接続されている端末が、自身の他に1以上あるか否かが判断される(S78)。ネットワーク2に接続されている端末が、自身の他には0である場合、会議終了であるとして(S78:YES)、処理を終了する。一方、ネットワーク2に接続されている端末が、自身のほかに1以上ある場合、会議は終了していないとして(S78:NO)、発言者の動作の有無を検出する動作検出処理が再度行われる(S79)。
【0109】
動作検出処理(S79)が終了すると、動作検出記憶エリア224が参照されて、発言者の動作が検出されたか否かが判断される(S80)。動作検出記憶エリア224に、「1」が記憶されている場合、動作が検出されたと判断される(S80:YES)。動作が検出されたと判断されると(S80:YES)、発言者の顔領域および掌領域が、切り出された上半身画像範囲に含まれているか否かが、第一実施形態と同一の方法で判断される(S81)。
【0110】
検出された掌領域および顔領域の最大値と最小値とが、すべて画像範囲記憶エリア221に記憶された画像範囲内にあるか否かが判断されると(S81:YES)、S78に戻って会議終了であるか否かが判断される。顔領域および掌領域のいずれかが、画像範囲記憶エリア221に記憶された画像範囲からはみ出していると判断されると(S81:NO)、S71に戻って、処理が繰り返される。
【0111】
S80において、動作検出記憶エリア224に、「0」が記憶されている場合、発言者の動作が検出されなかったと判断され(S80:NO)、会議終了であるか否かが判断される(S82)。ネットワーク2に接続されている端末が、自拠点の端末装置以外に無い場合、会議終了であるとして(S82:YES)、処理を終了する。一方、ネットワーク2に接続されている端末が、自身のほかに1以上ある場合、会議は終了していないとして(S82:NO)、S71の処理に戻る。
【0112】
以上説明したように、第二実施形態である端末装置130は、一拠点に複数のユーザがいる場合は、その中から発言者を特定し、発言者の顔画像又は上半身画像を他の端末装置に送信する。よって、発言者がジェスチャーで感情を表現しようとした場合、他拠点にいるユーザは発言者のジェスチャーを確認することができる。また、発言者がジェスチャーを行わない場合、相手ユーザは、発言者の顔の表情を確認できる。よって、異なる拠点にいる会議参加者同士で、良好なコミュニケーションをとることができる。
【0113】
なお、図18に示すS85の処理を行うCPU120が本発明の「発言者特定手段」に相当する。図18に示すS85の処理において、撮影画像から人物画像を認識するCPU120が本発明の「人物認識手段」に相当する。図16に示す音声方向検出装置36が、本発明の「音声検出手段」に相当する。
【0114】
なお、本発明は上記第一、第二実施形態に限定されるものではなく、種々の変更が可能である。上述の実施の形態では、端末装置3において、取得された撮影画像から顔画像又は上半身画像を切り出して、切り出した画像を他の端末装置4に対して送信する画像送信処理が行われていた。また、端末装置4において、他の端末装置3から送信された撮影画像を受信した。しかしながら本発明はこの構成に限定されず、他の構成であってもよい。
【0115】
例えば、テレビ会議全体を制御するMCU(Multipoint Control Unit)がネットワーク2に接続されている場合には、端末装置3、端末装置4、MCUで以下の処理を行っても良い。端末装置3は、MCUに対して撮影画像を送信する処理を行う。MCUは、端末装置3から送信された撮影画像から、上述の方法により顔画像又は上半身画像を切り出して、切り出した画像を端末装置4に対して送信する処理を行う。端末装置4では、MCUから送信された撮影画像を受信し、ディスプレイ28に表示するする処理を行う。なお、説明の便宜上、端末装置3において画像が送信され、端末装置4において画像が受信される場合を例に説明したが、端末装置3、4では、撮影画像をMCUに対して送信する処理と、MCUから送信された画像を受信する画像受信処理との両方が行われる。
【0116】
また、上述した第一、第二実施形態では、説明の便宜上、2つの端末装置3、4を構成とするテレビ会議システムを一例として説明したが、2つ以上の端末装置を構成とするテレビ会議システムにも適用可能である。
【0117】
また、第二実施形態では、会議に参加する複数ユーザの中から発言者を特定する方法として、マイク35に入力される音声の方向を検出して、検出された方向に発言者が存在すると推定する方法を用いた。発言者の特定方法はこれに限定されず、たとえば、カメラの撮影画像から複数のユーザの唇形の変化をそれぞれ検出して、唇形に変化があるユーザを発言者として特定してもよい。
【0118】
そこで、唇形の変化から、発言者を特定する方法について説明する。この方法では、はじめに、カメラ34の撮影画像から、撮影画像の色、幾何学的な形状、濃淡パターン、動きなどがパラメータとして抽出される。次いで、予めHDD31のその他の情報記憶エリア315に記憶された人物画像のパラメータのデータベースが参照されて、抽出された上述の各パラメータと、データベースに記憶されている人物画像のパラメータとのマッチング処理が実行される。そして、データベースに記憶されている人物画像のパラメータと良好に一致する撮影画像の部分が特定される。特定された部分の画像が、人物の画像として特定される。
【0119】
次に、特定された複数の人物の画像から、それぞれ顔領域が検出される。そして、特定された人物画像の輪郭データが抽出され、顔領域の下側半分において、抽出された輪郭データに変化がある場合には、唇形に変化があるとして検出される。なお、顔領域の検出方法、輪郭データの抽出方法は上述のとおりである。そして、唇形に変化がある人物の画像を発言者の画像として特定する。このようにして、複数の会議参加者から発言者を特定することができる。
【0120】
また、第一、第二実施形態では、掌及び腕の両方の動きが検出された場合に、ユーザの動作が検出されたものとされたが、掌及び腕の動きの少なくともいずれかの動きが検出された場合に、ユーザの動作が検出されたものとしても良い。具体的には、第一、第二実施形態の動作検出処理(図11参照)では、掌の動きが検出され(S52:YES)、かつ腕の動きが検出された場合に(S54:YES)、ユーザの動作が検出されたものとされた(S55)。しかし、S53及びS54の処理は行われず、掌の動きが検出された場合には(S52:YES)、ユーザの動作が検出されたとし(S55)、掌の動きが検出されなければ(S52:NO)、ユーザの動作が検出されなかったとしてもよい(S56)。S51及びS52の処理は行われず、腕の動きが検出された場合には(S54:YES)、ユーザの動作が検出されたとし(S55)、腕の動きが検出されなければ(S54:NO)、ユーザの動作が検出されなかったとしてもよい(S56)。掌の動きが検出されるか(S52:YES)、又は腕の動きが検出された場合(S54:YES)、ユーザの動作が検出されたものとしてもよい(S55)。
【符号の説明】
【0121】
1 テレビ会議システム
2 ネットワーク
3 端末装置
4 端末装置
20 CPU
23 ビデオコントローラ
25 通信装置
28 ディスプレイ
30 インタフェイス
31 ハードディスクドライブ
34 カメラ
35 マイク
36 音声方向検出装置
221 画像範囲記憶エリア
222 掌動作記憶エリア
223 腕動作記憶エリア
224 動作検出記憶エリア
311 撮影画像データ記憶エリア
312 表示画面データ記憶エリア

【特許請求の範囲】
【請求項1】
ネットワークを介して接続された他の通信端末装置と画像及び音声を介した通信を行う通信端末装置であって、
ユーザを撮影する撮影手段と、
前記撮影手段により撮影された撮影画像から、前記ユーザの掌及び腕の少なくともいずれかの動きが所定量以上ある状態を前記ユーザの動作として検出する動作検出手段と、
前記動作検出手段によって前記動作が検出された場合に、前記撮影手段によって撮影された撮影画像の中から、前記ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する第一画像範囲決定手段と、
前記動作検出手段によって前記動作が検出されなかった場合に、前記撮影画像の中から、前記ユーザの前記顔領域の画像の範囲を第二画像範囲として決定する第二画像範囲決定手段と、
前記第一画像範囲決定手段によって決定された前記第一画像範囲の画像、又は前記第二画像範囲決定手段によって決定された前記第二画像範囲の画像を、前記他の通信端末装置に送信する画像送信手段と、
前記他の通信端末装置から送信された前記画像を受信する画像受信手段と、
前記画像受信手段によって前記画像が受信された場合に、前記画像を表示画面に表示させる画像表示制御手段と
を備えた通信端末装置。
【請求項2】
前記動作検出手段は、前記掌及び前記腕の両方に所定量以上の動きがある状態を前記動作として検出することを特徴とする請求項1に記載の通信端末装置。
【請求項3】
前記動作検出手段は、前記掌の形状に所定量以上の変化がある状態を前記掌の動きとして検出することを特徴とする請求項1又は2に記載の通信端末装置。
【請求項4】
前記動作検出手段は、前記腕の位置が所定量以上変化した状態を前記腕の動きとして検出することを特徴とする請求項1乃至3のいずれかに記載の通信端末装置。
【請求項5】
前記撮影画像から前記対象ユーザの鼻位置を検出する鼻位置検出手段をさらに備え、
前記第一画像範囲決定手段は、
前記鼻位置検出手段によって検出された前記鼻位置が、前記第一画像範囲の水平方向における中心点となるように、前記第一画像範囲を決定することを特徴とする請求項1乃至4のいずれかに記載の通信端末装置。
【請求項6】
複数のユーザの中から発言者を特定する発言者特定手段を備え、
前記動作検出手段は、前記発言者特定手段によって特定された前記発言者の掌及び腕の少なくともいずれかの動きが前記所定量以上ある状態を前記発言者の動作として検出し、
前記第一画像範囲決定手段は、前記発言者の顔領域と掌領域と腕領域とを含む上半身画像の範囲を前記第一画像範囲として決定し、
前記第二画像範囲決定手段は、前記発言者の前記顔領域を含む顔画像の範囲を前記第二画像範囲として決定することを特徴とする請求項1乃至5のいずれかに記載の通信端末装置。
【請求項7】
前記撮影手段により撮影された前記撮影画像から人物を認識する人物認識手段と、
前記人物認識手段によって認識された前記人物の口形の変化を検出する口形検出手段と
を備え、
前記発言者特定手段は、
前記口形検出手段によって前記口形の変化が所定量以上検出された人物を前記発言者として特定することを特徴とする請求項6に記載の通信端末装置。
【請求項8】
前記ユーザの音声を検出するとともに、前記音声の方向を検出する音声検出手段を備え、
前記発言者特定手段は、
前記音声検出手段により検出された前記方向にいる人物を前記発言者として特定することを特徴とする請求項6又は7に記載の通信端末装置。
【請求項9】
ネットワークを介して複数の通信端末装置に接続され、前記通信端末装置間で行われる通信を制御する通信制御装置であって、
前記通信端末装置の撮影手段によって撮影され、前記通信端末装置から送信される撮影画像を受信する撮影画像受信手段と、
前記撮影画像受信手段によって受信された前記撮影画像に基づき、前記ユーザの掌及び腕の少なくともいずれかの動きがある状態を前記ユーザの動作として検出する動作検出手段と、
前記動作検出手段によって前記動作が検出された場合に、前記撮影画像の中から、前記ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する第一画像範囲決定手段と、
前記動作検出手段によって前記動作が検出されなかった場合に、前記撮影画像の中から、前記ユーザの前記顔領域を含む顔画像の範囲を第二画像範囲として決定する第二画像範囲決定手段と、
前記第一画像範囲決定手段によって決定された前記第一画像範囲の画像、又は前記第二画像範囲決定手段によって決定された前記第二画像範囲の画像を、前記通信端末装置に送信する画像送信手段と
を備えた通信制御装置。
【請求項10】
ネットワークを介して接続された他の通信端末装置と、画像及び音声を介した通信を行う通信端末装置の通信制御方法であって、
ユーザの掌及び腕の少なくともいずれかの動きがある状態を前記ユーザの動作として検出する動作検出ステップと、
前記動作検出ステップにおいて前記動作が検出された場合に、ユーザを撮影する撮影手段によって撮影された撮影画像の中から、前記ユーザの顔領域と掌領域と腕領域とを含む上半身領域の画像の範囲を第一画像範囲として決定する第一画像範囲決定ステップと、
前記動作検出ステップにおいて前記動作が検出されなかった場合に、前記撮影画像の中から、前記ユーザの前記顔領域の画像の範囲を第二画像範囲として決定する第二画像範囲決定ステップと、
前記第一画像範囲決定ステップにおいて決定された前記第一画像範囲の画像、又は前記第二画像範囲決定手段において決定された前記第二画像範囲の画像を、前記他の通信端末装置に送信する画像送信ステップと、
前記他の通信端末装置から送信された前記画像を受信する画像受信ステップと、
前記画像受信ステップにおいて前記画像が受信された場合に、前記画像を表示画面に表示させる画像表示制御ステップと
を備えた通信端末装置の通信制御方法。
【請求項11】
請求項1乃至8のいずれかに記載の通信端末装置の各種処理手段としてコンピュータを機能させるための通信制御プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate


【公開番号】特開2010−239499(P2010−239499A)
【公開日】平成22年10月21日(2010.10.21)
【国際特許分類】
【出願番号】特願2009−86794(P2009−86794)
【出願日】平成21年3月31日(2009.3.31)
【出願人】(000005267)ブラザー工業株式会社 (13,856)
【Fターム(参考)】