説明

共食支援システム、共食支援方法、共食支援装置およびプログラム

【課題】異なる空間にいるユーザ同士の、卓上の物体を介した相互交流を模擬する。
【解決手段】共食支援装置1Aは、共食支援装置1Bから受信したユーザU2の画像をディスプレイD1に表示させる。また、共食支援装置1Bから受信したユーザU2の食卓の画像をプロジェクタP1に出力し、ユーザU2の食卓を模擬する。さらに、共食支援装置1Bから受信したユーザU2の動作を示す情報に基づいてユーザU2の動作を模擬する模擬情報を生成してプロジェクタP2に出力し、ユーザU2の動作を模擬する。また、共食支援装置1Aは、カメラC1から取得したユーザU1の画像に基づいて、ユーザU1の動作を検出し、動作情報を生成する。共食支援装置1Aは、ユーザU1の画像、ユーザU1の動作情報およびカメラC2から取得したユーザU1の食卓の画像を共食支援装置1Bに送信する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、共食支援システム、共食支援方法、共食支援装置およびプログラムに関する。
【背景技術】
【0002】
食事は、家庭生活の基本要素の一つであり、家族の絆を確認しあい、強めるコミュニケーション活動である。また、食事は、幼児にとっては言語や概念を習得する機会であるなど、家族のコミュニケーションの機会として欠かせない。しかし、仕事や学業など様々な理由で、家族から離れて暮らさなくてはならない人々がいる。このような人々は、家族と食事を共にすることが難しい。これに対し、特許文献1のような、遠隔地同士の人々の会話を支援する技術がある。特許文献1のシステムは、遠隔地同士のコミュニケーションを支援するため、映像取得および伝達手段、音声取得および伝達手段、情報提示手段などが単一システムとして構成されている。このような技術を食卓に導入すれば、互いの顔を見ながら話し、情報を提示することができる。
【0003】
特許文献2には、繊維製品に適用することができる柔軟なディスプレイデバイスが記載されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010−171986号公報
【特許文献2】特表2008−542834号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、家族などと食事を共にするコミュニケーションにおける重要な要素として、相手の顔が見える、話せるといったことに加え、互いを気遣いあうことができるということが挙げられる。互いを気遣い合うというのは、たとえば、食べ物を勧めたり、調味料を渡したりといった、食卓上の物理的なモノを介した相互交流によって、相手の食事を円滑なものにすることである。特許文献1の技術では、このような卓上の物理的なモノを介した相互交流を実現することはできない。
【0006】
本発明は、このような問題に鑑みてなされたものであり、異なる空間にいるユーザ同士の、卓上の物体を介した相互交流を模擬する共食支援システム、共食支援方法、共食支援装置およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の第1の観点に係る共食支援システムは、
第1ユーザが実在する第1の拠点の卓上の自エリアの物体と、該自エリアとの関係を示す関係情報を取得する関係情報取得手段と、
前記関係情報を第2ユーザが実在する第2の拠点に送信する関係情報送信手段と、
前記関係情報に基づいて、前記第1の拠点の卓上の自エリアの物体の位置を検出し、前記第1の拠点の卓上の自エリアの物体の位置を示す位置情報を生成する位置検出手段と、
前記関係情報を受信し、前記関係情報に基づいて、前記第2の拠点の相手エリアに前記第1の拠点の卓上の自エリアを模擬するエリア模擬手段と、
少なくとも前記位置情報に基づいて、前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成する動作検出手段と、
前記動作情報を前記第1の拠点に送信する動作情報送信手段と、
前記動作情報を受信し、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を、前記第1の拠点の卓上の自エリアに模擬する動作模擬手段と、
を備えることを特徴とする。
【0008】
本発明の第2の観点に係る共食支援方法は、
第1ユーザが実在する第1の拠点と第2ユーザが実在する第2の拠点とをネットワークで接続する共食支援システムが実行する共食支援方法であって、
前記第1の拠点の卓上の自エリアの物体と、該自エリアとの関係を示す関係情報を取得する関係情報取得ステップと、
前記関係情報を前記第2の拠点に送信する関係情報送信ステップと、
前記関係情報に基づいて、前記第1の拠点の卓上の自エリアの物体の位置を検出し、前記第1の拠点の卓上の自エリアの物体の位置を示す位置情報を生成する位置検出ステップと、
前記関係情報を受信し、前記関係情報に基づいて、前記第2の拠点の相手エリアに前記第1の拠点の卓上の自エリアを模擬するエリア模擬ステップと、
少なくとも前記位置情報に基づいて、前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成する動作検出ステップと、
前記動作情報を前記第1の拠点に送信する動作情報送信ステップと、
前記動作情報を受信し、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を、前記第1の拠点の卓上の自エリアに模擬する動作模擬ステップと、
を備えることを特徴とする。
【0009】
本発明の第3の観点に係る共食支援装置は、
第1ユーザが実在する第1の拠点に設置され、第2ユーザが実在する第2の拠点に設置された他の共食支援装置とネットワークを介して接続する共食支援装置であって、
前記第1の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第1関係情報を取得する関係情報取得手段と、
前記第1関係情報に基づいて、前記第1の拠点の自エリアの物体の位置を検出し、前記第1の拠点の自エリアの物体の位置を示す第1位置情報を生成する位置検出手段と、
前記他の共食支援装置から前記第2の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第2関係情報と、前記第2の拠点の卓上の自エリアの物体の位置を示す第2位置情報とを受信する第2情報受信手段と、
前記第2関係情報に基づいて、前記第1の拠点の相手エリアに前記第2の拠点の卓上の自エリアを模擬するエリア模擬手段と、
少なくとも前記第1位置情報に基づいて、前記第2の拠点の卓上の自エリアを模擬した前記第1の拠点の相手エリアに対する前記第1ユーザの動作を検出し、前記第1ユーザの動作を示す第1動作情報を生成する動作検出手段と、
前記第1関係情報、前記第1位置情報および前記第1動作情報を送信する第1情報送信手段と、
前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を示す第2動作情報を受信する動作情報受信手段と、
前記第2動作情報および前記第1位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を前記第1の拠点の卓上の自エリアに模擬する動作模擬手段と、
を備えることを特徴とする。
【0010】
本発明の第4の観点に係るプログラムは、コンピュータを、第1ユーザが実在する第1の拠点に設置され、第2ユーザが実在する第2の拠点に設置された他の共食支援装置とネットワークを介して接続する共食支援装置として機能させるプログラムであって、
前記第1の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第1関係情報を取得する関係情報取得手段、
前記第1関係情報に基づいて、前記第1の拠点の自エリアの物体の位置を検出し、前記第1の拠点の自エリアの物体の位置を示す第1位置情報を生成する位置検出手段、
前記他の共食支援装置から、前記第2の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第2関係情報と、前記第2の拠点の卓上の自エリアの物体の位置を示す第2位置情報とを受信する第2情報受信手段、
前記第2関係情報に基づいて、前記第1の拠点の相手エリアに前記第2の拠点の卓上の自エリアを模擬するエリア模擬手段、
少なくとも前記第1位置情報に基づいて、前記第2の拠点の卓上の自エリアを模擬した前記第1の拠点の相手エリアに対する前記第1ユーザの動作を検出し、前記第1ユーザの動作を示す第1動作情報を生成する動作検出手段、
前記第1関係情報、前記第1位置情報および前記第1動作情報を送信する第1情報送信手段、
前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を示す第2動作情報を受信する動作情報受信手段、および、
前記第2動作情報および前記第1位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を前記第1の拠点の卓上の自エリアに模擬する動作模擬手段、
として機能させることを特徴とする。
【発明の効果】
【0011】
本発明によれば、異なる空間にいるユーザ同士の、卓上の物体を介した相互交流を模擬することができる。
【図面の簡単な説明】
【0012】
【図1】本発明の実施の形態1に係る共食支援システムの構成例を示すブロック図である。
【図2】実施の形態1に係る共食支援装置の機能構成例を示すブロック図である。
【図3】実施の形態1におけるユーザの食卓の例を示す図である。
【図4】実施の形態1におけるユーザの動作の例を示す図である。
【図5】実施の形態1に係る共食支援処理の動作の一例を示すフローチャートである。
【図6】本発明の実施の形態2に係る共食支援システムの構成例を示すブロック図である。
【図7】実施の形態2に係る共食支援装置の機能構成例を示すブロック図である。
【図8】実施の形態2におけるユーザの食卓の例を示す図である。
【図9】実施の形態2におけるユーザの動作の例を示す図である。
【図10】本発明の実施の形態3に係る共食支援システムの構成例を示すブロック図である。共
【図11】実施の形態3に係る共食支援装置の機能構成例を示すブロック図である。
【図12】実施の形態3におけるユーザの食卓の例を示す図である。
【図13】食卓上の物体の位置のみを示す画像の例を示す図である。
【図14】実施の形態3におけるユーザの動作の例を示す図である。
【図15】本発明の実施の形態4に係る共食支援システムの構成例を示すブロック図である。
【図16】実施の形態4に係る共食支援装置の機能構成例を示すブロック図である。
【図17】実施の形態4におけるユーザの食卓の例を示す図である。
【図18】実施の形態4におけるユーザの動作の例を示す図である。
【図19】本発明に係る共食支援装置のハードウェア構成の一例を示すブロック図である。
【発明を実施するための形態】
【0013】
本発明において、共食とは、異なる空間にいるユーザ同士が共食支援システムを用いてあたかも同じ空間で食事をしているような感覚で食事をすることである。以下では、第1の拠点に実在するユーザU1および第2の拠点に実在するユーザU2の2人のユーザの共食について説明する。なお、3人以上のユーザの共食は2人の共食の組み合わせによると考える。
【0014】
本発明において、第1の拠点および第2の拠点の卓上には、それぞれ自エリアと相手エリアとが存在する。自エリアとは、ユーザの食卓上の食事に使用するスペースである。一方、相手エリアとは、相手の卓上の自エリアを模擬する空間である。相手エリアは、たとえばユーザの卓上や表示装置の画面上に構成される。関係情報とは、ユーザの卓上の自エリアの物体と該自エリアとの関係を示す情報である。具体的には、ユーザの卓上の自エリアを撮影した画像を示す情報や、ユーザの卓上の自エリアにおける物体の位置や物体の種類を示す情報などである。
【0015】
「模擬する」とは、相手の状態をユーザが認識できるように表現することである。たとえば、相手の卓上の自エリアを模擬する場合は、ユーザが実在する拠点の相手エリアに相手の卓上の自エリアの画像を表示したり、相手の卓上の自エリアの物体の位置を表示したりする。相手の動作を模擬する場合は、相手の動作を表すマークをユーザの卓上の自エリアの対応する場所に表示させたり、相手の動作の対象となった物体を自エリアの対応する位置に移動させたりする。
【0016】
以下に、発明を実施するための形態について図面を参照して詳細に説明する。なお図中、同一または相当部分には同じ符号を付す。
【0017】
(実施の形態1)
図1は、本発明の実施の形態1に係る共食支援システムの構成例を示すブロック図である。共食支援システム100は、ネットワーク8で接続される共食支援装置1Aと共食支援装置1Bとで構成される。共食支援装置1Aおよび共食支援装置1Bは、第1の拠点のユーザU1の食卓および第2の拠点のユーザU2の食卓にそれぞれ設置される。共食支援装置1Aは、ディスプレイD1、プロジェクタP1、プロジェクタP2、カメラC1、カメラC2およびカメラC3と接続している。共食支援装置1Bも同様に、ディスプレイD2、プロジェクタP3、プロジェクタP4、カメラC4、カメラC5およびカメラC6と接続している。なお、共食支援装置1Aおよび共食支援装置1Bは代表して1台ずつ図示するが、3台以上の共食支援装置がネットワーク8に接続されてもよい。
【0018】
図2は、実施の形態1に係る共食支援装置の機能構成例を示すブロック図である。共食支援装置1Aは、受信部11、出力部12、記憶部13、エリア画像取得部14、位置検出部15、ユーザ画像取得部16、動作検出部17および送信部18を備える。なお、共食支援装置1Bは図示しないが、共食支援装置1Aと同一の機能構成である。共食支援装置1Aおよび共食支援装置1Bはネットワーク8で接続している。本実施の形態では食卓上のスペースには、ユーザが食事に使用するスペースである自エリアと、相手の食卓を模擬するスペースである相手エリアとがある。自エリアおよび相手エリアは重複してもよい。
【0019】
カメラC1は、ユーザU1を撮影する。ユーザ画像取得部16は、カメラC1からユーザU1を撮影した画像を示す第1ユーザ画像情報を取得する。
【0020】
カメラC2は、ユーザU1の食卓上の自エリアを撮影する。共食支援装置1Aのエリア画像取得部14は、カメラC2からユーザU1の食卓上の自エリアを撮影した画像を示す第1自エリア画像情報を取得する。
【0021】
送信部18は、ネットワーク8に接続し、第1ユーザ画像情報および第1自エリア画像情報を共食支援装置1Bに送信する。
【0022】
共食支援装置1Bの受信部11は、共食支援装置1Aから、第1自エリア画像情報および第1ユーザ画像情報を受信する。
【0023】
出力部12は、受信部11が受信した第1ユーザ画像情報をディスプレイD2に出力する。ディスプレイD2は、ユーザU1を撮影した画像を表示する。また、出力部12は、受信部11が受信した第1自エリア画像情報をプロジェクタP3に出力する。プロジェクタP3は、第1自エリア画像情報をユーザU2の食卓上の相手エリアに投影することにより、ユーザU1の食卓を模擬する。
【0024】
共食支援装置1Aの位置検出部15は、エリア画像取得部14が取得した第1自エリア画像情報に基づいて、ユーザU1の食卓上の自エリアにある物体の位置を検出し、ユーザU1の食卓上の自エリアにある物体の位置を示す第1位置情報を生成する。記憶部13は、位置検出部15が生成したユーザU1の食卓上の自エリアにある物体の位置を示す第1位置情報を記憶する。なお、ユーザU1の食卓上の自エリアにある物体の位置の検出は、共食支援装置1Aで行ってもよいし、共食支援装置1Bで行ってもよい。共食支援装置1Bで行う場合、共食支援装置1Bは、共食支援装置1Aから受信した第1自エリア画像情報に基づいて、ユーザU1の食卓上の自エリアにある物体の位置を検出する。
【0025】
送信部18は、ネットワーク8に接続し、位置検出部15が生成した第1位置情報を共食支援装置1Bに送信する。
【0026】
共食支援装置1Bの受信部11は、共食支援装置1Aから第1位置情報を受信する。記憶部13は、受信部11が受信した第1位置情報を記憶する。
【0027】
カメラC4は、ユーザU2を撮影する。ユーザ画像取得部16は、カメラC4からユーザU2を撮影した画像を示す第2ユーザ画像情報を取得する。
【0028】
カメラC6は、ユーザU2の食卓上の相手エリアを撮影する。ユーザ画像取得部16は、カメラC6からユーザU2の食卓上の相手エリアを撮影した画像を示す第2相手エリア画像情報を取得する。
【0029】
動作検出部17は、第2ユーザ画像情報および第2相手エリア画像情報を解析し、記憶部13が記憶する第1位置情報を参照して、ユーザU1の食卓上の自エリアを模擬した相手エリアに対するユーザU2の動作を検出する。動作検出部17は、ユーザU2の動作を示す第2動作情報を生成する。相手エリアに対するユーザU2の動作とは、たとえば、ユーザU2の食卓上に模擬したユーザU1の食卓上のある物体をユーザU2が指さす動作などである。なお、動作検出部17は、第2ユーザ画像情報および第2相手エリア画像情報のいずれか一方を解析し、記憶部13が記憶する第2位置情報を参照して、ユーザU2の動作を検出してもよい。また、動作検出部17は、ユーザU2の動作の検出に、エリア画像取得部14がカメラC5から取得したユーザU2の食卓上の自エリアを撮影した画像を示す第2自エリア画像情報をさらに用いてもよい。
【0030】
送信部18は、動作検出部17が生成した第2動作情報を共食支援装置1Aに送信する。
【0031】
共食支援装置1Aの受信部11は、第2動作情報を受信する。
【0032】
出力部12は、受信部11が受信した第2動作情報と、記憶部13が記憶する第1位置情報とに基づいてユーザU2の動作を模擬する模擬情報を生成し、プロジェクタP2に出力する。プロジェクタP2は模擬情報をユーザU1の食卓上の自エリアに投影することにより、ユーザU2の動作を模擬する。たとえば、ユーザU2の動作を表すマークをユーザU1の食卓上のユーザU2の動作に対応する場所または動作の対象となった物体の近傍に表示させる。なお、出力部12が生成する模擬情報の素材となる情報(動作を表すマークなど)は記憶部13が記憶している。
【0033】
以上説明した処理を、ユーザU1とユーザU2を入れ替えて、対称的に同様に行うことによって、ユーザU1とユーザU2がそれぞれ相手エリアに対して行った動作を相手の自エリアに模擬することができる。以下、具体的に説明する。
【0034】
図3は、実施の形態1におけるユーザの食卓の例を示す図である。共食を行うユーザU1およびユーザU2の食卓について説明する。図3(a)は、共食支援装置1AおよびカメラC1、カメラC2、カメラC3、ディスプレイD1、プロジェクタP1およびプロジェクタP2を設置したユーザU1の食卓T1の例である。食卓T1上のスペースは、ユーザU1が食事に使用するスペースである自エリアA1と、ユーザU2の食卓を模擬するスペースである相手エリアA2とに分かれている。自エリアA1には、食器O1、食器O2および食器O3が置かれている。なお、自エリアA1および相手エリアA2は重複してもよい。
【0035】
カメラC1は継続的にユーザU1を撮影する。カメラC1はマイクを内蔵したビデオカメラであって、ユーザ画像取得部16がカメラC1から取得する第1ユーザ画像情報はユーザU1の音声を含む動画である。なお、マイクはカメラC1とは別に共食支援装置1Aに接続してもよい。ユーザ画像取得部16は、カメラC1が撮影したユーザU1の動画を示す第1ユーザ画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第1ユーザ画像情報を共食支援装置1Bに逐次送信する。
【0036】
カメラC2は、自エリアA1の画像を撮影する。共食支援装置1Aのエリア画像取得部14は、カメラC2から自エリアA1の画像を示す第1自エリア画像情報を取得し、位置検出部15に送る。また、エリア画像取得部14は、第1自エリア画像情報を送信部18に送り、送信部18は、第1自エリア画像情報を共食支援装置1Bに送信する。位置検出部15は、第1自エリア画像情報を解析し、自エリアA1上の食器O1、食器O2および食器O3の位置を示す第1位置情報を生成する。位置検出部15は、第1位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第1位置情報を送信部18に送り、送信部18はこれを共食支援装置1Bに送信する。
【0037】
図3(b)は、共食支援装置1BおよびカメラC4、カメラC5、カメラC6、ディスプレイD2、プロジェクタP3およびプロジェクタP4を設置したユーザU2の食卓T2の例である。食卓T2上のスペースは、ユーザU2が食事に使用するスペースである自エリアA3と、ユーザU1の食卓を模擬するスペースである相手エリアA4とに分かれている。自エリアA3には、食器O4、食器O5および食器O6が置かれている。なお、自エリアA3および相手エリアA4は重複してもよい。
【0038】
カメラC4は継続的にユーザU2を撮影する。カメラC4はマイクを内蔵したビデオカメラであって、ユーザ画像取得部16がカメラC4から取得する第2ユーザ画像情報はユーザU2の音声を含む動画である。なお、マイクはカメラC4とは別に共食支援装置1Bに接続してもよい。ユーザ画像取得部16は、カメラC4が撮影したユーザU2の動画を示す第2ユーザ画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第2ユーザ画像情報を共食支援装置1Aに逐次送信する。
【0039】
カメラC5は、自エリアA3の画像を撮影する。共食支援装置1Bのエリア画像取得部14は、カメラC5から自エリアA3の画像を示す第2自エリア画像情報を取得し、位置検出部15に送る。また、エリア画像取得部14は、第2自エリア画像情報を送信部18に送り、送信部18は、第2自エリア画像情報を共食支援装置1Aに送る。位置検出部15は、第2自エリア画像情報を解析し、自エリアA3上の食器O4、食器O5および食器O6の位置を示す第2位置情報を生成する。位置検出部15は、第2位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第2位置情報を送信部18に送り、送信部18はこれを共食支援装置1Aに送信する。
【0040】
図3(a)の共食支援装置1Aの受信部11は、図3(b)の共食支援装置1Bから受信したユーザU2の動画を示す第2ユーザ画像情報を出力部12に送り、出力部12は、第2ユーザ画像情報をディスプレイD1に出力する。ディスプレイD1は液晶ディスプレイなどで構成されており、ユーザU2の動画をほぼリアルタイムに表示し、音声を出力する。一方、図3(b)の共食支援装置1Bの受信部11は、図3(a)の共食支援装置1Aから受信したユーザU1の動画を示す第1ユーザ画像情報を出力部12に送り、出力部12は、第1ユーザ画像情報をディスプレイD2に出力する。ディスプレイD2も同様に液晶ディスプレイなどで構成されており、ユーザU1の動画をほぼリアルタイムに表示し、音声を出力する。これにより、ユーザU1とユーザU2とは、画面を通して顔を見ながら話すコミュニケーションを行うことができる。
【0041】
図3(a)の共食支援装置1Aの受信部11は、図3(b)の共食支援装置1Bから受信した自エリアA3の画像を示す第2自エリア画像情報を出力部12に送り、出力部12は、自エリアA3の画像を示す画像情報をプロジェクタP1に出力する。プロジェクタP1は食卓T1の相手エリアA2に自エリアA3の画像を投影する。相手エリアA2には、食器O4、食器O5および食器O6が置かれている様子が映し出される。これにより、ユーザU1の相手エリアA2にユーザU2の自エリアA3が模擬される。一方、図3(b)の共食支援装置1Bの受信部11は、図3(a)の共食支援装置1Aから受信した自エリアA1の画像を示す第1自エリア画像情報を出力部12に送り、出力部12は、第1自エリア画像情報をプロジェクタP3に出力する。プロジェクタP3は食卓T2の相手エリアA4に自エリアA1の画像を投影する。相手エリアA4には、食器O1、食器O2および食器O3が置かれている様子が映し出される。これにより、ユーザU2の相手エリアA4にユーザU1の自エリアA1が模擬される。
【0042】
なお、共食支援装置1Aのエリア画像取得部14は、カメラC2から定期的または継続的に第1自エリア画像情報を取得することとし、送信部18は、定期的または継続的に第1自エリア画像情報を共食支援装置1Bに送信してもよい。位置検出部15は、記憶部13が記憶する第1位置情報を随時更新する。これにより、ユーザU1が食器O1、食器O2および食器O3を動かした場合も、ユーザU2の相手エリアA4に模擬されるユーザU1の自エリアA1に反映することができる。同様に、共食支援装置1Bのエリア画像取得部14は、カメラC5から定期的に第2自エリア画像情報を取得することとし、送信部18は、定期的または継続的に第2自エリア画像情報を共食支援装置1Aに送信してもよい。
【0043】
図4は、実施の形態1におけるユーザの動作の例を示す図である。図4に示すように、ユーザU1が相手エリアA2に模擬された食器O4、食器O5および食器O6のうち、食器O6を指さしたとする。共食支援装置1Aのユーザ画像取得部16は、カメラC1が撮影したユーザU1の画像を示す第1ユーザ画像情報を取得し、動作検出部17に送る。カメラC3は、食卓T1上の相手エリアA2の画像を撮影し、相手エリアA2の画像を示す第1相手エリア画像情報を動作検出部17に送る。動作検出部17は、受け取った第1ユーザ画像情報および第1相手エリア画像情報を解析し、受信部11が受信した自エリアA3上の食器O4、食器O5および食器O6の位置を示す第2位置情報を参照し、ユーザU1の動作「食器O6を指さした」を検出する。動作検出部17は、動作「食器O6を指さした」を示す第1動作情報を生成し、送信部18は、この第1動作情報を共食支援装置1Bに送信する。動作検出部17は、受け取った第1ユーザ画像情報および第1相手エリア画像情報のいずれか一方を解析し、第2位置情報を参照してユーザU1の動作「食器O6を指さした」を検出してもよい。
【0044】
共食支援装置1Bの受信部11は、共食支援装置1Aから動作「食器O6を指さした」を示す第1動作情報を受信すると、出力部12に送る。出力部12は、この第1動作情報と、記憶部13が記憶する第2位置情報とに基づいて、動作「食器O6を指さした」を模擬する模擬情報を生成する。図4の例では、出力部12は、記憶部13からマークM1(指さしマーク)を読み出し、記憶部13が記憶する自エリアA3上の食器O4、食器O5および食器O6の位置を示す第2位置情報を参照して、相手エリアA4側から指さす向きで食器04の近傍にマークM1(指さしマーク)を表示する模擬情報を生成する。出力部12は生成した模擬情報をプロジェクタP4に出力する。プロジェクタP4は、受け取った模擬情報を自エリアA3に投影する。このように、ユーザU1が相手エリアA2に模擬された食器O6を指さした動作を、ユーザU2の食卓T2の自エリアA3上で模擬する。
【0045】
なお、プロジェクタP1およびプロジェクタP2あるいはプロジェクタP3およびプロジェクタP4は、1つのプロジェクタで実現してもよい。また、カメラC1およびカメラC3あるいはカメラC4およびカメラC6は、1つのカメラで実現してもよい。
【0046】
図5は、実施の形態1に係る共食支援処理の動作の一例を示すフローチャートである。共食支援装置1Aのエリア画像取得部14は、カメラC2からユーザU1の自エリアA1の画像を示す第1自エリア画像情報を取得し、ユーザ画像取得部16は、カメラC1からユーザU1の動画を示す第1ユーザ画像情報を取得する(ステップS11)。位置検出部15は、エリア画像取得部14が取得した第1自エリア画像情報に基づいて、自エリアA1上にある物体の位置を検出し、第1位置情報を生成する(ステップS12)。位置検出部15は、第1位置情報を記憶部13に記憶させる。送信部18は、第1自エリア画像情報、第1ユーザ画像情報および第1位置情報を共食支援装置1Bに送信する(ステップS13)。
【0047】
共食支援装置1Aの受信部11は、共食支援装置1Bから第2自エリア画像情報、第2ユーザ画像情報および第2位置情報を受信する(ステップS14)。記憶部13は第2位置情報を記憶する。出力部12は、第2ユーザ画像情報をディスプレイD1に出力し、ディスプレイD1は、第2ユーザ画像情報を表示する(ステップS15)。また、出力部12は、第2自エリア画像情報をプロジェクタP1に出力し、プロジェクタP1が自エリアA3の画像を相手エリアA2に投影することにより、相手エリアを模擬する(ステップS16)。
【0048】
動作検出部17は、ユーザ画像取得部16が取得した第1ユーザ画像情報およびカメラC3が撮影した相手自エリア画像情報に基づいて、第2位置情報を参照して、ユーザU1の相手エリアA2に対する動作を検出する(ステップS17)。ユーザU1の相手エリアA2に対する動作を検出しない場合(ステップS17;NO)、ステップS20に進む。一方、ユーザU1の相手エリアA2に対する動作を検出した場合(ステップS17;YES)、動作検出部17は、この動作を示す第1動作情報を生成する(ステップS18)。送信部18は、動作検出部17が生成した第1動作情報を共食支援装置1Bに送信する(ステップS19)。
【0049】
出力部12は、受信部11が共食支援装置1Bから第2動作情報を受信したか否かを判定する(ステップS20)。受信部11が共食支援装置1Bから第2動作情報を受信していない場合(ステップS20;NO)、ステップS22に進む。一方、受信部11が共食支援装置1Bから第2動作情報を受信した場合(ステップS20;YES)、出力部12は、記憶部13が記憶する第1位置情報と受信部11が受信した第2動作情報とに基づいて、ユーザU2の動作を模擬する模擬情報を生成し、プロジェクタP2に出力する。プロジェクタP2は、入力された模擬情報を自エリアA3に投影することにより、ユーザU2の動作を模擬する(ステップS21)。電源がOFFになっていない場合(ステップS22;NO)、ステップS11に戻って、ステップS11〜ステップS22を繰り返す。電源がOFFになった場合(ステップS22;YES)、処理を終了する。
【0050】
以上説明したように、本実施の形態の共食支援システム100によれば、異なる空間にいるユーザ同士の、相手の顔を見ながら話すコミュニケーションに加え、卓上の物体を介した相互交流を模擬することができる。相手の動作が自分の食卓上で模擬されることにより、ユーザが同じ空間で食事をしている感覚をより感じることが期待できる。
【0051】
(実施の形態2)
図6は、本発明の実施の形態2に係る共食支援システムの構成例を示すブロック図である。共食支援システム200は、共食支援システム100のプロジェクタP1およびプロジェクタP2に代えて電子テーブルクロスET1を、プロジェクタP3およびプロジェクタP4に代えて電子テーブルクロスET2を備える。実施の形態2では、ユーザの食卓および動作の模擬を電子テーブルクロスによって行う。電子テーブルクロスとは、入力された情報を表示する柔軟なシート状ディスプレイである。また、電子テーブルクロスET1上に接触センサS1を備え、電子テーブルクロスET2上に接触センサS2を備え、それぞれユーザがタッチした位置を検出する。
【0052】
図7は、実施の形態2に係る共食支援装置の機能構成例を示すブロック図である。実施の形態2の共食支援装置1Aおよび共食支援装置1Bは、実施の形態1の共食支援装置1Aおよび共食支援装置1Bと同一の機能構成を有する。実施の形態2では、共食支援装置1Aの出力部12は、受信部11が受信したユーザU2の食卓を撮影した画像を示す第2自エリア画像情報を電子テーブルクロスET1に出力する。また、共食支援装置1Bの出力部12は、受信部11が受信したユーザU1の動作を示す第1動作情報と、記憶部13が記憶する第2位置情報とに基づいてユーザU1の動作を模擬する模擬情報を生成し、電子テーブルクロスET2に出力する。たとえば、ユーザU1の動作を表すマークを電子テーブルクロスET2上の動作が行われた場所または動作の対象となった物体の近傍に表示させる。
【0053】
電子テーブルクロスET1上の接触センサS1は、ユーザU1がタッチした位置を検出し、ユーザU1がタッチした位置を示す接触情報を共食支援装置1Aの動作検出部17に送信する。動作検出部17は、ユーザ画像取得部16が取得したユーザU1の画像を示す第1ユーザ画像情報と、接触センサS1から受信したユーザU1がタッチした位置を示す接触情報とに基づいて、記憶部13が記憶する第2位置情報を参照して、ユーザU1の食卓上に模擬したユーザU2の食卓に対するユーザU1の動作を検出する。そして、動作検出部17は、ユーザU1の動作を示す第1動作情報を生成する。なお、動作検出部17は、接触センサS1から受信したユーザU1がタッチした位置を示す接触情報のみに基づいて、記憶部13が記憶する第2位置情報を参照して、ユーザU1の動作を検出してもよい。
【0054】
共食支援装置1Aの位置検出部15は、エリア画像取得部14が取得したユーザU1の食卓を撮影した画像を示す第1自エリア画像情報に基づいて、ユーザU1の食卓上にある物体の位置を検出し、ユーザU1の食卓上にある物体の位置を示す第1位置情報を生成する。あるいは、電子テーブルクロスET1上に備える接触センサS1が、電子テーブルクロスET1上に置かれた物体の位置と物体の種類とを検出し、検出結果を位置検出部15に送信してもよい。この場合、位置検出部15は、接触センサS1から受信した検出結果に基づいて、第1位置情報を生成する。また、位置検出部15は、エリア画像取得部14が取得した第1自エリア画像情報と、接触センサS1から受信した検出結果とを組み合わせて第1位置情報を生成してもよい。共食支援装置1Bの位置検出部15も同様に、第2位置情報を生成する。
【0055】
図8は、実施の形態2におけるユーザの食卓の例を示す図である。共食を行うユーザU1およびユーザU2の食卓について説明する。図8(a)は、共食支援装置1AおよびカメラC1、カメラC2、ディスプレイD1、電子テーブルクロスET1を設置したユーザU1の食卓T1の例である。食卓T1は、電子テーブルクロスET1で覆われており、電子テーブルクロスET1上に接触センサS1を備える。電子テーブルクロスET1上のスペースは、ユーザU1が食事に使用するスペースである自エリアA1と、ユーザU2の食卓を模擬するスペースである相手エリアA2とに分かれている。自エリアA1には、食器O1、食器O2および食器O3が置かれている。なお、自エリアA1および相手エリアA2は重複してもよい。
【0056】
カメラC1は継続的にユーザU1を撮影する。ユーザ画像取得部16は、カメラC1から第1ユーザ画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第1ユーザ画像情報を共食支援装置1Bに逐次送信する。
【0057】
カメラC2は、自エリアA1の画像を撮影する。共食支援装置1Aのエリア画像取得部14は、カメラC2から自エリアA1の画像を示す第1自エリア画像情報を取得し、位置検出部15に送る。また、エリア画像取得部14は、第1自エリア画像情報を送信部18に送り、送信部18は、第1自エリア画像情報を共食支援装置1Bに送信する。位置検出部15は、自エリアA1の画像を示す第1自エリア画像情報を解析し、自エリアA1上の食器O1、食器O2および食器O3の位置を示す第1位置情報を生成する。位置検出部15は、第1位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第1位置情報を送信部18に送り、送信部18はこれを共食支援装置1Bに送信する。
【0058】
図8(b)は、共食支援装置1AおよびカメラC4、カメラC5、ディスプレイD2、電子テーブルクロスET2を設置したユーザU2の食卓T2の例である。食卓T2は、電子テーブルクロスET2で覆われており、電子テーブルクロスET2上に接触センサS2を備える。電子テーブルクロスET2上のスペースは、ユーザU2が食事に使用するスペースである自エリアA3と、ユーザU1の食卓を模擬するスペースである相手エリアA4とに分かれている。自エリアA3には、食器O4、食器O5および食器O6が置かれている。なお、自エリアA3および相手エリアA4は重複してもよい。
【0059】
カメラC4は継続的にユーザU2を撮影する。ユーザ画像取得部16は、カメラC4が撮影したユーザU2の動画を示す第2ユーザ画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第2ユーザ画像情報を共食支援装置1Aに逐次送信する。
【0060】
カメラC5は、自エリアA3の画像を撮影する。共食支援装置1Bのエリア画像取得部14は、カメラC5から自エリアA3の画像を示す第2自エリア画像情報を取得し、位置検出部15に送る。また、エリア画像取得部14は、第2自エリア画像情報を送信部18に送り、送信部18は、第2自エリア画像情報を共食支援装置1Aに送る。位置検出部15は、第2自エリア画像情報を解析し、自エリアA3上の食器O4、食器O5および食器O6の位置を示す第2位置情報を生成する。位置検出部15は、第2位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第2位置情報を送信部18に送り、送信部18はこれを共食支援装置1Aに送信する。
【0061】
図8(a)の共食支援装置1Aの受信部11は、図8(b)の共食支援装置1Bから受信したユーザU2の動画を示す第2ユーザ画像情報を出力部12に送り、出力部12は、第2ユーザ画像情報をディスプレイD1に出力する。ディスプレイD1は、ユーザU2の動画をほぼリアルタイムに表示し、音声を出力する。一方、図8(b)の共食支援装置1Bの受信部11は、図8(a)の共食支援装置1Aから受信したユーザU1の動画を示す第1ユーザ画像情報を出力部12に送り、出力部12は、第1ユーザ画像情報をディスプレイD2に出力する。ディスプレイD2は、ユーザU1の動画をほぼリアルタイムに表示し、音声を出力する。これにより、ユーザU1とユーザU2とは、画面を通してコミュニケーションを行うことができる。
【0062】
図8(a)の共食支援装置1Aの受信部11は、図8(b)の共食支援装置1Bから受信した自エリアA3の画像を示す第2自エリア画像情報を出力部12に送り、出力部12は、自エリアA3の画像を示す画像情報を電子テーブルクロスET1に出力する。電子テーブルクロスET1は相手エリアA2に自エリアA3の画像を表示する。相手エリアA2には、食器O4、食器O5および食器O6が置かれている様子が表示される。これにより、ユーザU1の相手エリアA2にユーザU2の自エリアA3が模擬される。一方、図8(b)の共食支援装置1Bの受信部11は、図8(a)の共食支援装置1Aから受信した自エリアA1の画像を示す第1自エリア画像情報を出力部12に送り、出力部12は、第1自エリア画像情報を電子テーブルクロスET1に出力する。電子テーブルクロスET1は相手エリアA4に自エリアA1の画像を表示する。相手エリアA4には、食器O1、食器O2および食器O3が置かれている様子が表示される。これにより、ユーザU2の相手エリアA4にユーザU1の自エリアA1が模擬される。なお、電子テーブルクロスET1および電子テーブルクロスET2は、それぞれ第1自エリア画像情報および第2エリア画像を表示する背景として同じテーブルクロスの柄の表示することとしてもよい。
【0063】
図9は、実施の形態2におけるユーザの動作の例を示す図である。図9に示すように、ユーザU1が電子テーブルクロスET1上の相手エリアA2に模擬された食器O4、食器O5および食器O6のうち、食器O6を指さしてタッチしたとする。電子テーブルクロスET1上に備える接触センサS1は、タッチされた位置を検出し、タッチされた位置を示す接触情報を共食支援装置1Aの動作検出部17に送信する。また、ユーザ画像取得部16は、カメラC1から第1ユーザ画像情報を取得し、動作検出部17に送る。動作検出部17は、接触センサS1から受信した接触情報と、ユーザ画像取得部16から受け取った第1ユーザ画像情報とに基づいて、受信部11が受信した自エリアA3上の食器O4、食器O5および食器O6の位置を示す第2位置情報を参照し、ユーザU1の動作「食器O6を指さした」を検出する。動作検出部17は、動作「食器O6を指さした」を示す第1動作情報を生成し、送信部18は、この第1動作情報を共食支援装置1Bに送信する。
【0064】
共食支援装置1Bの受信部11は、共食支援装置1Aから動作「食器O6を指さした」を示す第1動作情報を受信すると、出力部12に送る。出力部12は、この第1動作情報と、記憶部13が記憶する第2位置情報とに基づいて、動作「食器O6を指さした」を模擬する模擬情報を生成する。図9の例では、出力部12は、記憶部13からマークM1(指さしマーク)を読み出し、記憶部13が記憶する自エリアA3上の食器O4、食器O5および食器O6の位置を示す第2位置情報を参照して、相手エリアA4側から指さす向きで食器06の近傍にマークM1(指さしマーク)を表示する模擬情報を生成する。出力部12は生成した模擬情報を電子テーブルクロスET1に出力する。電子テーブルクロスET1は、受け取った模擬情報を自エリアA3に表示する。このように、ユーザU1が相手エリアA2に模擬された食器O6を指さした動作を、ユーザU2の食卓T2の自エリアA3上で模擬する。
【0065】
なお、電子テーブルクロスET1および電子テーブルクロスET2はそれぞれ接触センサS1および接触センサS2を備えず、実施の形態1と同様に、第1の拠点および第2の拠点にそれぞれカメラC3およびカメラC6を備えてもよい。この場合、共食支援装置1Aの動作検出部17は、カメラC3が撮影した相手エリアA2の画像を示す第1相手エリア画像情報と、カメラC1が撮影したユーザU1の画像を示す第1ユーザ画像情報との少なくともいずれかを解析し、第2位置情報を参照してユーザU1の動作を検出する。また、共食支援装置1Bの動作検出部17は、カメラC6が撮影した相手エリアA4の画像を示す第2相手エリア画像情報と、カメラC4が撮影したユーザU2の画像を示す第2ユーザ画像情報との少なくともいずれかを解析し、第1位置情報を参照してユーザU2の動作を検出する。
【0066】
以上説明したように、本実施の形態の共食支援システム200によれば、相手の食卓を電子テーブルクロスで模擬することで、ユーザが同じ空間で食事をしている感覚をより感じることが期待できる。
【0067】
(実施の形態3)
図10は、本発明の実施の形態3に係る共食支援システムの構成例を示すブロック図である。共食支援システム300は、共食支援システム100のプロジェクタP2に代えてマグネットテーブルMT1を、プロジェクタP4に代えてマグネットテーブルMT2を備える。実施の形態3では、ユーザの動作の模擬をマグネットテーブルによって行う。マグネットテーブルとは、天板の裏面に可動式の磁石を備え、天板の上に置かれた物体を検出し、物体の下部に備える磁石と可動式磁石とを天板をはさんで接着することで、物体を移動させることができるテーブルである。
【0068】
また、マグネットテーブルMT1は、RFタグリーダTR1を備え、マグネットテーブルMT1上に置かれる物体にはRFタグが備えられている。RFタグリーダTR1はRFタグを検出し、上におかれた物体を識別する識別情報と、マグネットテーブルMT1上の該物体の位置を示すタグ位置情報を共食支援装置1Aの動作検出部17に送信する。同様にマグネットテーブルMT2は、RFタグリーダTR2を備え、マグネットテーブルMT2上に置かれる物体にはRFタグが備えられている。RFタグリーダTR2はRFタグを検出し、上におかれた物体を識別する識別情報と、マグネットテーブルMT2上の該物体の位置を示すタグ位置情報を共食支援装置1Bの動作検出部17に送信する。
【0069】
図11は、実施の形態3に係る共食支援装置の機能構成例を示すブロック図である。実施の形態3の共食支援装置1Aおよび共食支援装置1Bは、実施の形態1の共食支援装置1Aおよび共食支援装置1Bと同一の機能構成を有する。実施の形態3では、共食支援装置1Aの出力部12は、受信部11が受信したユーザU2の動作を示す第2動作情報と、記憶部13が記憶する第1位置情報または第2位置情報とに基づいて、ユーザU2の動作を模擬する模擬情報を生成し、マグネットテーブルMT1に出力する。たとえば、ユーザU2の動作の対象となったユーザU1の食卓上の物体を検出し、可動式磁石を動かすことでユーザU2の動作と同じ動きをさせて、ユーザU2の動作を模擬する。
【0070】
共食支援装置1Bの動作検出部17は、ユーザ画像取得部16が取得したユーザU2の画像を示す第2ユーザ画像情報と、RFタグリーダTR2から受信した識別情報およびタグ位置情報とに基づいて、記憶部13が記憶する第1位置情報または第2位置情報を参照して、ユーザU2の食卓上に模擬したユーザU1の食卓に対するユーザU2の動作を検出し、第2動作情報を生成する。なお、動作検出部17は、RFタグリーダTR2から受信した識別情報およびタグ位置情報のみに基づいて、記憶部13が記憶する第1位置情報または第2位置情報を参照して、ユーザU2の動作を検出してもよい。
【0071】
なお、共食支援装置1Aの位置検出部15は、エリア画像取得部14が取得したユーザU1の食卓を撮影した画像を示す第1自エリア画像情報に基づいて、ユーザU1の食卓上にある物体の位置を検出し、ユーザU1の食卓上にある物体の位置を示す第1位置情報を生成する。あるいは、RFタグリーダTR1が識別情報およびタグ位置情報を位置検出部15に送信し、位置検出部15は、RFタグリーダTR1から受信した識別情報およびタグ位置情報に基づいて、第1位置情報を生成してもよい。また、位置検出部15は、エリア画像取得部14が取得した第1自エリア画像情報と、RFタグリーダTR1から受信した識別情報およびタグ位置情報とを組み合わせて第1位置情報を生成してもよい。共食支援装置1Bの位置検出部15も同様に、第2位置情報を生成する。
【0072】
図12は、実施の形態3におけるユーザの食卓の例を示す図である。共食を行うユーザU1およびユーザU2の食卓について説明する。図12(a)は、共食支援装置1AおよびカメラC1、カメラC2、ディスプレイD1を設置したユーザU1の食卓(マグネットテーブルMT1)の例である。マグネットテーブルMT1上のスペースは、ユーザU1が食事に使用するスペースである自エリアA1と、ユーザU2の食卓を模擬するスペースである相手エリアA2とが重複している。自エリアA1(相手エリアA2)のユーザU1側には、食器O1、食器O2および食器O3が置かれている。
【0073】
カメラC1は継続的にユーザU1を撮影する。ユーザ画像取得部16は、カメラC1から第1ユーザ画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第1ユーザ画像情報を共食支援装置1Bに逐次送信する。また、ユーザ画像取得部16は、第1ユーザ画像情報を動作検出部17に送る。
【0074】
カメラC2は、自エリアA1(相手エリアA2)のユーザU1側の画像を撮影する。共食支援装置1Aのエリア画像取得部14は、カメラC2から自エリアA1(相手エリアA2)のユーザU1側の画像を示す第1自エリア画像情報を取得し、位置検出部15に送る。また、エリア画像取得部14は、第1自エリア画像情報を送信部18に送り、送信部18は、第1自エリア画像情報を共食支援装置1Bに送信する。位置検出部15は、第1自エリア画像情報を解析し、食器O1、食器O2および食器O3の位置を示す第1位置情報を生成する。位置検出部15は、第1位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第1位置情報を送信部18に送り、送信部18はこれを共食支援装置1Bに送信する。
【0075】
図12(b)は、共食支援装置1BおよびカメラC4、カメラC5、ディスプレイD2、プロジェクタP3およびプロジェクタP4を設置したユーザU2の食卓(マグネットテーブルMT2)の例である。マグネットテーブルMT2上のスペースは、ユーザU2が食事に使用するスペースである自エリアA3と、ユーザU1の食卓を模擬するスペースである相手エリアA4とが重複している。自エリアA3(相手エリアA4)のユーザU2側には、食器O4、食器O5および食器O6が置かれている。
【0076】
カメラC4は継続的にユーザU2を撮影する。ユーザ画像取得部16は、カメラC4からユーザU2を撮影した画像を示す第2ユーザ画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第2ユーザ画像情報を共食支援装置1Aに逐次送信する。
【0077】
カメラC5は、自エリアA3(相手エリアA4)のユーザU2側の画像を撮影する。共食支援装置1Bのエリア画像取得部14は、カメラC5が撮影した自エリアA3(相手エリアA4)のユーザU2側の画像を示す第2自エリア画像情報を取得し、位置検出部15に送る。また、エリア画像取得部14は、第2自エリア画像情報を送信部18に送り、送信部18は、第2自エリア画像情報を共食支援装置1Aに送る。位置検出部15は、第2自エリア画像情報を解析し、自エリアA3(相手エリアA4)のユーザU2側の食器O4、食器O5および食器O6の位置を示す第2位置情報を生成する。位置検出部15は、第2位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第2位置情報を送信部18に送り、送信部18はこれを共食支援装置1Aに送信する。
【0078】
図12(a)の共食支援装置1Aの受信部11は、図12(b)の共食支援装置1Bから受信したユーザU2の動画を示す画像情報を出力部12に送り、出力部12は、第2ユーザ画像情報をディスプレイD1に出力する。ディスプレイD1は、ユーザU2の動画をほぼリアルタイムに表示し、音声を出力する。一方、図12(b)の共食支援装置1Bの受信部11は、図12(a)の共食支援装置1Aから受信したユーザU1の動画を示す第1ユーザ画像情報を出力部12に送り、出力部12は、第1ユーザ画像情報をディスプレイD2に出力する。ディスプレイD2は、ユーザU1の動画をほぼリアルタイムに表示し、音声を出力する。これにより、ユーザU1とユーザU2とは、画面を通して顔を見ながら話すコミュニケーションを行うことができる。
【0079】
図12(a)の共食支援装置1Aの受信部11は、図12(b)の共食支援装置1Bから受信した自エリアA3(相手エリアA4)のユーザU2側の画像を示す第2自エリア画像情報を出力部12に送り、出力部12は、第2自エリア画像情報をプロジェクタP1に出力する。プロジェクタP1はマグネットテーブルMT1の相手エリアA2(自エリアA1)のディスプレイD1側に自エリアA3(相手エリアA4)のユーザU2側の画像を投影する。相手エリアA2(自エリアA1)のディスプレイD1側には、食器O4、食器O5および食器O6が置かれている様子が映し出される。ここで、ユーザU1は、食器O4、食器O5および食器O6が映し出された位置にそれぞれの食器に対応する食器O7、食器O8および食器O9を置く。これにより、ユーザU1の相手エリアA2(自エリアA1)のディスプレイD1側にユーザU2の自エリアA3(相手エリアA4)のユーザU2側が模擬される。
【0080】
一方、図3(b)の共食支援装置1Bの受信部11は、図3(a)の共食支援装置1Aから受信した自エリアA1(相手エリアA2)のユーザU1側の画像を示す第1自エリア画像情報を出力部12に送り、出力部12は、第1自エリア画像情報をプロジェクタP3に出力する。プロジェクタP3はマグネットテーブルMT2の相手エリアA4(自エリアA3)のディスプレイD2側に自エリアA1(相手エリアA2)のユーザU1側の画像を投影する。相手エリアA4(自エリアA3)のディスプレイD2側には、食器O1、食器O2および食器O3が置かれている様子が映し出される。ここで、ユーザU2は、食器O1、食器O2および食器O3が映し出された位置にそれぞれの食器に対応する食器O10、食器O11および食器O12を置く。これにより、ユーザU2の相手エリアA4(自エリアA3)のディスプレイD2側にユーザU1の自エリアA1(相手エリアA2)のユーザU1側が模擬される。
【0081】
なお、共食支援装置1Aの出力部12は、第2自エリア画像情報または第2位置情報に基づいて、自エリアA3(相手エリアA4)のユーザU2側にある物体の位置のみを示す情報を生成し、プロジェクタP1に出力してもよい。同様に共食支援装置1Bの出力部12は、第1自エリア画像情報または第1位置情報に基づいて、自エリアA1(相手エリアA2)のユーザU1側上にある物体の位置のみを示す情報を生成し、プロジェクタP3に出力してもよい。この場合、プロジェクタP1はマグネットテーブルMT1の相手エリアA2(自エリアA1)のディスプレイD1側に自エリアA3(相手エリアA4)のユーザU2側にある物体の位置のみを示す画像を投影する。同様に、プロジェクタP3はマグネットテーブルMT2の相手エリアA4(自エリアA3)のディスプレイD2側に自エリアA1(相手エリアA2)のユーザU1側上にある物体の位置のみを示す画像を投影する。
【0082】
図13は、食卓上の物体の位置のみを示す画像の例を示す図である。共食支援装置1Bの出力部12が共食支援装置1Aから受信した第1自エリア画像情報または第1位置情報に基づいて、自エリアA1(相手エリアA2)のユーザU1側上にある物体の位置のみを示す情報を生成し、プロジェクタP3に出力する場合の例を説明する。図13の例では、共食支援装置1Aの位置検出部15は、エリア画像取得部14が取得したユーザU1の食卓を撮影した画像を示す第1自エリア画像情報に基づいて、自エリアA1(相手エリアA2)のユーザU1側にある物体の位置と物体の種類を検出し、自エリアA1(相手エリアA2)のユーザU1側にある物体の位置と種類を示す第1位置情報を生成する。食器O1、食器O2および食器O3の種類は、それぞれ「茶碗」、「汁椀」、「皿」であったとする。共食支援装置1Bの出力部12は、「茶碗」、「汁椀」、「皿」の位置を示す情報を生成し、プロジェクタP3に出力する。プロジェクタP3は、図13に示すような画像をマグネットテーブルMT1の相手エリアA4(自エリアA3)のディスプレイD2側に投影する。ユーザU2がこれを見て、それぞれの位置に、「茶碗」、「汁椀」、「皿」を置くことで、自エリアA1(相手エリアA2)のユーザU1側が模擬される。
【0083】
図14は、実施の形態3におけるユーザの動作の例を示す図である。図14に示すように、ユーザU2がマグネットテーブルMT2上の自エリアA3(相手エリアA4)のユーザU2側に置かれた食器O5をディスプレイD2側に移動させたとする。マグネットテーブルMT2のRFタグリーダは、食器O5のRFタグを検出し、食器O5を識別する識別情報と、マグネットテーブルMT2上で移動した位置を示すタグ位置情報(X1,Y1)を共食支援装置1Bの動作検出部17に送信する。また、ユーザ画像取得部16は、カメラC4から第2ユーザ画像情報を取得し、動作検出部17に送る。動作検出部17は、RFタグリーダTR2から受信した食器O5を識別する識別情報と、マグネットテーブルMT2上で移動した位置を示すタグ位置情報(X1,Y1)と、ユーザ画像取得部16から受け取った第2ユーザ画像情報とに基づいて、記憶部13が記憶する第2位置情報を参照し、ユーザU2の動作「食器O5を座標(X1,Y1)に移動した」を検出する。動作検出部17は、動作「食器O5を座標(X1,Y1)に移動した」を示す第2動作情報を生成し、送信部18は、この第2動作情報を共食支援装置1Aに送信する。
【0084】
共食支援装置1Aの受信部11は、共食支援装置1Bから動作「食器O5を座標(X1,Y1)に移動した」を示す第2動作情報を受信すると、出力部12に送る。出力部12は、この第2動作情報と、記憶部13が記憶する第2位置情報とに基づいて、動作「食器O5を座標(X1,Y1)に移動した」を模擬する模擬情報を生成する。まず出力部12は、マグネットテーブルMT2の座標(X1,Y1)に対応するマグネットテーブルMT1の座標(X2,Y2)を算出する。そして食器O5に対応する食器O8をマグネットテーブルMT1の座標(X2,Y2)に移動させる模擬情報を生成し、マグネットテーブルMT1に出力する。マグネットテーブルMT1は、食器O8のRFタグを検出し、裏面の可動式磁石を移動させて、食器O8を座標(X2,Y2)に移動させる。このように、ユーザU2が相手エリアA4(自エリアA3)のディスプレイD2側に食器O5を移動した動作を、ユーザU1のマグネットテーブルMT1上の自エリアA1(相手エリアA2)上で模擬する。
【0085】
なお、ユーザU2がマグネットテーブルMT2上の相手エリアA4(自エリアA3)のディスプレイD2側に置かれた食器を移動させた場合、動作検出部17は、RFタグリーダTR2から受信した食器を識別する識別情報と、マグネットテーブルMT2上で移動した位置を示すタグ位置情報と、ユーザ画像取得部16から受け取った第2ユーザ画像情報とに基づいて、記憶部13が記憶する第1位置情報を参照し、ユーザU2の動作を検出する。
【0086】
また、カメラC2は、相手エリアA2(自エリアA1)のディスプレイD1側の食器O4、食器O5および食器O6が映し出された位置にそれぞれの食器に対応する食器O7、食器O8および食器O9を置いた状態で自エリアA1(相手エリアA2)の画像を撮影してもよい。共食支援装置1Aのエリア画像取得部14は、カメラC2から自エリアA1(相手エリアA2)の画像を示す第1自エリア画像情報を取得し、位置検出部15に送る。位置検出部15は、第1自エリア画像情報を解析し、食器O1、食器O2および食器O3と、食器O7、食器O8および食器O9との位置を示す第1位置情報を生成する。位置検出部15は、第1位置情報を記憶部13に送り、記憶部13はこれを記憶する。この場合、出力部12は、受信部11が受信したユーザU2の動作を示す第2動作情報と、記憶部13が記憶する第1位置情報とに基づいて、ユーザU2の動作を模擬する模擬情報を生成し、マグネットテーブルMT1に出力する。動作検出部17は、ユーザ画像取得部16が取得したユーザU1の画像を示す第1ユーザ画像情報と、マグネットテーブルMT1から受信した識別情報およびタグ位置情報とに基づいて、記憶部13が記憶する第1位置情報を参照して、ユーザU1の食卓上に模擬したユーザU2の食卓に対するユーザU1の動作を検出し、第1動作情報を生成する。
【0087】
さらに、実施の形態1と同様に、第1の拠点および第2の拠点にそれぞれカメラC3およびカメラC6を備えてもよい。この場合、共食支援装置1Aの動作検出部17は、カメラC3が撮影した相手エリアA2の画像を示す第1相手エリア画像情報と、カメラC1が撮影したユーザU1の画像を示す第1ユーザ画像情報との少なくともいずれかを解析し、第1位置情報または第2位置情報を参照してユーザU1の動作を検出する。また、共食支援装置1Bの動作検出部17は、カメラC6が撮影した相手エリアA4の画像を示す第2相手エリア画像情報と、カメラC4が撮影したユーザU2の画像を示す第2ユーザ画像情報との少なくともいずれかを解析し、第1位置情報または第2位置情報を参照してユーザU2の動作を検出する。
【0088】
以上説明したように、実施の形態の共食支援システム300によれば、相手の食卓を模擬する際に実際に食器を置き、マグネットテーブル上で食器を移動させてユーザの動作を模擬することで、ユーザが同じ空間で食事をしている感覚をより感じることが期待できる。
【0089】
(実施の形態4)
図15は、本発明の実施の形態4に係る共食支援システムの構成例を示すブロック図である。共食支援システム400は、共食支援システム200のディスプレイD1および電子テーブルクロスET1に代えてタッチパネルディスプレイTD1およびフードプリンタFP1を、ディスプレイD2および電子テーブルクロスET2に代えてタッチパネルディスプレイTD2およびフードプリンタFP2を備える。実施の形態4では、ユーザの食卓の模擬をタッチパネルディスプレイによって行い、ユーザの動作の模擬をフードプリンタによって行う。フードプリンタとは、可食インクで印刷する装置である。実施の形態4では、可食インクとしてケチャップを用いる。
【0090】
図16は、実施の形態4に係る共食支援装置の機能構成例を示すブロック図である。実施の形態4の共食支援装置1Aおよび共食支援装置1Bは、実施の形態1の共食支援装置1Aおよび共食支援装置1Bと同一の機能構成を有する。実施の形態4では、共食支援装置1Aの出力部12は、受信部11が受信したユーザU2およびユーザU2の食卓上の自エリアを撮影した画像を示す第2ユーザ・自エリア画像情報をタッチパネルディスプレイTD1に出力する。タッチパネルディスプレイTD1は、ユーザU2およびユーザU2の食卓上の自エリアの画像を表示することにより、ユーザU2の食卓を模擬する。また、タッチパネルディスプレイTD1は、タッチパネルを備えた液晶ディスプレイなどで構成されている。タッチパネルディスプレイTD1は、ユーザU1がタッチした位置を検出し、ユーザU1がタッチした位置を示す接触情報を生成し、動作検出部17に送信する。
【0091】
動作検出部17は、ユーザ画像取得部16が取得したユーザU1およびユーザU1の食卓上の自エリアの画像を示す第1ユーザ・自エリア画像情報と、タッチパネルディスプレイTD1から受信したユーザU1がタッチした位置を示す接触情報とに基づいて、記憶部13が記憶する第2位置情報を参照して、タッチパネルディスプレイTD1が模擬したU2の食卓に対するユーザU1の動作を検出し、ユーザU1の動作を示す第1動作情報を生成する。なお、動作検出部17は、タッチパネルディスプレイTD1から受信したユーザU1がタッチした位置を示す接触情報のみに基づいて、記憶部13が記憶する第2位置情報を参照して、ユーザU1の動作を検出してもよい。
【0092】
また、共食支援装置1Bの出力部12は、受信部11が受信したユーザU1の動作を示す第1動作情報と、記憶部13が記憶する第2位置情報とに基づいて、ユーザU1の動作を模擬する模擬情報を生成し、フードプリンタFP2に出力する。フードプリンタFP2は模擬情報に基づいて、ユーザU2の食卓上の所定の位置に可食インクで印刷することで、ユーザU1の動作を模擬する。たとえば、ユーザU1がタッチパネルに描いた図柄をユーザU2の食卓上の対応する物体の上にケチャップで描く。
【0093】
図17は、実施の形態4におけるユーザの食卓の例を示す図である。共食を行うユーザU1およびユーザU2の食卓について説明する。図17(a)は、共食支援装置1AおよびカメラC1、タッチパネルディスプレイTD1、フードプリンタFP1を設置したユーザU1の食卓T1の例である。食卓T1上のスペースは、ユーザU1が食事に使用するスペースである自エリアA1であり、タッチパネルディスプレイTD1に表示されたユーザU2の食卓T2の画面上のスペースが、ユーザU2の食卓を模擬するスペースである相手エリアA2である。自エリアA1には、食器O1、食器O2および食器O3が置かれている。
【0094】
カメラC1は継続的にユーザU1および自エリアA1を撮影する。ユーザ画像取得部16は、カメラC1が撮影したユーザU1および自エリアA1の動画を示す第1ユーザ・自エリア画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第1ユーザ・自エリア画像情報を共食支援装置1Bに逐次送信する。また、ユーザ画像取得部16は、第1ユーザ・自エリア画像情報を動作検出部17に送る。
【0095】
位置検出部15は、第1ユーザ・自エリア画像情報を解析し、自エリアA1上の食器O1、食器O2および食器O3の位置を示す第1位置情報を生成する。位置検出部15は、第1位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第1位置情報を送信部18に送り、送信部18はこれを共食支援装置1Bに送信する。
【0096】
図17(b)は、共食支援装置1BおよびカメラC4、タッチパネルディスプレイTD2およびフードプリンタFP2を設置したユーザU2の食卓T2の例である。食卓T2上のスペースは、ユーザU2が食事に使用するスペースである自エリアA3であり、タッチパネルディスプレイTD1に表示されたユーザU1の食卓T1の画面上のスペースが、ユーザU1の食卓を模擬するスペースである相手エリアA4である。自エリアA3には、食器O13が置かれている。図17(b)の例では、食器O13の上にはオムライスが載っている。
【0097】
カメラC4は継続的にユーザU2および自エリアA3を撮影する。ユーザ画像取得部16は、カメラC4が撮影したユーザU2および自エリアA3の動画を示す第2ユーザ・自エリア画像情報を逐次取得し、送信部18は、ユーザ画像取得部16が取得した第2ユーザ・自エリア画像情報を共食支援装置1Aに逐次送信する。
【0098】
位置検出部15は、第2ユーザ・自エリア画像情報を解析し、自エリアA3上の食器O13の位置を示す第2位置情報を生成する。位置検出部15は、第2位置情報を記憶部13に送り、記憶部13はこれを記憶する。また、位置検出部15は、第2位置情報を送信部18に送り、送信部18は第2位置情報を共食支援装置1Aに送信する。
【0099】
図17(a)の共食支援装置1Aの受信部11は、図17(b)の共食支援装置1Bから受信した第2ユーザ・自エリア画像情報を出力部12に送り、出力部12は、第2ユーザ・自エリア画像情報をタッチパネルディスプレイTD1に出力する。タッチパネルディスプレイTD1は、ユーザU2および自エリアA3の動画をほぼリアルタイムに表示し、音声を出力する。一方、図17(b)の共食支援装置1Bの受信部11は、図17(a)の共食支援装置1Aから受信したユーザU1および自エリアA1の動画を示す第1ユーザ・自エリア画像情報を出力部12に送り、出力部12は、第1ユーザ・自エリア画像情報をタッチパネルディスプレイTD2に出力する。タッチパネルディスプレイTD2は、ユーザU1および自エリアA1の動画をほぼリアルタイムに表示し、音声を出力する。これにより、ユーザU1とユーザU2とは、画面を通してコミュニケーションを行うことができる。また、タッチパネルディスプレイTD1の画面上の相手エリアA2に食器O13が置かれている様子が表示されることにより、ユーザU2の自エリアA3が模擬される。タッチパネルディスプレイTD2の画面上の相手エリアA4に食器O1、食器O2および食器O3が置かれている様子が表示されることにより、ユーザU1の自エリアA1が模擬される。
【0100】
図18は、実施の形態4におけるユーザの動作の例を示す図である。図18に示すように、ユーザU1がタッチパネルディスプレイTD1上の相手エリアA2に映し出された食器O13の上のオムライスの上にハートマークM2を描いたとする。タッチパネルディスプレイTD1は、タッチされた位置を検出し、タッチされた位置を示す接触情報を共食支援装置1Aの動作検出部17に送信する。また、ユーザ画像取得部16は、カメラC1が撮影したユーザU1および自エリアA1の動画を示す第1ユーザ・自エリア画像情報を取得し、動作検出部17に送る。動作検出部17は、タッチパネルディスプレイTD1から受信した接触情報と、ユーザ画像取得部16から受け取った第1ユーザ・自エリア画像情報とに基づいて、受信部11が受信した自エリアA3上の食器O13の位置を示す第2位置情報を参照し、ユーザU1の動作「食器O13の上にハートマークM2を描いた」を検出する。動作検出部17は、動作「食器O13の上にハートマークM2を描いた」を示す第1動作情報を生成し、送信部18は、この第1動作情報を共食支援装置1Bに送信する。
【0101】
共食支援装置1Bの受信部11は、共食支援装置1Aから動作「食器O13の上にハートマークM2を描いた」を示す第1動作情報を受信すると、出力部12に送る。出力部12は、この第1動作情報と、記憶部13が記憶する第2位置情報とに基づいて、動作「食器O13の上にハートマークM2を描いた」を模擬する模擬情報を生成する。図18の例では、出力部12は、記憶部13が記憶する自エリアA3上の食器O13の位置を示す第2位置情報を参照して、食器O13の上にハートマークM2を描く指示を出す模擬情報を生成する。出力部12は生成した模擬情報をフードプリンタFP2に出力する。フードプリンタFP2は、受け取った模擬情報に基づいて、自エリアA3上の食器O13の上のオムライスにケチャップでハートマークM2を描く。このように、ユーザU1が相手エリアA2に模擬された食器O13の上のオムライスにハートマークM2を描いた動作を、ユーザU2の食卓T2の自エリアA3上で模擬する。
【0102】
なお、本実施の形態では、可食インクで食品に印刷するフードプリンタを用いたが、フードプリンタはこれに限られない。ユーザが指定した食品の成分を分析してデジタル化した成分情報をネットワークを介して送信し、他のフードプリンタから受信した成分情報に基づいて、食品を生成して提供するフードプリンタを用いてもよい。あるいは、ユーザが指定した食品を示す食品情報を送信し、他のフードプリンタから受信した食品情報に基づいて、食品を生成して提供するフードプリンタを用いてもよい。
【0103】
以上説明したように、実施の形態の共食支援システム400によれば、フードプリンタでユーザの動作を模擬することで、相手の食べ物に間接的に手を加えることができるので、ユーザが同じ空間で食事をしている感覚をより感じることが期待できる。
【0104】
なお、本発明は上述の実施の形態に限られず、これらの実施の形態を組み合わせてもよい。
【0105】
図19は、本発明に係る共食支援装置のハードウェア構成の一例を示すブロック図である。共食支援装置1Aおよび共食支援装置1Bは、図19に示すように、制御部61、主記憶部62、外部記憶部63、操作部64、表示部65および送受信部66を備える。主記憶部62、外部記憶部63、操作部64、表示部65および送受信部66はいずれも内部バス60を介して制御部61に接続されている。
【0106】
制御部61はCPU(Central Processing Unit)等から構成され、外部記憶部63に記憶されている制御プログラム70に従って、共食支援に係る処理を実行する。制御部61は、出力部12、位置検出部15および動作検出部17として機能する。
【0107】
主記憶部62はRAM(Random-Access Memory)等から構成され、外部記憶部63に記憶されている制御プログラム70をロードし、制御部61の作業領域として用いられる。
【0108】
外部記憶部63は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、上述の処理を制御部61に行わせるための制御プログラム70を予め記憶する。また、制御部61の指示に従って、この制御プログラム70が記憶するデータを制御部61に供給し、制御部61から供給されたデータを記憶する。記憶部13は、外部記憶部63に構成される。
【0109】
操作部64はキーボードおよびマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス60に接続するインタフェース装置から構成されている。あらかじめ模擬情報の素材となる情報を入力する場合などは、操作部64を介して、指示が制御部61に供給される。
【0110】
表示部65は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成され、あらかじめ模擬情報の素材となる情報を入力する場合などは、操作画面を表示する。
【0111】
送受信部66は、ネットワークに接続する網終端装置または無線通信装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部66は、共食支援装置1Aと共食支援装置1Bとを、ネットワーク8を介して接続する。送受信部66は、受信部11および送信部18として機能する。
【0112】
入出力部67は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部67は、ディスプレイやカメラなどの機器と接続する。入出力部67は、出力部12、エリア画像取得部14およびユーザ画像取得部16として機能する。
【0113】
その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
【0114】
制御部61、主記憶部62、外部記憶部63、操作部64、内部バス60などから構成される制御処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する共食支援装置1Aおよび共食支援装置1Bを構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで共食支援装置1Aおよび共食支援装置1Bを構成してもよい。
【0115】
また、共食支援装置1Aおよび共食支援装置1Bの機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
【0116】
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
【0117】
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0118】
(付記1)
第1ユーザが実在する第1の拠点の卓上の自エリアの物体と、該自エリアとの関係を示す関係情報を取得する関係情報取得手段と、
前記関係情報を第2ユーザが実在する第2の拠点に送信する関係情報送信手段と、
前記関係情報に基づいて、前記第1の拠点の卓上の自エリアの物体の位置を検出し、前記第1の拠点の卓上の自エリアの物体の位置を示す位置情報を生成する位置検出手段と、
前記関係情報を受信し、前記関係情報に基づいて、前記第2の拠点の相手エリアに前記第1の拠点の卓上の自エリアを模擬するエリア模擬手段と、
少なくとも前記位置情報に基づいて、前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成する動作検出手段と、
前記動作情報を前記第1の拠点に送信する動作情報送信手段と、
前記動作情報を受信し、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を、前記第1の拠点の卓上の自エリアに模擬する動作模擬手段と、
を備えることを特徴とする共食支援システム。
【0119】
(付記2)
前記動作検出手段は、前記第2ユーザを撮影する撮影装置を備え、
前記動作検出手段は、前記撮影装置から前記第2ユーザを撮影した画像を示す画像情報を取得し、前記画像情報および前記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする付記1に記載の共食支援システム。
【0120】
(付記3)
前記エリア模擬手段は、前記関係情報を表示し、前記第2ユーザおよび/または物体が接触した位置を検出する接触センサを有する表示装置を備え、
前記動作検出手段は、前記表示装置から前記第2ユーザおよび/または物体が接触した位置を示す接触情報を取得し、前記接触情報および前記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする付記1または2に記載の共食支援システム。
【0121】
(付記4)
前記表示装置は、前記関係情報を前記第2の拠点の卓上の水平方向の面に表示し、前記水平方向の面上の物体の位置を検出するタグリーダを有し、
前記動作検出手段は、前記表示装置から前記水平方向の面上の物体の位置を示すタグ位置情報を取得し、前記接触情報および前タグ記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする付記3に記載の共食支援システム。
【0122】
(付記5)
前記動作模擬手段は、入力された情報を表示するシート状ディスプレイを備え、
前記動作模擬手段は、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作を表すマークを前記第1ユーザの卓上の前記動作に対応する場所に表示させる模擬情報を生成し、前記シート状ディスプレイに出力し、
前記シート状ディスプレイは、入力された前記模擬情報を前記シート状ディスプレイ上の自エリアに表示することを特徴とする付記1ないし4のいずれかに記載の共食支援システム。
【0123】
(付記6)
前記動作模擬手段は、磁石を用いて上に置かれた物体を移動可能なマグネットテーブルを備え、
前記動作模擬手段は、前記第2の拠点の相手エリアの物体を動かした前記第2ユーザの動作を示す前記動作情報と、前記位置情報とに基づいて、前記第2ユーザの動作に対応する物体を対応する位置に移動させる模擬情報を生成し、前記マグネットテーブルに出力し、
前記マグネットテーブルは、入力された前記模擬情報に基づいて、前記第2ユーザの動作に対応する物体を前記マグネットテーブル上の自エリアの対応する位置に移動させることを特徴とする付記1ないし5のいずれかに記載の共食支援システム。
【0124】
(付記7)
前記動作模擬手段は、入力された情報を可食インクで印刷するフードプリンタを備え、
前記動作模擬手段は、前記第2の拠点の相手エリアに模擬された前記第1の拠点の卓上の自エリアの物体の上にマークを描いた前記第2ユーザの動作を示す前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作に対応する物体の上に前記マークを描く模擬情報を生成し、前記フードプリンタに出力し、
前記フードプリンタは、入力された前記模擬情報に基づいて、前記第1の拠点の卓上の自エリアの前記第2ユーザの動作に対応する物体の上に可食インクで前記マークを描くことを特徴とする付記1ないし6のいずれかに記載の共食支援システム。
【0125】
(付記8)
第1ユーザが実在する第1の拠点と第2ユーザが実在する第2の拠点とをネットワークで接続する共食支援システムが実行する共食支援方法であって、
前記第1の拠点の卓上の自エリアの物体と、該自エリアとの関係を示す関係情報を取得する関係情報取得ステップと、
前記関係情報を前記第2の拠点に送信する関係情報送信ステップと、
前記関係情報に基づいて、前記第1の拠点の卓上の自エリアの物体の位置を検出し、前記第1の拠点の卓上の自エリアの物体の位置を示す位置情報を生成する位置検出ステップと、
前記関係情報を受信し、前記関係情報に基づいて、前記第2の拠点の相手エリアに前記第1の拠点の卓上の自エリアを模擬するエリア模擬ステップと、
少なくとも前記位置情報に基づいて、前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成する動作検出ステップと、
前記動作情報を前記第1の拠点に送信する動作情報送信ステップと、
前記動作情報を受信し、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を、前記第1の拠点の卓上の自エリアに模擬する動作模擬ステップと、
を備えることを特徴とする共食支援方法。
【0126】
(付記9)
前記動作検出ステップでは、撮影装置が前記第2ユーザを撮影し、前記撮影装置から前記第2ユーザを撮影した画像を示す画像情報を取得し、前記画像情報および前記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする付記8に記載の共食支援方法。
【0127】
(付記10)
前記動作検出ステップでは、前記関係情報を表示し、前記第2ユーザおよび/または物体が接触した位置を検出する接触センサを有する表示装置から前記第2ユーザおよび/または物体が接触した位置を示す接触情報を取得し、前記接触情報および前記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする付記8または9に記載の共食支援方法。
【0128】
(付記11)
前記動作検出ステップでは、前記関係情報を前記第2の拠点の卓上の水平方向の面に表示し、前記水平方向の面上の物体の位置を検出するタグリーダを有する前記表示装置から前記水平方向の面上の物体の位置を示すタグ位置情報を取得し、前記接触情報および前タグ記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする付記10に記載の共食支援方法。
【0129】
(付記12)
前記動作模擬ステップでは、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作を表すマークを前記第1ユーザの卓上の前記動作に対応する場所に表示させる模擬情報を生成し、入力された情報を表示するシート状ディスプレイに出力し、
前記シート状ディスプレイは、入力された前記模擬情報を前記シート状ディスプレイ上の自エリアに表示することを特徴とする付記8ないし11のいずれかに記載の共食支援方法。
【0130】
(付記13)
前記動作模擬ステップでは、前記第2の拠点の相手エリアの物体を動かした前記第2ユーザの動作を示す前記動作情報と、前記位置情報とに基づいて、前記第2ユーザの動作に対応する物体を対応する位置に移動させる模擬情報を生成し、磁石を用いて上に置かれた物体を移動可能なマグネットテーブルに出力し、
前記マグネットテーブルは、入力された前記模擬情報に基づいて、前記第2ユーザの動作に対応する物体を前記マグネットテーブル上の自エリアの対応する位置に移動させることを特徴とする付記8ないし12のいずれかに記載の共食支援方法。
【0131】
(付記14)
前記動作模擬ステップでは、前記第2の拠点の相手エリアに模擬された前記第1の拠点の卓上の自エリアの物体の上にマークを描いた前記第2ユーザの動作を示す前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作に対応する物体の上に前記マークを描く模擬情報を生成し、入力された情報を可食インクで印刷するフードプリンタに出力し、
前記フードプリンタは、入力された前記模擬情報に基づいて、前記第1の拠点の卓上の自エリアの前記第2ユーザの動作に対応する物体の上に可食インクで前記マークを描くことを特徴とする付記8ないし13のいずれかに記載の共食支援方法。
【0132】
(付記15)
第1ユーザが実在する第1の拠点に設置され、第2ユーザが実在する第2の拠点に設置された他の共食支援装置とネットワークを介して接続する共食支援装置であって、
前記第1の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第1関係情報を取得する関係情報取得手段と、
前記第1関係情報に基づいて、前記第1の拠点の自エリアの物体の位置を検出し、前記第1の拠点の自エリアの物体の位置を示す第1位置情報を生成する位置検出手段と、
前記他の共食支援装置から前記第2の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第2関係情報と、前記第2の拠点の卓上の自エリアの物体の位置を示す第2位置情報とを受信する第2情報受信手段と、
前記第2関係情報に基づいて、前記第1の拠点の相手エリアに前記第2の拠点の卓上の自エリアを模擬するエリア模擬手段と、
少なくとも前記第1位置情報に基づいて、前記第2の拠点の卓上の自エリアを模擬した前記第1の拠点の相手エリアに対する前記第1ユーザの動作を検出し、前記第1ユーザの動作を示す第1動作情報を生成する動作検出手段と、
前記第1関係情報、前記第1位置情報および前記第1動作情報を送信する第1情報送信手段と、
前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を示す第2動作情報を受信する動作情報受信手段と、
前記第2動作情報および前記第1位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を前記第1の拠点の卓上の自エリアに模擬する動作模擬手段と、
を備えることを特徴とする共食支援装置。
【0133】
(付記16)
コンピュータを、第1ユーザが実在する第1の拠点に設置され、第2ユーザが実在する第2の拠点に設置された他の共食支援装置とネットワークを介して接続する共食支援装置として機能させるプログラムであって、
前記第1の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第1関係情報を取得する関係情報取得手段、
前記第1関係情報に基づいて、前記第1の拠点の自エリアの物体の位置を検出し、前記第1の拠点の自エリアの物体の位置を示す第1位置情報を生成する位置検出手段、
前記他の共食支援装置から、前記第2の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第2関係情報と、前記第2の拠点の卓上の自エリアの物体の位置を示す第2位置情報とを受信する第2情報受信手段、
前記第2関係情報に基づいて、前記第1の拠点の相手エリアに前記第2の拠点の卓上の自エリアを模擬するエリア模擬手段、
少なくとも前記第1位置情報に基づいて、前記第2の拠点の卓上の自エリアを模擬した前記第1の拠点の相手エリアに対する前記第1ユーザの動作を検出し、前記第1ユーザの動作を示す第1動作情報を生成する動作検出手段、
前記第1関係情報、前記第1位置情報および前記第1動作情報を送信する第1情報送信手段、
前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を示す第2動作情報を受信する動作情報受信手段、および、
前記第2動作情報および前記第1位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を前記第1の拠点の卓上の自エリアに模擬する動作模擬手段、
として機能させることを特徴とするプログラム。
【符号の説明】
【0134】
1A、1B 共食支援装置
8 ネットワーク
11 受信部
12 出力部
13 記憶部
14 エリア画像取得部
15 位置検出部
16 ユーザ画像取得部
17 動作検出部
18 送信部
61 制御部
62 主記憶部
63 外部記憶部
64 操作部
65 表示部
66 送受信部
67 入出力部
70 制御プログラム
100、200、300、400 共食支援システム

【特許請求の範囲】
【請求項1】
第1ユーザが実在する第1の拠点の卓上の自エリアの物体と、該自エリアとの関係を示す関係情報を取得する関係情報取得手段と、
前記関係情報を第2ユーザが実在する第2の拠点に送信する関係情報送信手段と、
前記関係情報に基づいて、前記第1の拠点の卓上の自エリアの物体の位置を検出し、前記第1の拠点の卓上の自エリアの物体の位置を示す位置情報を生成する位置検出手段と、
前記関係情報を受信し、前記関係情報に基づいて、前記第2の拠点の相手エリアに前記第1の拠点の卓上の自エリアを模擬するエリア模擬手段と、
少なくとも前記位置情報に基づいて、前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成する動作検出手段と、
前記動作情報を前記第1の拠点に送信する動作情報送信手段と、
前記動作情報を受信し、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を、前記第1の拠点の卓上の自エリアに模擬する動作模擬手段と、
を備えることを特徴とする共食支援システム。
【請求項2】
前記動作検出手段は、前記第2ユーザを撮影する撮影装置を備え、
前記動作検出手段は、前記撮影装置から前記第2ユーザを撮影した画像を示す画像情報を取得し、前記画像情報および前記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする請求項1に記載の共食支援システム。
【請求項3】
前記エリア模擬手段は、前記関係情報を表示し、前記第2ユーザおよび/または物体が接触した位置を検出する接触センサを有する表示装置を備え、
前記動作検出手段は、前記表示装置から前記第2ユーザおよび/または物体が接触した位置を示す接触情報を取得し、前記接触情報および前記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする請求項1または2に記載の共食支援システム。
【請求項4】
前記表示装置は、前記関係情報を前記第2の拠点の卓上の水平方向の面に表示し、前記水平方向の面上の物体の位置を検出するタグリーダを有し、
前記動作検出手段は、前記表示装置から前記水平方向の面上の物体の位置を示すタグ位置情報を取得し、前記接触情報および前タグ記位置情報に基づいて、前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成することを特徴とする請求項3に記載の共食支援システム。
【請求項5】
前記動作模擬手段は、入力された情報を表示するシート状ディスプレイを備え、
前記動作模擬手段は、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作を表すマークを前記第1ユーザの卓上の前記動作に対応する場所に表示させる模擬情報を生成し、前記シート状ディスプレイに出力し、
前記シート状ディスプレイは、入力された前記模擬情報を前記シート状ディスプレイ上の自エリアに表示することを特徴とする請求項1ないし4のいずれか1項に記載の共食支援システム。
【請求項6】
前記動作模擬手段は、磁石を用いて上に置かれた物体を移動可能なマグネットテーブルを備え、
前記動作模擬手段は、前記第2の拠点の相手エリアの物体を動かした前記第2ユーザの動作を示す前記動作情報と、前記位置情報とに基づいて、前記第2ユーザの動作に対応する物体を対応する位置に移動させる模擬情報を生成し、前記マグネットテーブルに出力し、
前記マグネットテーブルは、入力された前記模擬情報に基づいて、前記第2ユーザの動作に対応する物体を前記マグネットテーブル上の自エリアの対応する位置に移動させることを特徴とする請求項1ないし5のいずれか1項に記載の共食支援システム。
【請求項7】
前記動作模擬手段は、入力された情報を可食インクで印刷するフードプリンタを備え、
前記動作模擬手段は、前記第2の拠点の相手エリアに模擬された前記第1の拠点の卓上の自エリアの物体の上にマークを描いた前記第2ユーザの動作を示す前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作に対応する物体の上に前記マークを描く模擬情報を生成し、前記フードプリンタに出力し、
前記フードプリンタは、入力された前記模擬情報に基づいて、前記第1の拠点の卓上の自エリアの前記第2ユーザの動作に対応する物体の上に可食インクで前記マークを描くことを特徴とする請求項1ないし6のいずれか1項に記載の共食支援システム。
【請求項8】
第1ユーザが実在する第1の拠点と第2ユーザが実在する第2の拠点とをネットワークで接続する共食支援システムが実行する共食支援方法であって、
前記第1の拠点の卓上の自エリアの物体と、該自エリアとの関係を示す関係情報を取得する関係情報取得ステップと、
前記関係情報を前記第2の拠点に送信する関係情報送信ステップと、
前記関係情報に基づいて、前記第1の拠点の卓上の自エリアの物体の位置を検出し、前記第1の拠点の卓上の自エリアの物体の位置を示す位置情報を生成する位置検出ステップと、
前記関係情報を受信し、前記関係情報に基づいて、前記第2の拠点の相手エリアに前記第1の拠点の卓上の自エリアを模擬するエリア模擬ステップと、
少なくとも前記位置情報に基づいて、前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を検出し、前記第2ユーザの動作を示す動作情報を生成する動作検出ステップと、
前記動作情報を前記第1の拠点に送信する動作情報送信ステップと、
前記動作情報を受信し、前記動作情報および前記位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を、前記第1の拠点の卓上の自エリアに模擬する動作模擬ステップと、
を備えることを特徴とする共食支援方法。
【請求項9】
第1ユーザが実在する第1の拠点に設置され、第2ユーザが実在する第2の拠点に設置された他の共食支援装置とネットワークを介して接続する共食支援装置であって、
前記第1の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第1関係情報を取得する関係情報取得手段と、
前記第1関係情報に基づいて、前記第1の拠点の自エリアの物体の位置を検出し、前記第1の拠点の自エリアの物体の位置を示す第1位置情報を生成する位置検出手段と、
前記他の共食支援装置から前記第2の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第2関係情報と、前記第2の拠点の卓上の自エリアの物体の位置を示す第2位置情報とを受信する第2情報受信手段と、
前記第2関係情報に基づいて、前記第1の拠点の相手エリアに前記第2の拠点の卓上の自エリアを模擬するエリア模擬手段と、
少なくとも前記第1位置情報に基づいて、前記第2の拠点の卓上の自エリアを模擬した前記第1の拠点の相手エリアに対する前記第1ユーザの動作を検出し、前記第1ユーザの動作を示す第1動作情報を生成する動作検出手段と、
前記第1関係情報、前記第1位置情報および前記第1動作情報を送信する第1情報送信手段と、
前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を示す第2動作情報を受信する動作情報受信手段と、
前記第2動作情報および前記第1位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を前記第1の拠点の卓上の自エリアに模擬する動作模擬手段と、
を備えることを特徴とする共食支援装置。
【請求項10】
コンピュータを、第1ユーザが実在する第1の拠点に設置され、第2ユーザが実在する第2の拠点に設置された他の共食支援装置とネットワークを介して接続する共食支援装置として機能させるプログラムであって、
前記第1の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第1関係情報を取得する関係情報取得手段、
前記第1関係情報に基づいて、前記第1の拠点の自エリアの物体の位置を検出し、前記第1の拠点の自エリアの物体の位置を示す第1位置情報を生成する位置検出手段、
前記他の共食支援装置から、前記第2の拠点の卓上の自エリアの物体と該自エリアとの関係を示す第2関係情報と、前記第2の拠点の卓上の自エリアの物体の位置を示す第2位置情報とを受信する第2情報受信手段、
前記第2関係情報に基づいて、前記第1の拠点の相手エリアに前記第2の拠点の卓上の自エリアを模擬するエリア模擬手段、
少なくとも前記第1位置情報に基づいて、前記第2の拠点の卓上の自エリアを模擬した前記第1の拠点の相手エリアに対する前記第1ユーザの動作を検出し、前記第1ユーザの動作を示す第1動作情報を生成する動作検出手段、
前記第1関係情報、前記第1位置情報および前記第1動作情報を送信する第1情報送信手段、
前記第1の拠点の卓上の自エリアを模擬した前記第2の拠点の相手エリアに対する前記第2ユーザの動作を示す第2動作情報を受信する動作情報受信手段、および、
前記第2動作情報および前記第1位置情報に基づいて、前記第2ユーザの動作または前記第2ユーザの動作の結果を前記第1の拠点の卓上の自エリアに模擬する動作模擬手段、
として機能させることを特徴とするプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate


【公開番号】特開2013−25333(P2013−25333A)
【公開日】平成25年2月4日(2013.2.4)
【国際特許分類】
【出願番号】特願2011−156175(P2011−156175)
【出願日】平成23年7月14日(2011.7.14)
【出願人】(000004237)日本電気株式会社 (19,353)
【出願人】(899000079)学校法人慶應義塾 (742)
【出願人】(509034605)ナショナル ユニバーシティ オブ シンガポール (4)
【Fターム(参考)】