行動記録入力支援システム、行動入力支援方法、及びサーバ
【課題】 センサによって測定した利用者の動き、状態を利用して行動の候補を提示することにより行動記録入力時の負担を軽減する。
【解決手段】 監視対象に装着したセンサノードによって監視対象の動きや状態を測定したセンシングデータから、同一動作の繰り返し期間、同一状態の連続期間を抽出し、当該期間を区切りとしたシーン領域データを表示し、表示したシーン領域データを選択されると、利用者の行動内容を確定することにより、利用者の行動入力時の負担を軽減する。
【解決手段】 監視対象に装着したセンサノードによって監視対象の動きや状態を測定したセンシングデータから、同一動作の繰り返し期間、同一状態の連続期間を抽出し、当該期間を区切りとしたシーン領域データを表示し、表示したシーン領域データを選択されると、利用者の行動内容を確定することにより、利用者の行動入力時の負担を軽減する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、監視対象の生体情報や動作情報、周辺情報に関するセンサデータから監視対象の行動内容を測定する装置によって、複数種類の行動履歴を収集し、それら行動履歴から利用者の行動記録入力を支援する技術に関する。
【背景技術】
【0002】
近年、人の行動内容を大量に記録・蓄積し、その大規模データを解析することにより、新たな知見を得たり、サービスを提供したりすることに期待が寄せられている。すでにインターネットの世界では検索キーワードや購買履歴を活用して、個々人に対してその人が欲しがりそうな商品のリコメンド広告を発信するなどの仕組みが確立されている。
【0003】
これは実世界においても同様な仕組みが考えられる。例えば日々の業務内容を記録して解析することにより組織の業務効率の向上を図ったり、日々の生活記録を付けることにより、食事、運動、生活の規則正しさを評価し、生活習慣病予防を目的としたヘルスケアサービスを提供したり、たくさんの人の生活記録と購買履歴を分析することにより、特定の生活パターンで生活する人に対して、それらの人がよく買う商品をリコメンド広告するなどの応用が考えられる。
【0004】
一方、現実世界の様々な情報をリアルタイムに情報処理装置に取り込むネットワークシステムが検討されている。このネットワークシステムには幅広い応用が考えられており、加速度や脈拍等の利用者の生体情報や作業状況、購買情報等の利用者の行動をモニタし、これら様々な情報を組み合わせて、利用者の状況を判定するといったような応用も提案されている。
【0005】
また、ある時刻におけるセンシング情報と利用者の状況を利用者の入力により紐付け、それら紐付けたデータを用いて利用者の状況を推測し、確信度の高い順に列挙する技術が知られている(例えば、特許文献1参照)。
【0006】
また、カーナビゲーション等の経路探索時の到達確率に応じて表示態様を変える技術が知られている(例えば、特許文献2参照)。特許文献2では、過去の移動履歴に基づき到達確率を算出し、到達確率に応じて経路を色分けして表示する。
【0007】
また、状況の履歴及び現在の状況に応じて目的地予測を行い、予測された目的地周辺情報を予め取得しておくことによって、予測目的地周辺情報を確率の高い順に表示する、文字の大きさ、太字、色を変えるなどして画面に表示する技術が知られている(例えば、特許文献3参照)。
【0008】
この他、利用者が入力した行動開始時のコメント及び行動終了時または次の行動開始時のコメント間の行動を確信度に基づいて推測する技術(例えば、特許文献4参照)や、利用者の行動を画像化する技術が知られている(例えば、特許文献5参照)。
【0009】
【特許文献1】特開2004−287539号
【特許文献2】特開2008−70377号
【特許文献3】特開2005−30982号
【特許文献4】特開2005−62963号
【特許文献5】特開2005−122291号
【発明の開示】
【発明が解決しようとする課題】
【0010】
日々の行動を記録、解析することに多くの有用なサービスを提供できることが期待できるが、毎日の行動内容を時刻も含めて正確に記録することは、ユーザに対してかなりの負担を強いる作業になる。そこで例えば身体に装着したセンサを用いて行動を自動的に取得する方法であれば、かなりの労力低減につながる。
【0011】
しかしながら、行動は単一の動作の繰り返しではなく、複数の動作が組み合わされて1つの行動が形成される。また、行動にはゆらぎがあり、同一の行動でもセンシングデータの波形が等しくなるとは限らない。例えば、監視対象が人の場合、同じ行動であっても、同じ動きを取ることは稀であり、センシングデータは等しくならない。監視対象が機器の場合、行動は稼動状態に対応するが、外的要因により動作が動的に変化するものがあり、監視対象が人の場合と同様の問題がある。ここで、ゆらぎとは、同一の行動の中には、行動する時間幅、動作の順序、動作の大きさ、等によって複数のパターンが存在することを意味する。
【0012】
上記従来例では、センサノードを装着した監視対象の行動について、歩行、運動、安静といった大まかな動作を自動的に識別することは可能である。しかし、監視対象が人の場合には、通勤、デスクワーク、会議、出張、家事、映画鑑賞、身支度、買い物、食事、等の利用者の行動、監視対象が機器の場合には、通常稼動、高稼働、低稼働、等の機器の行動である稼動状態、等の何をしていたかに相当する行動内容を判定することはできない。行動は複数の動作状態の組合せで構成され、それぞれの動作状態は実際に行った行動の一部でしかない。
【0013】
また、従来例のように、既定した時間間隔単位におけるセンシングデータの基準パターンとの比較による行動の判定では、行動のゆらぎに対応できないこと、センシングデータの変化点を行動の変化点として区切る行動抽出では、同一の行動の区間が断続的に現れる場合、1つの行動が複数に区切られ、それぞれに行動が割り当てられる場合などがあること、等の理由により、行動の判定精度が低下する課題がある。
【0014】
以上、上記従来例のように、単一の動作の繰り返し検出や予め既定したセンシングデータの基準パターンとの比較では、監視対象の行動を抽出することができない。そのため、これら具体的な行動については、ユーザが行動内容を逐一入力する必要があり、全ての行動についてユーザがそれぞれ内容を入力するには、多大な労力が必要となる、という問題があった。
【0015】
そこで本発明は、上記課題に鑑みてなされたもので、センサの測定データから判定した監視対象の行動パターン及び計算機の利用状況等の行動を表す様々な情報を組み合わせて利用して、監視対象の行動パターンを推定し、利用者の行動内容の入力を簡易にすることを目的とする。
【課題を解決するための手段】
【0016】
本願において開示される発明のうち代表的なものの概要を簡単に説明すれば下記の通りである。
【0017】
すなわち、センサノードと、基地局と、サーバとからなる行動記録入力支援システムである。センサノードは、監視対象に装着されて、センサと、センサが取得したセンシングデータをサーバに送信する通信部とを有する。基地局は、ネットワークを介してサーバに接続され、受信するセンシングデータをサーバに送信する。サーバは、センシングデータを蓄積するデータ格納部と、データ格納部に蓄積されたセンシングデータから監視対象の動作状態を検出するシーン分割部と、データ格納部に格納されるシーン判定ルールに基づいて動作状態から監視対象の行動内容の候補を複数算出するシーン列挙部と、接続される表示部に複数の行動内容の候補を表示し、表示された複数の行動内容の候補から特定の行動内容が選択されると、監視対象の行動内容を確定してデータ格納部に格納する行動獲得部とを有する。
【発明の効果】
【0018】
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば下記の通りである。
【0019】
すなわち、したがって、本発明は、監視対象の動作状態から複数の行動内容を推定し、各時間帯に行動内容の候補を提示することにより、監視対象の行動パターンに対する行動内容の入力を簡易にすることでき、行動履歴の作成に要する労力を低減できる。
【発明を実施するための最良の形態】
【0020】
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0021】
<第1の実施の形態>
本発明を適用する第1の実施例として、人に装着したセンサによって測定したセンシングデータから抽出したシーンを、人の生活行動の候補として提示することによって生活行動の記録を支援するライフログシステムを示す。
【0022】
図1は、本発明を適用するライフログシステムの構成の一例を示すブロック図である。本発明のライフログシステムは、当該システムの利用者の動作(または状態)を検出するセンサとして、加速度センサを備えた腕輪型センサノード1を用い、生体情報として腕の加速度を検出する例を示す。腕輪型センサノード1は、利用者(または参加者)の腕に装着されて加速度を検出し、所定の周期で検出した加速度データ(以下、センサにより取得されたデータをセンシングデータという)を無線通信が可能な場合は基地局102のアンテナ101を介して基地局102へ送信し、有線通信が可能な場合はUSB接続などを介してクライアント計算機(PC)103へ送信する。
【0023】
図1において、基地局102及びPC103は複数の腕輪型センサノード1と通信を行い、各腕輪型センサノード1から利用者の動きに応じたセンシングデータを受信し、ネットワーク105を介してサーバ104へ転送する。サーバ104は受信したセンシングデータを格納する。サーバ104は受信したセンシングデータを解析し、後述するように利用者の行動履歴を示すライフログを生成して格納する。
【0024】
サーバ104が生成したライフログは、ライフログシステムの利用者が操作するクライアント計算機(PC)103で閲覧または編集することができ、利用者は、サーバ104が生成したライフログの詳細な情報を付加することができる。
【0025】
図2は、本発明のライフログシステムのセンサ部を構成する腕輪型(または腕時計型)センサノード1の一例を示す図で、図2(a)は腕輪型センサノード1の正面から見た概略図で、図2(b)は腕輪型センサノード1を側方から見た断面図である。この腕輪型センサノード1は主に利用者(装着者)の動きを測定する。
【0026】
腕輪型センサノード1は、センサや制御装置を格納するケース11と、ケース11を人体の腕に装着するバンド12を備える。
【0027】
ケース11の内部には、図2(b)のようにマイクロコンピュータ3やセンサ6等を備えた基板10が格納される。そして、人体(生体)の動きを測定するセンサ6としては、図中X−Y−Zの3軸の加速度をそれぞれ測定する加速度センサを採用した例を示す。なお、本実施形態では、腕輪型センサノード1には図示しない温度センサを備え、利用者の体温を測定し、加速度とともにセンシングデータとして出力するものとする。
【0028】
図3は、腕輪型センサノード11の基板10に取り付けられた電子回路のブロック図を示す。図3において、基板10には、基地局102と通信を行うアンテナ5を備えた無線通信部(RF)2と、PC103と有線接続するUSB通信部39と、センサ6と及び無線通信部2を制御するマイクロコンピュータ3と、マイクロコンピュータ3を間欠的に起動するためのタイマとして機能するリアルタイムクロック(RTC)4と、各部に電力を供給する電池7と、センサ6への電力の供給を制御するスイッチ8が配置される。また、スイッチ8とセンサ6の間には、バイパスコンデンサC1が接続されてノイズの除去や、充放電の速度を低減して無駄な電力消費を防ぐ。バイパスコンデンサC1への充放電回数を減らすようにスイッチ8を制御することによって、無駄な電力消費を抑えることが可能になる。
マイクロコンピュータ3は、演算処理を実行するCPU34と、CPU34で実行するプログラムなどを格納するROM33と、データなどを格納するRAM32と、RTC4からの信号(タイマ割り込み)に基づいてCPU34に割り込みをかける割り込み制御部35と、センサ6から出力されたアナログ信号をデジタル信号に変換するA/Dコンバータ31と、無線通信部2及びUSB通信部39との間でシリアル信号にて信号の送受を行うシリアルコミュニケーションインターフェース(SCI)36と、無線通信部2及びUSB通信部39とスイッチ8を制御するパラレルインターフェース(PIO)37と、マイクロコンピュータ3内の上記各部へクロックを供給する発振部(OSC)30とを含んで構成される。そして、マイクロコンピュータ3内の上記各部はシステムバス38を介して接続される。RTC4は、マイクロコンピュータ3の割り込み制御部35に予め設定されている所定の周期で割り込み信号(タイマ割り込み)を出力し、また、SCI36へ基準クロックを出力する。PIO37はCPU34からの指令に応じてスイッチ8のON/OFFを制御し、センサ6への電力供給を制御する。
【0029】
腕輪型センサノード1は、所定の周期(例えば、1分等)でマイクロコンピュータ3を起動して、センサ6からセンシングデータを取得し、取得したセンシングデータに腕輪型センサノード1を特定する識別子とタイムスタンプを付与して基地局102またはPC103へ送信する。なお、腕輪型センサノード1の制御の詳細は、例えば、特開2008−59058号公報等と同様にすることができる。なお、腕輪型センサノード1は、連続的に取得したセンシングデータを、周期的に基地局102またはPC103へ送信するようにしても良い。
【0030】
図4(a)は、図1に示した本発明を適用するライフログシステムの機能要素を示すブロック図である。腕輪型センサノード1が送信したセンシングデータは、基地局102を介してサーバ104のデータ格納部500に蓄積される。
【0031】
クライアント103は、各種情報を表示する表示部1031と利用者の操作によって様々な情報の入力を可能とする入力部1032を具備する。
【0032】
サーバ104は、図示しないプロセッサとメモリ及びストレージ装置を備えて、利用者の腕の加速度で測定されたセンシングデータを集計し、データ集計部200、シーン分割部300、シーン列挙部400、及び行動獲得部500を実行する。データ集計部200は、単位時間(例えば、1分間)毎の集計値を算出し、データ格納部600に格納する。シーン分割部300は、センシングデータおよび前記集計した集計データを解析して、個別の動作状態であるシーン領域および個々の運動状態であるシーン断片を抽出し、データ格納部600に格納する。シーン列挙部400は、抽出したシーン領域とシーン断片に対して、過去データから作成したルール、または、予め登録したシーン判定ルールを適用することによって、行動内容の候補であるシーンを抽出し、データ格納部600に格納する。行動獲得部500は、抽出したシーンを利用者のクライアント計算機103に提示し、利用者が選択したシーンを利用者が入力した行動内容と共にデータ格納部600に格納する。
【0033】
なお、データ格納部600に格納されるセンシングデータには腕輪型センサノード1の識別子が付与され、また、行動内容、動作状態、シーン、および、行動記録のデータには利用者を特定する識別子(例えば、腕輪型センサノード1の識別子)が付与されて、利用者を識別することができる。
【0034】
ここで動作状態は、センシングデータに基づき判定した睡眠、歩行、安静などの利用者の動作の様子を表し、行動内容は、散歩、映画鑑賞などの利用者の実際の行動の内容を表す。
【0035】
シーン分割部300とシーン列挙部400と行動獲得部500は、例えば、プログラムとしてストレージ装置(記憶媒体)に格納され、所定のタイミングでメモリへロードされてプロセッサにより実行される。なお、以下では、サーバ104が、シーン分割部300とシーン列挙部400を所定の周期(例えば、5分間)毎に実行する例、および、行動獲得部500を利用者から要求されたタイミングで実行する例を示す。
【0036】
図5は、本発明を適用するライフログシステムで行われるデータ処理の全体的な流れを示す図である。まず、ステップS1では、腕輪型センサノード1が送信したセンシングデータを基地局102またはPC103がサーバ104へ転送し、サーバ104のデータ格納部600にセンシングデータを蓄積する。さらに、サーバ104が所定の周期になるとデータ集計部200を実行して、データ格納部600に蓄積されたセンシングデータから単位時間毎の運動頻度を算出し、データ格納部600に格納する。この運動頻度の算出結果は図6(動作頻度)で示すように単位時間毎の運動頻度を時系列的にソートしたデータとなる。運動頻度の算出方法は、図7、図8を用いて後述する。
【0037】
次に、ステップS2では、サーバ104が所定の周期になるとシーン分割部300を実行して、データ格納部600に蓄積されたセンシングデータと集計データから利用者の一連の動作状態であるシーン領域、および、シーン領域を構成する運動であるシーン断片を作成する。
【0038】
このシーン領域の作成処理は、センシングデータまたは集計データから抽出可能である所定の動作状態(例えば、歩行、睡眠)を検出し、検出された動作状態、および、検出された動作状態と次の動作状態に挟まれた期間をシーン領域として抽出し、後述する所定の判定ルールを用いて睡眠、安静、軽作業、作業、歩行、運動の動作内容を判定し、各シーン領域に割り当てるものである。
【0039】
さらに、シーン断片の作成処理は、前記抽出されたシーン領域毎に、センシングデータまたは所定時間内のセンシングデータの集計データから時系列的なデータの変化点を検出し、変化点から次の変化点までを1つの運動単位であるシーン断片として抽出し、シーン断片の抽出方法ごとに断片分類を割り当てる。そして、断片分類ごとに、運動量の統計値を用いたグループ分け、センシングデータの類似度を用いたグループ分け、集計データの類似度を用いたグループ分けなど1以上グループ分けにより、グループの識別子である断片分類の値を割り当てる。センシングデータまたは集計データの変化点とは、激しく動いている状態から静かになった時点などを変化点として抽出する。上記の処理により、シーン分割部300は所定の周期毎にシーン領域とシーン断片を作成し、データ格納部600に格納する。図6に、睡眠、歩行、安静、軽作業の動作状態をシーン領域として抽出した例、シーン領域ごとにシーン断片を抽出した例、シーン領域とシーン断片の関係の例を図示する。
【0040】
次に、サーバ104は、ステップS3でシーン分割部300が抽出したシーン領域、シーン断片、及び前後の行動内容が既に確定している場合にはその行動内容を、登録されているシーン判定ルールに従って判定し、利用者の行動内容の候補であるシーンを作成し、データ格納部600に格納する。
【0041】
登録されたシーン判定ルールは、利用者毎の過去の行動内容、シーン領域、シーン断片のデータから抽出したルール、または、利用者を含むデータ格納部600に格納された行動内容、シーン領域、シーン断片のデータから作成したルール、または、既知の知識を用いて構築したルールである。具体的には、行動内容、シーン領域、シーン断片、時間情報の組合せと順序パターンから作成され、行動内容の候補であるシーンを判定するためのものである。シーン判定ルールの構造及びシーン判定の例は、図21において後述する。
【0042】
例えば、早朝の歩行という動作内容であれば、具体的な行動内容の候補は散歩とすることができ、あるいは、「起床後30〜90分の間で歩行(10−15分)、安静(20−25分)、歩行(7−10分)であれば、その利用者の通常の生活においては定型化している「通勤」として判定する。なお、行動内容は動作内容の組合せなので、多くの場合複数のシーン領域から成り立つが、上述の散歩のように、単一の動作内容と時刻から定まる行動内容も存在する。
【0043】
次に、行動獲得部500は、データ格納部に格納されたシーンから、利用者が行った行動内容に一致する可能性の高い順に提示する優先順位を付与する(ステップS4)。
【0044】
次に、サーバ104は、ステップS5で、上記優先順位に従って、各シーンをクライアント計算機103に提示する。ステップS6では、クライアント計算機103を操作する利用者が、サーバ104が抽出したシーンに対応する行動内容を確認し、優先順位の順で提示されたシーンを選択することで、利用者は容易に日々の生活記録(ライフログ)の生成することができる。
【0045】
次に、ステップS7では、クライアント計算機103で選択されたシーンを行動記録として確定する。
【0046】
こうして作成されたライフログは、ステップS8で利用者の識別子と作成日時などのタイムスタンプとともに、サーバ104のデータ格納部600へ格納される。
【0047】
図7は、サーバ104のデータ集計部200で行われる処理の一例を示すフローチャートである。まず、データ集計部200は、利用者の識別子に対応するセンシングデータをデータ格納部600から読み込む(ステップS11)。ここで、データ集計部200が読み込むセンシングデータの量は、センシングデータの集計周期である所定の周期(例えば、3分間)等に設定すればよい。
【0048】
次に、ステップS12では、データ集計部200が読み込んだセンシングデータの加速度データについて所定の時間間隔(例えば、1分)毎の集計値を算出する。本実施形態では、所定の時間間隔内での腕輪型センサノード1の装着者(利用者)の運動の頻度を示すゼロクロス回数を集計値として用いる。
【0049】
腕輪型センサノード1が検出したセンシングデータにはX、Y、Z軸の加速度データが含まれているので、データ集計部200は、X、Y、Zの3軸の加速度のスカラー量を算出し、スカラー量が0または0近傍の所定値を通過する値をゼロクロス回数として算出し、ゼロクロス回数が所定時間間隔内に出現する頻度を算出し、この出現頻度を、所定の時間間隔(1分間)の運動頻度として出力する。
【0050】
まず、スカラー量は、各軸の加速度をXg、Yg、Zgとすると、スカラー量=(Xg2+Yg2+Zg2)1/2で求められる。
【0051】
次に、求めたスカラー量をフィルタ(バンドパスフィルタ)処理し、所定の周波数帯域(例えば、0.1Hz〜5Hz)のみを抽出し、ノイズ成分を除去する。そして、図8で示すように、フィルタ処理を施した加速度のスカラー量が所定の閾値(例えば、0.05G)となった回数をゼロクロス回数として算出する。あるいは、加速度のスカラー量が所定の閾値をよぎった回数をゼロクロス回数とする。そして、所定の時間間隔内のゼロクロス回数を運動頻度として求める。また、所定の時間間隔内の運動量の積分値をゼロクロス回数とスカラー量から求めて、この積分値を運動強度とする。またセンシングデータに含まれる温度についても所定の時間間隔内の平均温度を求める。なお、運動頻度は、XYZの各方向の加速度の値が、正と負に振動した回数(振動数)を各方向の所定時間内で数えて合計してもよいが、本実施形態では、計算を簡略化することができるため、ゼロクロス回数を算出する方法について説明した。
【0052】
データ集計部200は、所定の時間間隔毎に、運動頻度、平均温度、運動強度を求め、図9に示すように、それらを所定の時間間隔毎の集計データとして生成し、データ格納部600へ蓄積する。図9は、所定時間間隔毎の集計データのフォーマット700を示す説明図で、センシングデータに含まれる腕輪型センサノード1の識別子を格納するセンサデータID702と、腕輪型センサノード1の装着者(ライフログシステムの利用者)の識別子を格納するユーザID701と、所定の時間間隔の開始時刻(測定日時)を格納する測定日時703と、センシングデータに含まれる温度を格納する温度704と、データ集計部200が演算した運動頻度を格納する運動頻度705と、データ集計部200が求めた運動強度を格納する運動強度706からひとつのエントリを構成する。なお、利用者の識別子は、腕輪型センサノード1の識別子に基づいて予め設定した図示しないテーブルから参照すればよい。
【0053】
図10は、サーバ104のシーン分割部300で行われるシーン領域とシーン断片の作成処理を示すフローチャートである。まず、シーン分割部300は、利用者の識別子に対応するセンシングデータと集計データをデータ格納部600から読み込む(ステップS21)。ここで、シーン分割部300が読み込む集計データの量は、シーン領域作成の周期である所定の周期(例えば、5分間)などに設定すればよい。
【0054】
次に、ステップS22では、シーン分割部300が読み込んだセンシングデータと集計データから所定の動作状態を検出し、シーン領域を作成する。ここで、所定の動作状態は、センシングデータまたは集計データから検出可能な動作状態であり、例えば歩行、睡眠である。
【0055】
例えば歩行状態を検知する手法は、上下方向の加速度が周期的に変化する(一歩ごとの着地)、前後方向の加速度が上下方向の加速度と同期して規則的に前方向と後ろ方向を繰り返す(着地するごとの速度変化)、左右方向の加速度が上下方向の加速度に同期して規則的に繰り返す(一歩ごとの体の左右へのゆれ)、といった波形が観測でき、さらに腕の振りが重なった波形として観測できるので、これらにより、該当するシーンが歩行状態であるか否かを判定できる。また、ゼロクロスの周期の逆数を歩数として検知することも可能である。これらの人体に装着した加速度センサから歩行状態を検知する手法は、公知の手法を用いれば良い。
【0056】
また、睡眠は、運動頻度は極めて低いが、睡眠中でも人体は寝返りなどの運動を行うため、運動頻度はゼロにはならない。睡眠を判定する手法についても公知の手法を用いればよい。
【0057】
次に、歩行、睡眠に該当しないシーン領域に対して、図27に示す判定値のテーブルを参照し、各シーン領域の運動頻度が「安静」、「軽作業」、「作業」、「運動」の各判定値と比較して何れに該当するかを判定する。
【0058】
次に、ステップS23では、前記抽出された各シーン領域について、当該シーン領域の開始日時と終了日時の期間に該当する集計データから、時系列的な運動頻度の変化点を検出し、変化点間を同一の運動を行った単位であるシーン断片として抽出してデータ格納部600に格納する。
【0059】
以上の処理により、シーン分割部300はセンシングデータと集計データから動作状態の単位であるシーン領域と運動変化の単位であるシーン断片を抽出する。
【0060】
図11は、データ格納部600に格納されるシーン領域データ800のフォーマットを示す説明図で、利用者の識別子を格納するユーザID801と、シーン領域データの識別子であるシーン領域データID802と、シーン領域の開始日時803と、終了日時804と、シーン領域の動作状態を示す領域内容805とからひとつのエントリを構成する。
【0061】
図12は、データ格納部600に格納されるシーン断片データのフォーマット900を示す説明図で、利用者の識別子であるユーザID901と、対応するシーン領域データの識別子であるシーン領域データID902と、シーン断片データの開始日時903と、終了日時904と、付与されたグループの識別子である断片分類1(905)から断片分類n(906)とからひとつのエントリを構成する。
【0062】
このようにユーザIDに対応づけてシーン領域データID、領域内容、断片分類等を記録しておくことにより、ユーザごとに行動内容の候補であるシーンを作成することが可能となる。
【0063】
図13(a)は、イベントデータを登録する手順を示すフローチャートである。ここでイベントとは、ユーザがPC、携帯電話などを用いて行った行為であり、短時間の出来事を意味する。例えば、メール送受信、写真撮影、買い物などである。ここではメール送受信を例に手順を説明する。
【0064】
まず、利用者がPC103でメールを送受信した際に、ステップS24でPC103からメール送受信したことを示すデータとその時刻、及びユーザIDをサーバ104に送付する。次にステップS25で、図13(b)に示すデータを作成し、ステップS26でサーバのデータ格納部600に登録する。ここで、イベントデータの送信元はPC103に限らず、例えば利用者の携帯電話などの計算機能を持った外部機器が考えられる。このように、本実施形態のライフログシステムでは、利用者がPC又は携帯電話の操作をしてメール送受信等の行為を行った場合に、その行為がイベントデータとして、サーバに送信されるように構成される。そして、イベントデータに付与されるユーザID、行為を行った時刻とともに、サーバのデータ格納部に記録される。なお、PCあるいは携帯電話等がイベントデータをサーバに送信するタイミングは、その行為が行われたとき、所定の時間間隔、又は、利用者が指定したタイミング、など特に限定されない。
【0065】
図13(b)は、データ格納部600に格納されるイベントデータのフォーマット1100を示す説明図で、利用者の識別子を格納するユーザID1101と、イベントデータの識別子であるイベントデータID1102と、イベントデータの種類をあらわすイベント分類ID1103と、イベントデータの日時1104と、イベントデータの示す内容又は利用者が付与するコメント等のイベントの内容を格納するイベント内容1105と、当該イベントと関連するシーン領域IDを格納する関連シーン1106とからひとつのエントリを構成する。イベントデータとシーン領域データとは、イベントデータの日時とシーン領域データの開始日時と終了日時により関連づけられる。また、利用者は後述する図16(c)に示すように、イベントデータにコメントを付すことができ、その内容がイベント内容として登録される。
【0066】
図14は、図4(a)のライフログシステムの機能要素を示すブロック図の表示部1031に表示される、利用者の行動記録を入力するための入力支援画面の一例である。
【0067】
図14の入力支援画面例では、日付選択部1040、グラフ表示部1041、行動記録表示部1042、シーン領域表示部1043、イベント表示部1044を含む。
【0068】
日付選択部1040は、利用者が行動記録を入力する日付候補を表示し、利用者の選択により他の表示部にデータを表示するためのトリガ機能を有する。
【0069】
グラフ表示部1041は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出した単位時間毎の運動頻度を時系列的にソートしたデータを表示する機能を有する。
【0070】
行動記録表示部1042は、日付選択部1040により選択された日付の行動記録を表示、編集するための機能を有する。
【0071】
シーン領域表示部1043は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出したシーン領域データを表示するための機能を有する。
【0072】
イベント表示部1044は、日付選択部1040により選択された日付のイベントを表示するための機能を有する。
【0073】
以下、行動記録表示部1042に行動内容を表示する第1及び第2の方法について説明する。第1の方法では、シーン領域データまたはイベントデータが表示されると、利用者が当該シーン領域データ又はイベントデータについてコメントを入力し行動内容が確定されることにより、行動記録入力の負担軽減を実現することを特徴とする。
【0074】
また、第2の方法では、シーン領域データまたはイベントデータから行動記録の候補を算出し、提示することにより、行動記録入力の負担軽減を実現することを特徴とする。
【0075】
まず、第1の方法について、図15及び図16を用いて説明する。図15はデータ表示処理の手順を示すフローチャートである。
【0076】
まず、日付選択部1040を用いて行動記録を入力する日付を選択し、利用者の該当する日付のシーン領域データ、イベントデータ、及び既に登録されている行動記録データがある場合には行動記録データ、をデータ格納部600から抽出する(S201、S202)。抽出したシーン領域データ、イベントデータ及び行動記録データを該当部分に表示する(S203)。
【0077】
図16(a)は行動記録入力支援処理の手順を示すフローチャートである。
まず、シーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示し(S201〜S203) 、利用者がシーン領域データ、イベントデータ中から選択する(S301)と、選択されたシーン領域データ、イベントデータが行動記録表示部1042に表示される(S302)。次に、行動記録表示部に表示された当該シーン領域データ、イベントデータにコメントをつける、シーンの開始・終了時刻を調整する、イベントの位置を調整するなどの行動記録編集支援処理を行い、行動記録の入力を完了する(S303、S304)。全ての入力が完了していない場合にはS301〜S304を繰り返す(S305)。
【0078】
図16(b)、図16(c)に上記行動記録入力支援処理手順の画面表示の一例を示す。図16(b)はS201〜S203でシーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示した画面表示の一例である。図14に示すように、シーン領域領域表示部には、睡眠、安静、軽作業、歩行が表示され、イベント表示部には、あるイベントが表示されている。図16(c)はS301〜S303の画面表示の一例である。シーン領域表示部1043またはイベント表示部1044からシーン領域データまたはイベントデータを選択することにより、当該データを行動記録表示部1042中の、例えばシーン領域データは下段、イベントデータは上段に表示する。
【0079】
その後、利用者が、行動記録表示部1042に表示されたシーン領域データあるいはイベントデータを入力部1032を介して選択し、コメント(行動内容)を入力することにより、図14に示す睡眠、通勤、仕事などの行動内容が行動記録表示部に表示される。
【0080】
以上説明したように、第1の方法によれば、行動記録入力の際に腕輪型センサノード1で測定できるセンサデータを用いて生成したシーン領域データ及び利用者の手入力または腕輪型センサノード1以外の機器を用いて生成・収集したイベントデータを選択することにより行動記録入力を行うことにより、利用者の行動記録入力に要する負担を軽減することが可能となる。
【0081】
行動記録編集支援処理のシーン(行動内容)の開始・終了時刻、イベントの時刻を調整する方法については図17で説明する。
【0082】
利用者が手作業でシーンの開始・終了時刻、イベントの時刻を調整する場合には、シーン断片の開始・終了時刻を目盛りとして編集する場合と、シーン領域の開始・終了時刻を目盛りとして編集する場合とがある。シーン断片に基づく目盛りはシーン断片目盛り1047に表示し、シーン領域に基づく目盛りはシーン領域目盛り1048に表示する。これらの目盛りは入力部を介して、行動記録表示部1042を利用者が指定することにより、行動獲得部により表示される。または、シーン領域表示とともに自動的に表示されるようにすることができる。このようなシーン断片目盛りあるいはシーン領域目盛りを設けることにより、利用者が手作業で行動記録の開始・終了時刻、イベントの時刻を調整する際の時刻合わせの負担を軽減することが可能となる。
【0083】
次に、行動記録表示部1042に行動内容を表示する第2の方法について、図19乃至図21を用いて説明する。
【0084】
図19(a)は行動記録入力支援方法の手順を示すフローチャートである。
【0085】
まず、利用者が日付選択部1040に行動記録を入力する日付を入力すると、シーン列挙部は、データ格納部600から該当する日付のシーン領域データ、イベントデータを抽出する(S401、S402)。次に、抽出したシーン領域とシーン断片、及び前後の行動内容が既に確定している場合にはその行動内容を、登録されているシーン判定ルールに従って判定し、シーン作成処理を行う(S403)。
【0086】
次に、行動獲得部は、作成したシーンのうち、確信度が予め設定されているしきい値より大きいシーン領域データを行動記録表示部1042に自動的に表示する(S404)。さらにシーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示する(S405)。利用者が行動記録表示部1042中の入力したい部分(時刻)を選択すると、選択部分を含むシーン領域データ、イベントデータの候補が表示される(S406、407)。本実施形態では、利用者はシーン領域データ、イベントデータを候補中から選択する(S408)と、選択されたシーン領域データ、イベントが行動記録表示部1042に表示される(S409)。
【0087】
次に、行動記録表示部に表示された当該シーン領域データ、イベントデータにコメントをつける、シーンの開始・終了時刻を調整する、イベントの位置を調整するなどの行動記録編集作業を行い、行動記録の入力を完了する(S410、S411)。全ての入力が完了していない場合にはS405〜S410を繰り返す(S412)。シーン領域データ、イベントデータにコメントをつける、シーンの開始・終了時刻を調整する、イベントの位置を調整するなどの処理は、第1の方法で説明した内容と同様である。
【0088】
図19(b)は、S404に関する図示例である。図19(b)の例ではシーンデータ「睡眠」が確信度がしきい値以上のシーンデータであるとして自動入力されている。
【0089】
図19(c)は、S405〜S408に関する図示例である。利用者が入力したい部分(時刻)を選択すると選択時刻を含む開始・終了時刻、種類の異なる複数候補を含む行動記録候補表示部1060が表示される(図19(c)の上図)。このとき、表示される候補は、シーンデータの確信度が高い順または、利用者が過去に選択した頻度の高い順に表示される。利用者が候補からシーンデータを選択すると、行動記録表示部1042に行動記録が表示される(図19(c)の下図)。
【0090】
図20は、シーン列挙部400で行われるシーン作成処理(図19(a)のS403)を表すフローチャートである。シーン列挙部ではシーン判定ルールに一致するシーン領域、シーン断片、行動記録のパターンを検索し、シーン(行動内容)を抽出する。
【0091】
まず、ステップS51では、利用者に該当する予め登録されたシーン判定ルールをデータ格納部600から読み出す。シーン判定ルールは、条件と結論からなり、条件を満たすとある結論(シーン)が推定されるものであり、ユーザごとに予め記録されている。条件は、複数または単一のシーン領域、行動記録の組合せ、順序パターンから構成される。シーン領域は、シーン領域内容だけでなく、当該シーン領域の期間にあるシーン断片の組合せも条件となる。また、シーン領域、シーン断片、行動記録は開始日時から終了日時までの経過時間も条件となる。一方、結論は、シーン内容、シーン領域あるいは行動記録の開始日時、終了日時からなり、それらの判定精度を示す値を評価値として確信度を伴う。確信度は過去のデータから算出することが可能である、また、シーン判定ルールを専門家の知見によって作成する場合には任意に定めてもよい。
【0092】
図21はシーン判定ルールの構造の一例である。シーン判定ルールは条件テーブル1000と結論テーブル1100からなり、ルールIDで紐付けられている。条件テーブルは、ユーザID、ルールID、順序、種別、項目名、値、比較演算の組からなる。種別は対象となるデータの種類であるシーン領域、シーン断片、行動記録、時間情報である経過時間、時間帯、時間からなる。比較演算は、判定対象となるシーン領域データ等と一致するか否かを判定する演算式である。結論テーブルは、ユーザID、ルールID、シーン内容、開始日時、終了日時、確信度の組からなる。開始日時と終了日時は特定の値を定義せず、条件テーブルの順序に示すデータの開始日時または終了日時を指定することによって、条件テーブルの条件を満たすデータから、開始日時と終了日時を決めることができる。
【0093】
例えば、ユーザID101のルールID1のシーン判定ルールは、「最初が行動記録「睡眠」であり、その後の70分以内の朝時間帯に「歩行」のシーン領域があり、次に「安静」のシーン領域、最後に「歩行」のシーン領域である場合、シーンは「通勤」であり、その確信度は「80%」である。」ことを示している。
【0094】
また、ユーザID105のルールID2のシーン判定ルールは、「軽作業のシーン領域であり、そのシーン領域における断片分類1の値が5であるシーン断片と、断片分類3の値が2であるシーン断片とを含み、そのシーン領域の開始日時から終了日時までの時間が30分以上の場合、シーンは「会議」であり、確信度は「60%」である」ことを示している。
【0095】
次に、ステップS52では、読み出された各シーン判定ルールについて、データ格納部600に格納されているシーン領域、シーン断片、利用者によって入力された行動記録から、シーン判定ルールの条件テーブルの条件をすべて満たすものを抽出し、結論テーブルの内容をシーンとして抽出し、データ格納部600にシーンとして格納する(ステップS53)。
【0096】
次に、ステップS54では、前記抽出したシーンをデータ格納部600に格納した時点以降に利用者が行動記録を入力した場合、再びステップS51以降を繰り返すことによって、シーン判定ルールを満たすシーンのデータ格納部600への格納を繰り返す。新たな行動記録が入力されることによって、条件を満たすシーン判定ルールが増加し、データ格納部600に格納すべきシーンが追加され、確信度の高いシーンが格納される場合がある。以上の処理によって、自動入力されるシーン及び行動記録候補が作成される。
【0097】
以上説明したように、第2の方法によれば、歩行、運動、安静といった大まかな動作を識別することのみならず、具体的な行動内容の候補を算出し、利用者に提示する。これにより、行動記録入力の際に、利用者の入力負担軽減を実現することが可能となる。
【0098】
特に、センシングデータから一連の動作状態の単位であるシーン領域、シーン領域を構成する短時間の運動状態であるシーン断片を作成する。そして、行動内容をシーン領域の組合せと順序パターンで構成し、シーン領域の動作状態のみでなく、シーン断片の組合せで類似性を判定することによって、行動内容の候補を算出することができる。これにより、利用者の行動を一定時間間隔ではなく、時間間隔の異なる複数の行動候補を確信度とともに表示することが可能となる。それゆえ、利用者の行動のゆらぎに対応することができ、より正確な行動記録を作成することができる。
【0099】
図18は、上述した第1及び第2の方法により行動が確定した場合に、行動記録データのフォーマット1200を示し、データ格納部600に格納される。利用者の識別子を格納するユーザID1201と、行動記録データの識別子である行動記録データID1202と、行動記録データの開始日時1203と、終了日時1204と、利用者が付与するコメント等の行動記録の内容を格納する行動記録内容1205と、当該行動記録と関連するシーン領域データまたはイベントデータのIDを格納する関連データ1206とからひとつのエントリを構成する。
【0100】
なお、上記実施形態では、ライフログシステムとして利用者(人体)の運動状態を検出するために、腕輪型センサノード1の加速度センサを用いた例を示したが、人体の運動状態を検知可能な生体情報であればよく、例えば、脈拍や歩数などを用いることができ、あるいは、これらの複数の生体情報の組合せから人体の運動状態を検知しても良い。また、生体情報だけではなく、人体の位置をGPSや携帯端末等の位置情報を用いるようにしても良い。
【0101】
また、ライフログシステムでは監視対象が人であり、シーンは行動に対応するが、監視対象は人に限定されるものではなく、機器でもよい。監視対象を機器とした場合には、機器に装着したセンサによって測定された機器の状態を示すセンシングデータ(例えば、振動、音量)から、シーンとして稼動状態や稼動内容を示すシーンを抽出することが可能であり、機器の稼動状態履歴を獲得することができる。
<第2の実施形態>
図4(b)は、上記実施形態の図4(a)に示したシステム構成の一部を変更したもので、その他の構成は第1の実施形態と同様である。第1の実施形態のサーバ104に代わって、クライアント計算機103がデータ収集部200、シーン分割部300、シーン列挙部400、行動獲得部500、および、データ格納部を備えており、このクライアント計算機103が直接基地局102に接続されたものである。データ収集部200、シーン分割部300、シーン列挙部400、行動獲得部500、データ収集部600の構成は上記実施形態と同様である。クライアント計算機103はネットワーク105を介してサーバ104に接続される。サーバ104は、クライアント計算機103が生成した行動記録を受信して格納するデータ格納部1300と、行動記録に対して所定の解析を行う解析部1400を備える。
【0102】
図4(a)の構成の場合、サーバにデータを蓄積するため、ネットワーク接続が可能である場合、場所を気にせずデータの送付を行うことができる。しかし、ネットワーク接続ができない場合にはデータの送付や行動入力などが出来ないという問題がある。図4(b)の構成では、データ送付や行動入力のためにPC103などの専用の計算機が必要となるため場所に制約があるが、PC103にデータを送付し、PC103上で行動入力などを行うため、ネットワーク接続の有無を気にする必要がないという利点がある。
【0103】
<第3の実施の形態>
第1の実施の形態及び、第2の実施の形態では、行動記録入力の参考情報としてシーン領域データ、イベントデータを用いてきたが、その他のデータを用いてもかまわない。第3の実施の形態では、PC利用状況に関するデータ及びスケジュールデータを用いる例について説明する。
【0104】
図22は、図4(a)のライフログシステムの機能要素を示すブロック図の表示部1031に表示される、利用者の行動記録を入力するための入力支援画面の一例である。
【0105】
図22の入力支援画面例では、日付選択部1040、グラフ表示部1041、行動記録表示部1042、シーン領域表示部1043、イベント表示部1044、PC利用状況表示部1045、スケジュール表示部1046を含む。
【0106】
日付選択部1040は、利用者が行動記録を入力する日付候補を表示し、利用者の選択により他の表示部にデータを表示するためのトリガ機能を有する。
【0107】
グラフ表示部1041は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出した単位時間毎の運動頻度を時系列的にソートしたデータを表示する機能を有する。
【0108】
行動記録表示部1042は、日付選択部1040により選択された日付の行動記録を表示、編集するための機能を有する。
【0109】
シーン領域表示部1043は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出したセンサシーンを表示するための機能を有する。
【0110】
イベント表示部1044は、日付選択部1040により選択された日付のイベントを表示するための機能を有する。
【0111】
PC利用状況表示部1045は、日付選択部1040により選択された日付の利用者が使用する計算機端末(PC)の利用状況を表示するための機能を有する。
【0112】
スケジュール表示部1046は、日付選択部1040により選択された日付の利用者のスケジュールを表示する機能を有する。
【0113】
PC利用状況データ及びスケジュールデータは、図13(a)のフローチャートに示す手順で取得し、図13(b)に示すデータ構造をとる。
【0114】
PC利用状況データは、PC操作に係わるデータであり、例えばPCの起動、終了に関するデータである。キーボード、マウスなどの入力装置操作などの履歴情報を含めることも出来る。まず、利用者がPC103を操作したときに履歴情報を取得し、ステップS24でその情報をPC103からサーバ104に送付する。送付のタイミングは一時間ごと、PC終了の直前などである。次にステップS25で、図13(b)に示すデータを作成し、ステップS26でサーバのデータ格納部600に登録する。
【0115】
スケジュールデータは、利用者がPC103上のスケジュール入力ツールを用いて入力した利用者自身のスケジュールである。まず、利用者がPC103上のスケジュール入力ツールを用いてデータ入力した際に、ステップS24でそのデータをPC103からサーバ104に送付する。次にステップS25で、図13(b)に示すデータを作成し、ステップS26でサーバのデータ格納部600に登録する。
【0116】
スケジュール入力ツールは、利用者所有の携帯電話上にあってもかまわない。また、サーバ104上のスケジュール入力ツールを利用することも可能であり、この場合は、サーバ104上のスケジュール入力ツールから直接ステップS25、S26を実行し、データを登録する。
【0117】
図22の入力支援画面例では、日付選択部1040、グラフ表示部1041、行動記録表示部1042、シーン領域表示部1043、イベント表示部1044、PC利用状況表示部1045、スケジュール表示部1046を含んだ構成となっているが、取得可能なデータの数、種類及び利用者のニーズによって構成は変化することが可能である。
【0118】
第3の実施の形態に関わる行動記録編集支援処理のシーンの開始・終了時刻、イベントの時刻を調整する方法については図23で説明する。
【0119】
利用者が手作業でシーンの開始・終了時刻、イベントの時刻を調整する場合には、目盛り1047に表示されるシーン断片の開始・終了時刻を目盛りとして編集する場合と、目盛り1048に表示されるシーン領域の開始・終了時刻を目盛りとして編集する場合と、目盛り1049に表示される複数のデータの開始時刻または終了時刻が一致する切れ目を目盛りとして編集する場合などが、ある。上記各目盛りを表示するための対象情報は切り替えスイッチ1050〜1053をON、OFFすることにより切り替え可能である。また、表示される目盛りは編集時に必要な分だけ動的に表示されるでもよい。
【0120】
このように調整することにより、利用者が手作業でシーンの開始・終了時刻、イベントの時刻を調整する際の時刻合わせの負担を軽減することが可能となる。
以上のように、シーン領域データ、イベントデータだけでなく、PC利用状況に関するデータ及びスケジュールデータを用いることにより、行動記録として複数のデータを記録することが可能となり、利用者の入力負担軽減を実現することができる。
【0121】
つまり、一つの行動記録の入力が完了した後、その行動記録の開始時刻から終了時刻の間に同種類または他種類のシーンデータを選択することにより行動記録に階層構造を持たせることができる。このように行動記録を入力することによって、行動記録により詳細な情報を簡単に付与することが可能となる。図24にその例を示す。図24では、PC利用状況表示部及びスケジュール表示部に表示された内容を利用者が選択することにより、その選択した内容が行動記録表示部に表示される例を示している。具体的には、シーン領域データから確定された行動内容「仕事」に対して、PC利用状況から確定された「ファイル作成(資料A作成、情報収集)」、スケジュールから確定された「打合せ」が表示されている。
【0122】
<第4の実施の形態>
第1の実施の形態乃至第3の実施の形態では、行動記録編集支援処理の際のコメント、特に利用者の気持ちや感情を入力する場合には利用者の手作業による必要があるが、サーバのデータ格納部に予め登録された利用者の気持ち・感情を表す記号を用いて入力することも可能である。
【0123】
図25は第4の実施例の行動記録編集支援処理における利用者の気持ち・感情等を入力するための処理例である。
【0124】
まず、行動記録表示部1042に表示されている行動記録を選択すると予め登録されている気持ち・感情等を表す記号群が表示される。それらの中から必要なものを選択することによって、簡単に入力することが可能となる。
【0125】
また、図25下図の表示例にあるように、気持ち・感情等の記号群に予め気持ち・感情の起伏を表す指標を付与しておくと、気持ち・感情の起伏を表すグラフを生成することが可能である。
【0126】
図26に図25のコメント候補表示部1061中に表示されているコメント候補の内容および気持ち・感情の起伏を表すスコアの例を示す。コメント候補は図25及び図26中に記載されているものが全てではなく、感情を示すものなど様々なものが含まれる。また、スコアの与え方も気持ち・感情の起伏を表すことができればどのような方法でもかまわない。
【0127】
このように、利用者の気持ち・感情を表す記号を、シーン領域データ、イベントデータ、PC利用状況に関するデータ及びスケジュールデータと併せて用いることに用いることにより、実際の行動における気持ちや感情を容易に記録することが可能となり、利用者の入力負担軽減を実現することができる。
【0128】
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものでなく、種種変形実施可能であり、上述した各実施形態を適宜組み合わせることが可能であることは、当業者に理解されよう。
【図面の簡単な説明】
【0129】
【図1】ライフログシステムの構成の一例を示すブロック図である。
【図2】腕輪型センサノードの一例を示す図で、(a)は腕輪型センサノード1の正面から見た概略図で、(b)は腕輪型センサノードを側面から見た断面図である。
【図3】腕輪型センサノードの基盤に取り付けられた電子回路のブロック図の一例である。
【図4(a)】ライフログシステムの機能要素を示すブロック図の一例である。
【図4(b)】ライフログシステムの機能要素を示すブロック図の変形例である。
【図5】ライフログシステムで行われるデータ処理の全体的な流れを示す図の一例ある。
【図6】単位時間毎の運動頻度を時系列的にソートしたグラフ及びシーン領域、シーン断片の関係の例である。
【図7】データ集計部の処理の一例を示すフローチャートである。
【図8】加速度と時間の関係を示すグラフで、ゼロクロス回数の判定の一例を示す。
【図9】所定時間間隔毎の集計データのフォーマットの一例である。
【図10】シーン分割部の処理を示すフローチャートの一例である。
【図11】シーン領域データのフォーマットの一例である。
【図12】シーン断片データのフォーマットの一例である。
【図13(a)】イベントデータを登録する手順を示すフローチャートの一例である。
【図13(b)】イベントデータのフォーマットの一例である。
【図14】行動記録入力支援画面の画面構成例である。
【図15】データ表示処理の手順の一例を示すフローチャートである。
【図16(a)】行動記録入力支援処理の手順の一例を示すフローチャートである。
【図16(b)】シーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示した画面表示の一例である。
【図16(c)】シーン領域データ、イベントデータを行動記録入力支援画面の行動記録入力時の画面表示の一例である。
【図17】行動記録編集支援処理の画面構成の一例である。
【図18】行動記録データのフォーマットの一例である。
【図19(a)】行動記録入力支援方法の手順を示すフローチャートの一例である。
【図19(b)】行動記録自動入力の画面構成の一例である。
【図19(c)】行動記録候補表示の画面構成の一例である。
【図20】シーン作成処理を表すフローチャートの一例である。
【図21】シーン判定ルールの構造の一例である。
【図22】第3の実施の形態の行動記録入力支援画面の画面構成例である。
【図23】第3の実施の形態の行動記録編集支援処理の画面構成例である。
【図24】第3の実施の形態の行動記録に複数のデータを含む場合の図示例である。
【図25】第4の実施の形態の行動記録編集支援処理における利用者の気持ち・感情等を入力するための処理例である。
【図26】第4の実施の形態のコメント候補の内容および気持ち・感情の起伏を表すスコアの例である。
【図27】運動頻度と動作状態の関係を設定する判定値のテーブルの一例である。
【符号の説明】
【0130】
1 腕輪型センサノード
102 基地局
103 クライアント計算機
104 サーバ
200 データ集計部
300 シーン分割部
400 シーン列挙部
500 行動獲得部
600 データ格納部
1031 表示部
1032 入力部
【技術分野】
【0001】
本発明は、監視対象の生体情報や動作情報、周辺情報に関するセンサデータから監視対象の行動内容を測定する装置によって、複数種類の行動履歴を収集し、それら行動履歴から利用者の行動記録入力を支援する技術に関する。
【背景技術】
【0002】
近年、人の行動内容を大量に記録・蓄積し、その大規模データを解析することにより、新たな知見を得たり、サービスを提供したりすることに期待が寄せられている。すでにインターネットの世界では検索キーワードや購買履歴を活用して、個々人に対してその人が欲しがりそうな商品のリコメンド広告を発信するなどの仕組みが確立されている。
【0003】
これは実世界においても同様な仕組みが考えられる。例えば日々の業務内容を記録して解析することにより組織の業務効率の向上を図ったり、日々の生活記録を付けることにより、食事、運動、生活の規則正しさを評価し、生活習慣病予防を目的としたヘルスケアサービスを提供したり、たくさんの人の生活記録と購買履歴を分析することにより、特定の生活パターンで生活する人に対して、それらの人がよく買う商品をリコメンド広告するなどの応用が考えられる。
【0004】
一方、現実世界の様々な情報をリアルタイムに情報処理装置に取り込むネットワークシステムが検討されている。このネットワークシステムには幅広い応用が考えられており、加速度や脈拍等の利用者の生体情報や作業状況、購買情報等の利用者の行動をモニタし、これら様々な情報を組み合わせて、利用者の状況を判定するといったような応用も提案されている。
【0005】
また、ある時刻におけるセンシング情報と利用者の状況を利用者の入力により紐付け、それら紐付けたデータを用いて利用者の状況を推測し、確信度の高い順に列挙する技術が知られている(例えば、特許文献1参照)。
【0006】
また、カーナビゲーション等の経路探索時の到達確率に応じて表示態様を変える技術が知られている(例えば、特許文献2参照)。特許文献2では、過去の移動履歴に基づき到達確率を算出し、到達確率に応じて経路を色分けして表示する。
【0007】
また、状況の履歴及び現在の状況に応じて目的地予測を行い、予測された目的地周辺情報を予め取得しておくことによって、予測目的地周辺情報を確率の高い順に表示する、文字の大きさ、太字、色を変えるなどして画面に表示する技術が知られている(例えば、特許文献3参照)。
【0008】
この他、利用者が入力した行動開始時のコメント及び行動終了時または次の行動開始時のコメント間の行動を確信度に基づいて推測する技術(例えば、特許文献4参照)や、利用者の行動を画像化する技術が知られている(例えば、特許文献5参照)。
【0009】
【特許文献1】特開2004−287539号
【特許文献2】特開2008−70377号
【特許文献3】特開2005−30982号
【特許文献4】特開2005−62963号
【特許文献5】特開2005−122291号
【発明の開示】
【発明が解決しようとする課題】
【0010】
日々の行動を記録、解析することに多くの有用なサービスを提供できることが期待できるが、毎日の行動内容を時刻も含めて正確に記録することは、ユーザに対してかなりの負担を強いる作業になる。そこで例えば身体に装着したセンサを用いて行動を自動的に取得する方法であれば、かなりの労力低減につながる。
【0011】
しかしながら、行動は単一の動作の繰り返しではなく、複数の動作が組み合わされて1つの行動が形成される。また、行動にはゆらぎがあり、同一の行動でもセンシングデータの波形が等しくなるとは限らない。例えば、監視対象が人の場合、同じ行動であっても、同じ動きを取ることは稀であり、センシングデータは等しくならない。監視対象が機器の場合、行動は稼動状態に対応するが、外的要因により動作が動的に変化するものがあり、監視対象が人の場合と同様の問題がある。ここで、ゆらぎとは、同一の行動の中には、行動する時間幅、動作の順序、動作の大きさ、等によって複数のパターンが存在することを意味する。
【0012】
上記従来例では、センサノードを装着した監視対象の行動について、歩行、運動、安静といった大まかな動作を自動的に識別することは可能である。しかし、監視対象が人の場合には、通勤、デスクワーク、会議、出張、家事、映画鑑賞、身支度、買い物、食事、等の利用者の行動、監視対象が機器の場合には、通常稼動、高稼働、低稼働、等の機器の行動である稼動状態、等の何をしていたかに相当する行動内容を判定することはできない。行動は複数の動作状態の組合せで構成され、それぞれの動作状態は実際に行った行動の一部でしかない。
【0013】
また、従来例のように、既定した時間間隔単位におけるセンシングデータの基準パターンとの比較による行動の判定では、行動のゆらぎに対応できないこと、センシングデータの変化点を行動の変化点として区切る行動抽出では、同一の行動の区間が断続的に現れる場合、1つの行動が複数に区切られ、それぞれに行動が割り当てられる場合などがあること、等の理由により、行動の判定精度が低下する課題がある。
【0014】
以上、上記従来例のように、単一の動作の繰り返し検出や予め既定したセンシングデータの基準パターンとの比較では、監視対象の行動を抽出することができない。そのため、これら具体的な行動については、ユーザが行動内容を逐一入力する必要があり、全ての行動についてユーザがそれぞれ内容を入力するには、多大な労力が必要となる、という問題があった。
【0015】
そこで本発明は、上記課題に鑑みてなされたもので、センサの測定データから判定した監視対象の行動パターン及び計算機の利用状況等の行動を表す様々な情報を組み合わせて利用して、監視対象の行動パターンを推定し、利用者の行動内容の入力を簡易にすることを目的とする。
【課題を解決するための手段】
【0016】
本願において開示される発明のうち代表的なものの概要を簡単に説明すれば下記の通りである。
【0017】
すなわち、センサノードと、基地局と、サーバとからなる行動記録入力支援システムである。センサノードは、監視対象に装着されて、センサと、センサが取得したセンシングデータをサーバに送信する通信部とを有する。基地局は、ネットワークを介してサーバに接続され、受信するセンシングデータをサーバに送信する。サーバは、センシングデータを蓄積するデータ格納部と、データ格納部に蓄積されたセンシングデータから監視対象の動作状態を検出するシーン分割部と、データ格納部に格納されるシーン判定ルールに基づいて動作状態から監視対象の行動内容の候補を複数算出するシーン列挙部と、接続される表示部に複数の行動内容の候補を表示し、表示された複数の行動内容の候補から特定の行動内容が選択されると、監視対象の行動内容を確定してデータ格納部に格納する行動獲得部とを有する。
【発明の効果】
【0018】
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば下記の通りである。
【0019】
すなわち、したがって、本発明は、監視対象の動作状態から複数の行動内容を推定し、各時間帯に行動内容の候補を提示することにより、監視対象の行動パターンに対する行動内容の入力を簡易にすることでき、行動履歴の作成に要する労力を低減できる。
【発明を実施するための最良の形態】
【0020】
以下、本発明の実施の形態について、図面を参照しながら説明する。
【0021】
<第1の実施の形態>
本発明を適用する第1の実施例として、人に装着したセンサによって測定したセンシングデータから抽出したシーンを、人の生活行動の候補として提示することによって生活行動の記録を支援するライフログシステムを示す。
【0022】
図1は、本発明を適用するライフログシステムの構成の一例を示すブロック図である。本発明のライフログシステムは、当該システムの利用者の動作(または状態)を検出するセンサとして、加速度センサを備えた腕輪型センサノード1を用い、生体情報として腕の加速度を検出する例を示す。腕輪型センサノード1は、利用者(または参加者)の腕に装着されて加速度を検出し、所定の周期で検出した加速度データ(以下、センサにより取得されたデータをセンシングデータという)を無線通信が可能な場合は基地局102のアンテナ101を介して基地局102へ送信し、有線通信が可能な場合はUSB接続などを介してクライアント計算機(PC)103へ送信する。
【0023】
図1において、基地局102及びPC103は複数の腕輪型センサノード1と通信を行い、各腕輪型センサノード1から利用者の動きに応じたセンシングデータを受信し、ネットワーク105を介してサーバ104へ転送する。サーバ104は受信したセンシングデータを格納する。サーバ104は受信したセンシングデータを解析し、後述するように利用者の行動履歴を示すライフログを生成して格納する。
【0024】
サーバ104が生成したライフログは、ライフログシステムの利用者が操作するクライアント計算機(PC)103で閲覧または編集することができ、利用者は、サーバ104が生成したライフログの詳細な情報を付加することができる。
【0025】
図2は、本発明のライフログシステムのセンサ部を構成する腕輪型(または腕時計型)センサノード1の一例を示す図で、図2(a)は腕輪型センサノード1の正面から見た概略図で、図2(b)は腕輪型センサノード1を側方から見た断面図である。この腕輪型センサノード1は主に利用者(装着者)の動きを測定する。
【0026】
腕輪型センサノード1は、センサや制御装置を格納するケース11と、ケース11を人体の腕に装着するバンド12を備える。
【0027】
ケース11の内部には、図2(b)のようにマイクロコンピュータ3やセンサ6等を備えた基板10が格納される。そして、人体(生体)の動きを測定するセンサ6としては、図中X−Y−Zの3軸の加速度をそれぞれ測定する加速度センサを採用した例を示す。なお、本実施形態では、腕輪型センサノード1には図示しない温度センサを備え、利用者の体温を測定し、加速度とともにセンシングデータとして出力するものとする。
【0028】
図3は、腕輪型センサノード11の基板10に取り付けられた電子回路のブロック図を示す。図3において、基板10には、基地局102と通信を行うアンテナ5を備えた無線通信部(RF)2と、PC103と有線接続するUSB通信部39と、センサ6と及び無線通信部2を制御するマイクロコンピュータ3と、マイクロコンピュータ3を間欠的に起動するためのタイマとして機能するリアルタイムクロック(RTC)4と、各部に電力を供給する電池7と、センサ6への電力の供給を制御するスイッチ8が配置される。また、スイッチ8とセンサ6の間には、バイパスコンデンサC1が接続されてノイズの除去や、充放電の速度を低減して無駄な電力消費を防ぐ。バイパスコンデンサC1への充放電回数を減らすようにスイッチ8を制御することによって、無駄な電力消費を抑えることが可能になる。
マイクロコンピュータ3は、演算処理を実行するCPU34と、CPU34で実行するプログラムなどを格納するROM33と、データなどを格納するRAM32と、RTC4からの信号(タイマ割り込み)に基づいてCPU34に割り込みをかける割り込み制御部35と、センサ6から出力されたアナログ信号をデジタル信号に変換するA/Dコンバータ31と、無線通信部2及びUSB通信部39との間でシリアル信号にて信号の送受を行うシリアルコミュニケーションインターフェース(SCI)36と、無線通信部2及びUSB通信部39とスイッチ8を制御するパラレルインターフェース(PIO)37と、マイクロコンピュータ3内の上記各部へクロックを供給する発振部(OSC)30とを含んで構成される。そして、マイクロコンピュータ3内の上記各部はシステムバス38を介して接続される。RTC4は、マイクロコンピュータ3の割り込み制御部35に予め設定されている所定の周期で割り込み信号(タイマ割り込み)を出力し、また、SCI36へ基準クロックを出力する。PIO37はCPU34からの指令に応じてスイッチ8のON/OFFを制御し、センサ6への電力供給を制御する。
【0029】
腕輪型センサノード1は、所定の周期(例えば、1分等)でマイクロコンピュータ3を起動して、センサ6からセンシングデータを取得し、取得したセンシングデータに腕輪型センサノード1を特定する識別子とタイムスタンプを付与して基地局102またはPC103へ送信する。なお、腕輪型センサノード1の制御の詳細は、例えば、特開2008−59058号公報等と同様にすることができる。なお、腕輪型センサノード1は、連続的に取得したセンシングデータを、周期的に基地局102またはPC103へ送信するようにしても良い。
【0030】
図4(a)は、図1に示した本発明を適用するライフログシステムの機能要素を示すブロック図である。腕輪型センサノード1が送信したセンシングデータは、基地局102を介してサーバ104のデータ格納部500に蓄積される。
【0031】
クライアント103は、各種情報を表示する表示部1031と利用者の操作によって様々な情報の入力を可能とする入力部1032を具備する。
【0032】
サーバ104は、図示しないプロセッサとメモリ及びストレージ装置を備えて、利用者の腕の加速度で測定されたセンシングデータを集計し、データ集計部200、シーン分割部300、シーン列挙部400、及び行動獲得部500を実行する。データ集計部200は、単位時間(例えば、1分間)毎の集計値を算出し、データ格納部600に格納する。シーン分割部300は、センシングデータおよび前記集計した集計データを解析して、個別の動作状態であるシーン領域および個々の運動状態であるシーン断片を抽出し、データ格納部600に格納する。シーン列挙部400は、抽出したシーン領域とシーン断片に対して、過去データから作成したルール、または、予め登録したシーン判定ルールを適用することによって、行動内容の候補であるシーンを抽出し、データ格納部600に格納する。行動獲得部500は、抽出したシーンを利用者のクライアント計算機103に提示し、利用者が選択したシーンを利用者が入力した行動内容と共にデータ格納部600に格納する。
【0033】
なお、データ格納部600に格納されるセンシングデータには腕輪型センサノード1の識別子が付与され、また、行動内容、動作状態、シーン、および、行動記録のデータには利用者を特定する識別子(例えば、腕輪型センサノード1の識別子)が付与されて、利用者を識別することができる。
【0034】
ここで動作状態は、センシングデータに基づき判定した睡眠、歩行、安静などの利用者の動作の様子を表し、行動内容は、散歩、映画鑑賞などの利用者の実際の行動の内容を表す。
【0035】
シーン分割部300とシーン列挙部400と行動獲得部500は、例えば、プログラムとしてストレージ装置(記憶媒体)に格納され、所定のタイミングでメモリへロードされてプロセッサにより実行される。なお、以下では、サーバ104が、シーン分割部300とシーン列挙部400を所定の周期(例えば、5分間)毎に実行する例、および、行動獲得部500を利用者から要求されたタイミングで実行する例を示す。
【0036】
図5は、本発明を適用するライフログシステムで行われるデータ処理の全体的な流れを示す図である。まず、ステップS1では、腕輪型センサノード1が送信したセンシングデータを基地局102またはPC103がサーバ104へ転送し、サーバ104のデータ格納部600にセンシングデータを蓄積する。さらに、サーバ104が所定の周期になるとデータ集計部200を実行して、データ格納部600に蓄積されたセンシングデータから単位時間毎の運動頻度を算出し、データ格納部600に格納する。この運動頻度の算出結果は図6(動作頻度)で示すように単位時間毎の運動頻度を時系列的にソートしたデータとなる。運動頻度の算出方法は、図7、図8を用いて後述する。
【0037】
次に、ステップS2では、サーバ104が所定の周期になるとシーン分割部300を実行して、データ格納部600に蓄積されたセンシングデータと集計データから利用者の一連の動作状態であるシーン領域、および、シーン領域を構成する運動であるシーン断片を作成する。
【0038】
このシーン領域の作成処理は、センシングデータまたは集計データから抽出可能である所定の動作状態(例えば、歩行、睡眠)を検出し、検出された動作状態、および、検出された動作状態と次の動作状態に挟まれた期間をシーン領域として抽出し、後述する所定の判定ルールを用いて睡眠、安静、軽作業、作業、歩行、運動の動作内容を判定し、各シーン領域に割り当てるものである。
【0039】
さらに、シーン断片の作成処理は、前記抽出されたシーン領域毎に、センシングデータまたは所定時間内のセンシングデータの集計データから時系列的なデータの変化点を検出し、変化点から次の変化点までを1つの運動単位であるシーン断片として抽出し、シーン断片の抽出方法ごとに断片分類を割り当てる。そして、断片分類ごとに、運動量の統計値を用いたグループ分け、センシングデータの類似度を用いたグループ分け、集計データの類似度を用いたグループ分けなど1以上グループ分けにより、グループの識別子である断片分類の値を割り当てる。センシングデータまたは集計データの変化点とは、激しく動いている状態から静かになった時点などを変化点として抽出する。上記の処理により、シーン分割部300は所定の周期毎にシーン領域とシーン断片を作成し、データ格納部600に格納する。図6に、睡眠、歩行、安静、軽作業の動作状態をシーン領域として抽出した例、シーン領域ごとにシーン断片を抽出した例、シーン領域とシーン断片の関係の例を図示する。
【0040】
次に、サーバ104は、ステップS3でシーン分割部300が抽出したシーン領域、シーン断片、及び前後の行動内容が既に確定している場合にはその行動内容を、登録されているシーン判定ルールに従って判定し、利用者の行動内容の候補であるシーンを作成し、データ格納部600に格納する。
【0041】
登録されたシーン判定ルールは、利用者毎の過去の行動内容、シーン領域、シーン断片のデータから抽出したルール、または、利用者を含むデータ格納部600に格納された行動内容、シーン領域、シーン断片のデータから作成したルール、または、既知の知識を用いて構築したルールである。具体的には、行動内容、シーン領域、シーン断片、時間情報の組合せと順序パターンから作成され、行動内容の候補であるシーンを判定するためのものである。シーン判定ルールの構造及びシーン判定の例は、図21において後述する。
【0042】
例えば、早朝の歩行という動作内容であれば、具体的な行動内容の候補は散歩とすることができ、あるいは、「起床後30〜90分の間で歩行(10−15分)、安静(20−25分)、歩行(7−10分)であれば、その利用者の通常の生活においては定型化している「通勤」として判定する。なお、行動内容は動作内容の組合せなので、多くの場合複数のシーン領域から成り立つが、上述の散歩のように、単一の動作内容と時刻から定まる行動内容も存在する。
【0043】
次に、行動獲得部500は、データ格納部に格納されたシーンから、利用者が行った行動内容に一致する可能性の高い順に提示する優先順位を付与する(ステップS4)。
【0044】
次に、サーバ104は、ステップS5で、上記優先順位に従って、各シーンをクライアント計算機103に提示する。ステップS6では、クライアント計算機103を操作する利用者が、サーバ104が抽出したシーンに対応する行動内容を確認し、優先順位の順で提示されたシーンを選択することで、利用者は容易に日々の生活記録(ライフログ)の生成することができる。
【0045】
次に、ステップS7では、クライアント計算機103で選択されたシーンを行動記録として確定する。
【0046】
こうして作成されたライフログは、ステップS8で利用者の識別子と作成日時などのタイムスタンプとともに、サーバ104のデータ格納部600へ格納される。
【0047】
図7は、サーバ104のデータ集計部200で行われる処理の一例を示すフローチャートである。まず、データ集計部200は、利用者の識別子に対応するセンシングデータをデータ格納部600から読み込む(ステップS11)。ここで、データ集計部200が読み込むセンシングデータの量は、センシングデータの集計周期である所定の周期(例えば、3分間)等に設定すればよい。
【0048】
次に、ステップS12では、データ集計部200が読み込んだセンシングデータの加速度データについて所定の時間間隔(例えば、1分)毎の集計値を算出する。本実施形態では、所定の時間間隔内での腕輪型センサノード1の装着者(利用者)の運動の頻度を示すゼロクロス回数を集計値として用いる。
【0049】
腕輪型センサノード1が検出したセンシングデータにはX、Y、Z軸の加速度データが含まれているので、データ集計部200は、X、Y、Zの3軸の加速度のスカラー量を算出し、スカラー量が0または0近傍の所定値を通過する値をゼロクロス回数として算出し、ゼロクロス回数が所定時間間隔内に出現する頻度を算出し、この出現頻度を、所定の時間間隔(1分間)の運動頻度として出力する。
【0050】
まず、スカラー量は、各軸の加速度をXg、Yg、Zgとすると、スカラー量=(Xg2+Yg2+Zg2)1/2で求められる。
【0051】
次に、求めたスカラー量をフィルタ(バンドパスフィルタ)処理し、所定の周波数帯域(例えば、0.1Hz〜5Hz)のみを抽出し、ノイズ成分を除去する。そして、図8で示すように、フィルタ処理を施した加速度のスカラー量が所定の閾値(例えば、0.05G)となった回数をゼロクロス回数として算出する。あるいは、加速度のスカラー量が所定の閾値をよぎった回数をゼロクロス回数とする。そして、所定の時間間隔内のゼロクロス回数を運動頻度として求める。また、所定の時間間隔内の運動量の積分値をゼロクロス回数とスカラー量から求めて、この積分値を運動強度とする。またセンシングデータに含まれる温度についても所定の時間間隔内の平均温度を求める。なお、運動頻度は、XYZの各方向の加速度の値が、正と負に振動した回数(振動数)を各方向の所定時間内で数えて合計してもよいが、本実施形態では、計算を簡略化することができるため、ゼロクロス回数を算出する方法について説明した。
【0052】
データ集計部200は、所定の時間間隔毎に、運動頻度、平均温度、運動強度を求め、図9に示すように、それらを所定の時間間隔毎の集計データとして生成し、データ格納部600へ蓄積する。図9は、所定時間間隔毎の集計データのフォーマット700を示す説明図で、センシングデータに含まれる腕輪型センサノード1の識別子を格納するセンサデータID702と、腕輪型センサノード1の装着者(ライフログシステムの利用者)の識別子を格納するユーザID701と、所定の時間間隔の開始時刻(測定日時)を格納する測定日時703と、センシングデータに含まれる温度を格納する温度704と、データ集計部200が演算した運動頻度を格納する運動頻度705と、データ集計部200が求めた運動強度を格納する運動強度706からひとつのエントリを構成する。なお、利用者の識別子は、腕輪型センサノード1の識別子に基づいて予め設定した図示しないテーブルから参照すればよい。
【0053】
図10は、サーバ104のシーン分割部300で行われるシーン領域とシーン断片の作成処理を示すフローチャートである。まず、シーン分割部300は、利用者の識別子に対応するセンシングデータと集計データをデータ格納部600から読み込む(ステップS21)。ここで、シーン分割部300が読み込む集計データの量は、シーン領域作成の周期である所定の周期(例えば、5分間)などに設定すればよい。
【0054】
次に、ステップS22では、シーン分割部300が読み込んだセンシングデータと集計データから所定の動作状態を検出し、シーン領域を作成する。ここで、所定の動作状態は、センシングデータまたは集計データから検出可能な動作状態であり、例えば歩行、睡眠である。
【0055】
例えば歩行状態を検知する手法は、上下方向の加速度が周期的に変化する(一歩ごとの着地)、前後方向の加速度が上下方向の加速度と同期して規則的に前方向と後ろ方向を繰り返す(着地するごとの速度変化)、左右方向の加速度が上下方向の加速度に同期して規則的に繰り返す(一歩ごとの体の左右へのゆれ)、といった波形が観測でき、さらに腕の振りが重なった波形として観測できるので、これらにより、該当するシーンが歩行状態であるか否かを判定できる。また、ゼロクロスの周期の逆数を歩数として検知することも可能である。これらの人体に装着した加速度センサから歩行状態を検知する手法は、公知の手法を用いれば良い。
【0056】
また、睡眠は、運動頻度は極めて低いが、睡眠中でも人体は寝返りなどの運動を行うため、運動頻度はゼロにはならない。睡眠を判定する手法についても公知の手法を用いればよい。
【0057】
次に、歩行、睡眠に該当しないシーン領域に対して、図27に示す判定値のテーブルを参照し、各シーン領域の運動頻度が「安静」、「軽作業」、「作業」、「運動」の各判定値と比較して何れに該当するかを判定する。
【0058】
次に、ステップS23では、前記抽出された各シーン領域について、当該シーン領域の開始日時と終了日時の期間に該当する集計データから、時系列的な運動頻度の変化点を検出し、変化点間を同一の運動を行った単位であるシーン断片として抽出してデータ格納部600に格納する。
【0059】
以上の処理により、シーン分割部300はセンシングデータと集計データから動作状態の単位であるシーン領域と運動変化の単位であるシーン断片を抽出する。
【0060】
図11は、データ格納部600に格納されるシーン領域データ800のフォーマットを示す説明図で、利用者の識別子を格納するユーザID801と、シーン領域データの識別子であるシーン領域データID802と、シーン領域の開始日時803と、終了日時804と、シーン領域の動作状態を示す領域内容805とからひとつのエントリを構成する。
【0061】
図12は、データ格納部600に格納されるシーン断片データのフォーマット900を示す説明図で、利用者の識別子であるユーザID901と、対応するシーン領域データの識別子であるシーン領域データID902と、シーン断片データの開始日時903と、終了日時904と、付与されたグループの識別子である断片分類1(905)から断片分類n(906)とからひとつのエントリを構成する。
【0062】
このようにユーザIDに対応づけてシーン領域データID、領域内容、断片分類等を記録しておくことにより、ユーザごとに行動内容の候補であるシーンを作成することが可能となる。
【0063】
図13(a)は、イベントデータを登録する手順を示すフローチャートである。ここでイベントとは、ユーザがPC、携帯電話などを用いて行った行為であり、短時間の出来事を意味する。例えば、メール送受信、写真撮影、買い物などである。ここではメール送受信を例に手順を説明する。
【0064】
まず、利用者がPC103でメールを送受信した際に、ステップS24でPC103からメール送受信したことを示すデータとその時刻、及びユーザIDをサーバ104に送付する。次にステップS25で、図13(b)に示すデータを作成し、ステップS26でサーバのデータ格納部600に登録する。ここで、イベントデータの送信元はPC103に限らず、例えば利用者の携帯電話などの計算機能を持った外部機器が考えられる。このように、本実施形態のライフログシステムでは、利用者がPC又は携帯電話の操作をしてメール送受信等の行為を行った場合に、その行為がイベントデータとして、サーバに送信されるように構成される。そして、イベントデータに付与されるユーザID、行為を行った時刻とともに、サーバのデータ格納部に記録される。なお、PCあるいは携帯電話等がイベントデータをサーバに送信するタイミングは、その行為が行われたとき、所定の時間間隔、又は、利用者が指定したタイミング、など特に限定されない。
【0065】
図13(b)は、データ格納部600に格納されるイベントデータのフォーマット1100を示す説明図で、利用者の識別子を格納するユーザID1101と、イベントデータの識別子であるイベントデータID1102と、イベントデータの種類をあらわすイベント分類ID1103と、イベントデータの日時1104と、イベントデータの示す内容又は利用者が付与するコメント等のイベントの内容を格納するイベント内容1105と、当該イベントと関連するシーン領域IDを格納する関連シーン1106とからひとつのエントリを構成する。イベントデータとシーン領域データとは、イベントデータの日時とシーン領域データの開始日時と終了日時により関連づけられる。また、利用者は後述する図16(c)に示すように、イベントデータにコメントを付すことができ、その内容がイベント内容として登録される。
【0066】
図14は、図4(a)のライフログシステムの機能要素を示すブロック図の表示部1031に表示される、利用者の行動記録を入力するための入力支援画面の一例である。
【0067】
図14の入力支援画面例では、日付選択部1040、グラフ表示部1041、行動記録表示部1042、シーン領域表示部1043、イベント表示部1044を含む。
【0068】
日付選択部1040は、利用者が行動記録を入力する日付候補を表示し、利用者の選択により他の表示部にデータを表示するためのトリガ機能を有する。
【0069】
グラフ表示部1041は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出した単位時間毎の運動頻度を時系列的にソートしたデータを表示する機能を有する。
【0070】
行動記録表示部1042は、日付選択部1040により選択された日付の行動記録を表示、編集するための機能を有する。
【0071】
シーン領域表示部1043は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出したシーン領域データを表示するための機能を有する。
【0072】
イベント表示部1044は、日付選択部1040により選択された日付のイベントを表示するための機能を有する。
【0073】
以下、行動記録表示部1042に行動内容を表示する第1及び第2の方法について説明する。第1の方法では、シーン領域データまたはイベントデータが表示されると、利用者が当該シーン領域データ又はイベントデータについてコメントを入力し行動内容が確定されることにより、行動記録入力の負担軽減を実現することを特徴とする。
【0074】
また、第2の方法では、シーン領域データまたはイベントデータから行動記録の候補を算出し、提示することにより、行動記録入力の負担軽減を実現することを特徴とする。
【0075】
まず、第1の方法について、図15及び図16を用いて説明する。図15はデータ表示処理の手順を示すフローチャートである。
【0076】
まず、日付選択部1040を用いて行動記録を入力する日付を選択し、利用者の該当する日付のシーン領域データ、イベントデータ、及び既に登録されている行動記録データがある場合には行動記録データ、をデータ格納部600から抽出する(S201、S202)。抽出したシーン領域データ、イベントデータ及び行動記録データを該当部分に表示する(S203)。
【0077】
図16(a)は行動記録入力支援処理の手順を示すフローチャートである。
まず、シーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示し(S201〜S203) 、利用者がシーン領域データ、イベントデータ中から選択する(S301)と、選択されたシーン領域データ、イベントデータが行動記録表示部1042に表示される(S302)。次に、行動記録表示部に表示された当該シーン領域データ、イベントデータにコメントをつける、シーンの開始・終了時刻を調整する、イベントの位置を調整するなどの行動記録編集支援処理を行い、行動記録の入力を完了する(S303、S304)。全ての入力が完了していない場合にはS301〜S304を繰り返す(S305)。
【0078】
図16(b)、図16(c)に上記行動記録入力支援処理手順の画面表示の一例を示す。図16(b)はS201〜S203でシーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示した画面表示の一例である。図14に示すように、シーン領域領域表示部には、睡眠、安静、軽作業、歩行が表示され、イベント表示部には、あるイベントが表示されている。図16(c)はS301〜S303の画面表示の一例である。シーン領域表示部1043またはイベント表示部1044からシーン領域データまたはイベントデータを選択することにより、当該データを行動記録表示部1042中の、例えばシーン領域データは下段、イベントデータは上段に表示する。
【0079】
その後、利用者が、行動記録表示部1042に表示されたシーン領域データあるいはイベントデータを入力部1032を介して選択し、コメント(行動内容)を入力することにより、図14に示す睡眠、通勤、仕事などの行動内容が行動記録表示部に表示される。
【0080】
以上説明したように、第1の方法によれば、行動記録入力の際に腕輪型センサノード1で測定できるセンサデータを用いて生成したシーン領域データ及び利用者の手入力または腕輪型センサノード1以外の機器を用いて生成・収集したイベントデータを選択することにより行動記録入力を行うことにより、利用者の行動記録入力に要する負担を軽減することが可能となる。
【0081】
行動記録編集支援処理のシーン(行動内容)の開始・終了時刻、イベントの時刻を調整する方法については図17で説明する。
【0082】
利用者が手作業でシーンの開始・終了時刻、イベントの時刻を調整する場合には、シーン断片の開始・終了時刻を目盛りとして編集する場合と、シーン領域の開始・終了時刻を目盛りとして編集する場合とがある。シーン断片に基づく目盛りはシーン断片目盛り1047に表示し、シーン領域に基づく目盛りはシーン領域目盛り1048に表示する。これらの目盛りは入力部を介して、行動記録表示部1042を利用者が指定することにより、行動獲得部により表示される。または、シーン領域表示とともに自動的に表示されるようにすることができる。このようなシーン断片目盛りあるいはシーン領域目盛りを設けることにより、利用者が手作業で行動記録の開始・終了時刻、イベントの時刻を調整する際の時刻合わせの負担を軽減することが可能となる。
【0083】
次に、行動記録表示部1042に行動内容を表示する第2の方法について、図19乃至図21を用いて説明する。
【0084】
図19(a)は行動記録入力支援方法の手順を示すフローチャートである。
【0085】
まず、利用者が日付選択部1040に行動記録を入力する日付を入力すると、シーン列挙部は、データ格納部600から該当する日付のシーン領域データ、イベントデータを抽出する(S401、S402)。次に、抽出したシーン領域とシーン断片、及び前後の行動内容が既に確定している場合にはその行動内容を、登録されているシーン判定ルールに従って判定し、シーン作成処理を行う(S403)。
【0086】
次に、行動獲得部は、作成したシーンのうち、確信度が予め設定されているしきい値より大きいシーン領域データを行動記録表示部1042に自動的に表示する(S404)。さらにシーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示する(S405)。利用者が行動記録表示部1042中の入力したい部分(時刻)を選択すると、選択部分を含むシーン領域データ、イベントデータの候補が表示される(S406、407)。本実施形態では、利用者はシーン領域データ、イベントデータを候補中から選択する(S408)と、選択されたシーン領域データ、イベントが行動記録表示部1042に表示される(S409)。
【0087】
次に、行動記録表示部に表示された当該シーン領域データ、イベントデータにコメントをつける、シーンの開始・終了時刻を調整する、イベントの位置を調整するなどの行動記録編集作業を行い、行動記録の入力を完了する(S410、S411)。全ての入力が完了していない場合にはS405〜S410を繰り返す(S412)。シーン領域データ、イベントデータにコメントをつける、シーンの開始・終了時刻を調整する、イベントの位置を調整するなどの処理は、第1の方法で説明した内容と同様である。
【0088】
図19(b)は、S404に関する図示例である。図19(b)の例ではシーンデータ「睡眠」が確信度がしきい値以上のシーンデータであるとして自動入力されている。
【0089】
図19(c)は、S405〜S408に関する図示例である。利用者が入力したい部分(時刻)を選択すると選択時刻を含む開始・終了時刻、種類の異なる複数候補を含む行動記録候補表示部1060が表示される(図19(c)の上図)。このとき、表示される候補は、シーンデータの確信度が高い順または、利用者が過去に選択した頻度の高い順に表示される。利用者が候補からシーンデータを選択すると、行動記録表示部1042に行動記録が表示される(図19(c)の下図)。
【0090】
図20は、シーン列挙部400で行われるシーン作成処理(図19(a)のS403)を表すフローチャートである。シーン列挙部ではシーン判定ルールに一致するシーン領域、シーン断片、行動記録のパターンを検索し、シーン(行動内容)を抽出する。
【0091】
まず、ステップS51では、利用者に該当する予め登録されたシーン判定ルールをデータ格納部600から読み出す。シーン判定ルールは、条件と結論からなり、条件を満たすとある結論(シーン)が推定されるものであり、ユーザごとに予め記録されている。条件は、複数または単一のシーン領域、行動記録の組合せ、順序パターンから構成される。シーン領域は、シーン領域内容だけでなく、当該シーン領域の期間にあるシーン断片の組合せも条件となる。また、シーン領域、シーン断片、行動記録は開始日時から終了日時までの経過時間も条件となる。一方、結論は、シーン内容、シーン領域あるいは行動記録の開始日時、終了日時からなり、それらの判定精度を示す値を評価値として確信度を伴う。確信度は過去のデータから算出することが可能である、また、シーン判定ルールを専門家の知見によって作成する場合には任意に定めてもよい。
【0092】
図21はシーン判定ルールの構造の一例である。シーン判定ルールは条件テーブル1000と結論テーブル1100からなり、ルールIDで紐付けられている。条件テーブルは、ユーザID、ルールID、順序、種別、項目名、値、比較演算の組からなる。種別は対象となるデータの種類であるシーン領域、シーン断片、行動記録、時間情報である経過時間、時間帯、時間からなる。比較演算は、判定対象となるシーン領域データ等と一致するか否かを判定する演算式である。結論テーブルは、ユーザID、ルールID、シーン内容、開始日時、終了日時、確信度の組からなる。開始日時と終了日時は特定の値を定義せず、条件テーブルの順序に示すデータの開始日時または終了日時を指定することによって、条件テーブルの条件を満たすデータから、開始日時と終了日時を決めることができる。
【0093】
例えば、ユーザID101のルールID1のシーン判定ルールは、「最初が行動記録「睡眠」であり、その後の70分以内の朝時間帯に「歩行」のシーン領域があり、次に「安静」のシーン領域、最後に「歩行」のシーン領域である場合、シーンは「通勤」であり、その確信度は「80%」である。」ことを示している。
【0094】
また、ユーザID105のルールID2のシーン判定ルールは、「軽作業のシーン領域であり、そのシーン領域における断片分類1の値が5であるシーン断片と、断片分類3の値が2であるシーン断片とを含み、そのシーン領域の開始日時から終了日時までの時間が30分以上の場合、シーンは「会議」であり、確信度は「60%」である」ことを示している。
【0095】
次に、ステップS52では、読み出された各シーン判定ルールについて、データ格納部600に格納されているシーン領域、シーン断片、利用者によって入力された行動記録から、シーン判定ルールの条件テーブルの条件をすべて満たすものを抽出し、結論テーブルの内容をシーンとして抽出し、データ格納部600にシーンとして格納する(ステップS53)。
【0096】
次に、ステップS54では、前記抽出したシーンをデータ格納部600に格納した時点以降に利用者が行動記録を入力した場合、再びステップS51以降を繰り返すことによって、シーン判定ルールを満たすシーンのデータ格納部600への格納を繰り返す。新たな行動記録が入力されることによって、条件を満たすシーン判定ルールが増加し、データ格納部600に格納すべきシーンが追加され、確信度の高いシーンが格納される場合がある。以上の処理によって、自動入力されるシーン及び行動記録候補が作成される。
【0097】
以上説明したように、第2の方法によれば、歩行、運動、安静といった大まかな動作を識別することのみならず、具体的な行動内容の候補を算出し、利用者に提示する。これにより、行動記録入力の際に、利用者の入力負担軽減を実現することが可能となる。
【0098】
特に、センシングデータから一連の動作状態の単位であるシーン領域、シーン領域を構成する短時間の運動状態であるシーン断片を作成する。そして、行動内容をシーン領域の組合せと順序パターンで構成し、シーン領域の動作状態のみでなく、シーン断片の組合せで類似性を判定することによって、行動内容の候補を算出することができる。これにより、利用者の行動を一定時間間隔ではなく、時間間隔の異なる複数の行動候補を確信度とともに表示することが可能となる。それゆえ、利用者の行動のゆらぎに対応することができ、より正確な行動記録を作成することができる。
【0099】
図18は、上述した第1及び第2の方法により行動が確定した場合に、行動記録データのフォーマット1200を示し、データ格納部600に格納される。利用者の識別子を格納するユーザID1201と、行動記録データの識別子である行動記録データID1202と、行動記録データの開始日時1203と、終了日時1204と、利用者が付与するコメント等の行動記録の内容を格納する行動記録内容1205と、当該行動記録と関連するシーン領域データまたはイベントデータのIDを格納する関連データ1206とからひとつのエントリを構成する。
【0100】
なお、上記実施形態では、ライフログシステムとして利用者(人体)の運動状態を検出するために、腕輪型センサノード1の加速度センサを用いた例を示したが、人体の運動状態を検知可能な生体情報であればよく、例えば、脈拍や歩数などを用いることができ、あるいは、これらの複数の生体情報の組合せから人体の運動状態を検知しても良い。また、生体情報だけではなく、人体の位置をGPSや携帯端末等の位置情報を用いるようにしても良い。
【0101】
また、ライフログシステムでは監視対象が人であり、シーンは行動に対応するが、監視対象は人に限定されるものではなく、機器でもよい。監視対象を機器とした場合には、機器に装着したセンサによって測定された機器の状態を示すセンシングデータ(例えば、振動、音量)から、シーンとして稼動状態や稼動内容を示すシーンを抽出することが可能であり、機器の稼動状態履歴を獲得することができる。
<第2の実施形態>
図4(b)は、上記実施形態の図4(a)に示したシステム構成の一部を変更したもので、その他の構成は第1の実施形態と同様である。第1の実施形態のサーバ104に代わって、クライアント計算機103がデータ収集部200、シーン分割部300、シーン列挙部400、行動獲得部500、および、データ格納部を備えており、このクライアント計算機103が直接基地局102に接続されたものである。データ収集部200、シーン分割部300、シーン列挙部400、行動獲得部500、データ収集部600の構成は上記実施形態と同様である。クライアント計算機103はネットワーク105を介してサーバ104に接続される。サーバ104は、クライアント計算機103が生成した行動記録を受信して格納するデータ格納部1300と、行動記録に対して所定の解析を行う解析部1400を備える。
【0102】
図4(a)の構成の場合、サーバにデータを蓄積するため、ネットワーク接続が可能である場合、場所を気にせずデータの送付を行うことができる。しかし、ネットワーク接続ができない場合にはデータの送付や行動入力などが出来ないという問題がある。図4(b)の構成では、データ送付や行動入力のためにPC103などの専用の計算機が必要となるため場所に制約があるが、PC103にデータを送付し、PC103上で行動入力などを行うため、ネットワーク接続の有無を気にする必要がないという利点がある。
【0103】
<第3の実施の形態>
第1の実施の形態及び、第2の実施の形態では、行動記録入力の参考情報としてシーン領域データ、イベントデータを用いてきたが、その他のデータを用いてもかまわない。第3の実施の形態では、PC利用状況に関するデータ及びスケジュールデータを用いる例について説明する。
【0104】
図22は、図4(a)のライフログシステムの機能要素を示すブロック図の表示部1031に表示される、利用者の行動記録を入力するための入力支援画面の一例である。
【0105】
図22の入力支援画面例では、日付選択部1040、グラフ表示部1041、行動記録表示部1042、シーン領域表示部1043、イベント表示部1044、PC利用状況表示部1045、スケジュール表示部1046を含む。
【0106】
日付選択部1040は、利用者が行動記録を入力する日付候補を表示し、利用者の選択により他の表示部にデータを表示するためのトリガ機能を有する。
【0107】
グラフ表示部1041は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出した単位時間毎の運動頻度を時系列的にソートしたデータを表示する機能を有する。
【0108】
行動記録表示部1042は、日付選択部1040により選択された日付の行動記録を表示、編集するための機能を有する。
【0109】
シーン領域表示部1043は、日付選択部1040により選択された日付の腕輪型センサノード等を用いて収集した加速度に基づき算出したセンサシーンを表示するための機能を有する。
【0110】
イベント表示部1044は、日付選択部1040により選択された日付のイベントを表示するための機能を有する。
【0111】
PC利用状況表示部1045は、日付選択部1040により選択された日付の利用者が使用する計算機端末(PC)の利用状況を表示するための機能を有する。
【0112】
スケジュール表示部1046は、日付選択部1040により選択された日付の利用者のスケジュールを表示する機能を有する。
【0113】
PC利用状況データ及びスケジュールデータは、図13(a)のフローチャートに示す手順で取得し、図13(b)に示すデータ構造をとる。
【0114】
PC利用状況データは、PC操作に係わるデータであり、例えばPCの起動、終了に関するデータである。キーボード、マウスなどの入力装置操作などの履歴情報を含めることも出来る。まず、利用者がPC103を操作したときに履歴情報を取得し、ステップS24でその情報をPC103からサーバ104に送付する。送付のタイミングは一時間ごと、PC終了の直前などである。次にステップS25で、図13(b)に示すデータを作成し、ステップS26でサーバのデータ格納部600に登録する。
【0115】
スケジュールデータは、利用者がPC103上のスケジュール入力ツールを用いて入力した利用者自身のスケジュールである。まず、利用者がPC103上のスケジュール入力ツールを用いてデータ入力した際に、ステップS24でそのデータをPC103からサーバ104に送付する。次にステップS25で、図13(b)に示すデータを作成し、ステップS26でサーバのデータ格納部600に登録する。
【0116】
スケジュール入力ツールは、利用者所有の携帯電話上にあってもかまわない。また、サーバ104上のスケジュール入力ツールを利用することも可能であり、この場合は、サーバ104上のスケジュール入力ツールから直接ステップS25、S26を実行し、データを登録する。
【0117】
図22の入力支援画面例では、日付選択部1040、グラフ表示部1041、行動記録表示部1042、シーン領域表示部1043、イベント表示部1044、PC利用状況表示部1045、スケジュール表示部1046を含んだ構成となっているが、取得可能なデータの数、種類及び利用者のニーズによって構成は変化することが可能である。
【0118】
第3の実施の形態に関わる行動記録編集支援処理のシーンの開始・終了時刻、イベントの時刻を調整する方法については図23で説明する。
【0119】
利用者が手作業でシーンの開始・終了時刻、イベントの時刻を調整する場合には、目盛り1047に表示されるシーン断片の開始・終了時刻を目盛りとして編集する場合と、目盛り1048に表示されるシーン領域の開始・終了時刻を目盛りとして編集する場合と、目盛り1049に表示される複数のデータの開始時刻または終了時刻が一致する切れ目を目盛りとして編集する場合などが、ある。上記各目盛りを表示するための対象情報は切り替えスイッチ1050〜1053をON、OFFすることにより切り替え可能である。また、表示される目盛りは編集時に必要な分だけ動的に表示されるでもよい。
【0120】
このように調整することにより、利用者が手作業でシーンの開始・終了時刻、イベントの時刻を調整する際の時刻合わせの負担を軽減することが可能となる。
以上のように、シーン領域データ、イベントデータだけでなく、PC利用状況に関するデータ及びスケジュールデータを用いることにより、行動記録として複数のデータを記録することが可能となり、利用者の入力負担軽減を実現することができる。
【0121】
つまり、一つの行動記録の入力が完了した後、その行動記録の開始時刻から終了時刻の間に同種類または他種類のシーンデータを選択することにより行動記録に階層構造を持たせることができる。このように行動記録を入力することによって、行動記録により詳細な情報を簡単に付与することが可能となる。図24にその例を示す。図24では、PC利用状況表示部及びスケジュール表示部に表示された内容を利用者が選択することにより、その選択した内容が行動記録表示部に表示される例を示している。具体的には、シーン領域データから確定された行動内容「仕事」に対して、PC利用状況から確定された「ファイル作成(資料A作成、情報収集)」、スケジュールから確定された「打合せ」が表示されている。
【0122】
<第4の実施の形態>
第1の実施の形態乃至第3の実施の形態では、行動記録編集支援処理の際のコメント、特に利用者の気持ちや感情を入力する場合には利用者の手作業による必要があるが、サーバのデータ格納部に予め登録された利用者の気持ち・感情を表す記号を用いて入力することも可能である。
【0123】
図25は第4の実施例の行動記録編集支援処理における利用者の気持ち・感情等を入力するための処理例である。
【0124】
まず、行動記録表示部1042に表示されている行動記録を選択すると予め登録されている気持ち・感情等を表す記号群が表示される。それらの中から必要なものを選択することによって、簡単に入力することが可能となる。
【0125】
また、図25下図の表示例にあるように、気持ち・感情等の記号群に予め気持ち・感情の起伏を表す指標を付与しておくと、気持ち・感情の起伏を表すグラフを生成することが可能である。
【0126】
図26に図25のコメント候補表示部1061中に表示されているコメント候補の内容および気持ち・感情の起伏を表すスコアの例を示す。コメント候補は図25及び図26中に記載されているものが全てではなく、感情を示すものなど様々なものが含まれる。また、スコアの与え方も気持ち・感情の起伏を表すことができればどのような方法でもかまわない。
【0127】
このように、利用者の気持ち・感情を表す記号を、シーン領域データ、イベントデータ、PC利用状況に関するデータ及びスケジュールデータと併せて用いることに用いることにより、実際の行動における気持ちや感情を容易に記録することが可能となり、利用者の入力負担軽減を実現することができる。
【0128】
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものでなく、種種変形実施可能であり、上述した各実施形態を適宜組み合わせることが可能であることは、当業者に理解されよう。
【図面の簡単な説明】
【0129】
【図1】ライフログシステムの構成の一例を示すブロック図である。
【図2】腕輪型センサノードの一例を示す図で、(a)は腕輪型センサノード1の正面から見た概略図で、(b)は腕輪型センサノードを側面から見た断面図である。
【図3】腕輪型センサノードの基盤に取り付けられた電子回路のブロック図の一例である。
【図4(a)】ライフログシステムの機能要素を示すブロック図の一例である。
【図4(b)】ライフログシステムの機能要素を示すブロック図の変形例である。
【図5】ライフログシステムで行われるデータ処理の全体的な流れを示す図の一例ある。
【図6】単位時間毎の運動頻度を時系列的にソートしたグラフ及びシーン領域、シーン断片の関係の例である。
【図7】データ集計部の処理の一例を示すフローチャートである。
【図8】加速度と時間の関係を示すグラフで、ゼロクロス回数の判定の一例を示す。
【図9】所定時間間隔毎の集計データのフォーマットの一例である。
【図10】シーン分割部の処理を示すフローチャートの一例である。
【図11】シーン領域データのフォーマットの一例である。
【図12】シーン断片データのフォーマットの一例である。
【図13(a)】イベントデータを登録する手順を示すフローチャートの一例である。
【図13(b)】イベントデータのフォーマットの一例である。
【図14】行動記録入力支援画面の画面構成例である。
【図15】データ表示処理の手順の一例を示すフローチャートである。
【図16(a)】行動記録入力支援処理の手順の一例を示すフローチャートである。
【図16(b)】シーン領域データ、イベントデータを行動記録入力支援画面の対応部分に表示した画面表示の一例である。
【図16(c)】シーン領域データ、イベントデータを行動記録入力支援画面の行動記録入力時の画面表示の一例である。
【図17】行動記録編集支援処理の画面構成の一例である。
【図18】行動記録データのフォーマットの一例である。
【図19(a)】行動記録入力支援方法の手順を示すフローチャートの一例である。
【図19(b)】行動記録自動入力の画面構成の一例である。
【図19(c)】行動記録候補表示の画面構成の一例である。
【図20】シーン作成処理を表すフローチャートの一例である。
【図21】シーン判定ルールの構造の一例である。
【図22】第3の実施の形態の行動記録入力支援画面の画面構成例である。
【図23】第3の実施の形態の行動記録編集支援処理の画面構成例である。
【図24】第3の実施の形態の行動記録に複数のデータを含む場合の図示例である。
【図25】第4の実施の形態の行動記録編集支援処理における利用者の気持ち・感情等を入力するための処理例である。
【図26】第4の実施の形態のコメント候補の内容および気持ち・感情の起伏を表すスコアの例である。
【図27】運動頻度と動作状態の関係を設定する判定値のテーブルの一例である。
【符号の説明】
【0130】
1 腕輪型センサノード
102 基地局
103 クライアント計算機
104 サーバ
200 データ集計部
300 シーン分割部
400 シーン列挙部
500 行動獲得部
600 データ格納部
1031 表示部
1032 入力部
【特許請求の範囲】
【請求項1】
センサと、上記センサが取得したセンシングデータをサーバに送信する通信部とを有し、監視対象に装着されるセンサノードと、
ネットワークを介して上記サーバに接続され、受信する上記センシングデータを上記サーバに送信する基地局と、
上記センシングデータを蓄積するデータ格納部と、上記データ格納部に蓄積されたセンシングデータから上記監視対象の動作状態を検出するシーン分割部と、上記データ格納部に格納されるシーン判定ルールに基づいて上記動作状態から上記監視対象の行動内容の候補を複数算出するシーン列挙部と、接続される表示部に上記複数の行動内容の候補を表示し、上記表示された複数の行動内容の候補から特定の行動内容が選択されると、上記監視対象の行動内容を確定して上記データ格納部に格納する行動獲得部と、を有するサーバと、
を備える行動記録入力支援システム。
【請求項2】
請求項1に記載の行動記録入力支援システムにおいて、
上記シーン列挙部は、上記複数の候補それぞれの確信度を算出し、
上記行動獲得部は、時間間隔の異なる上記行動内容の候補を、上記確信度とともに上記表示部に表示する行動記録入力支援システム。
【請求項3】
請求項1に記載の行動記録入力支援システムにおいて、
上記シーン分割部は、上記動作状態と次の動作状態に挟まれた期間をシーン領域として抽出し、上記シーン領域ごとに上記センシングデータの時系列的な変化点を検出し、当該変化点から次の変化点までを運動単位とするシーン断片を抽出する行動記録入力支援システム。
【請求項4】
請求項1に記載の行動記録入力支援システムにおいて、
上記シーン判定ルールは、条件テーブルと結論テーブルからなり、
上記条件テーブルと上記結論テーブルは、ルールIDにより関連づけられ、
上記条件テーブルは、上記監視対象の動作状態を示すシーン領域、上記シーン領域を構成し運動単位を示すシーン断片、上記監視対象の行動記録、時間情報及びそれらの出現順序からなり、
上記結論テーブルは、上記出現順序、行動内容、及び確信度からなる行動記録入力支援システム。
【請求項5】
請求項1に記載の行動記録入力支援システムにおいて、
上記データ格納部は、外部機器を通じて入力されるデータをイベントデータとして記録し、
上記行動獲得部は、上記行動内容と時間軸を一致させて上記イベントデータを上記表示部に表示し、上記表示されたイベントデータが選択されると、上記確定された行動内容とともに上記選択されたイベントデータが表示される行動記録入力支援システム。
【請求項6】
請求項1に記載の行動記録入力支援システムにおいて、
上記行動獲得部は、上記表示部に、上記行動内容の時間幅を調整するための目盛りを表示する行動記録入力支援システム。
【請求項7】
請求項1に記載の行動記録入力支援システムにおいて、
上記監視対象が人である場合であって、
上記データ格納部には、上記人の気持ちあるいは感情を示す記号が格納され、
上記行動獲得部は、上記記号を上記表示部に表示し、上記表示された記号が選択されると、上記選択された記号に対応する指標に基づき、上記人の気持ちあるいは感情を時系列にグラフ表示する行動記録入力支援システム。
【請求項8】
監視対象に装着されるセンサノードがセンサにより取得した生体情報を受信する通信部と、
上記生体情報を蓄積するデータ格納部と、
上記生体情報から上記監視対象の動作状態を検出するシーン分割部と、
上記データ格納部に格納されるシーン判定ルールに基づいて上記動作状態から上記監視対象の行動内容の候補を複数算出するシーン列挙部と、
接続される表示部に上記複数の行動内容の候補を表示し、上記表示された複数の行動内容の候補から特定の行動内容が選択されると、上記監視対象の行動内容を確定して上記データ格納部に格納する行動獲得部と、
を備えるサーバ。
【請求項9】
請求項8に記載のサーバにおいて、
上記シーン列挙部は、上記複数の候補それぞれの確信度を算出し、
上記行動獲得部は、時間間隔の異なる上記行動内容の候補を、上記確信度とともに上記表示部に表示するサーバ。
【請求項10】
請求項8に記載のサーバにおいて、
上記シーン分割部は、上記動作状態と次の動作状態に挟まれた期間をシーン領域として抽出し、上記シーン領域ごとに上記生体情報の時系列的な変化点を検出し、当該変化点から次の変化点までを運動単位とするシーン断片を抽出するサーバ。
【請求項11】
請求項8に記載のサーバにおいて、
上記シーン判定ルールは、条件テーブルと結論テーブルからなり、
上記条件テーブルと上記結論テーブルは、ルールIDにより関連づけられ、
上記条件テーブルは、上記監視対象の動作状態を示すシーン領域、上記シーン領域を構成し運動単位を示すシーン断片、上記監視対象の行動記録、時間情報及びそれらの出現順序からなり、
上記結論テーブルは、上記出現順序、行動内容、及び確信度からなるサーバ。
【請求項12】
監視対象に装着されてセンシングデータを取得するセンサノードと、上記センシングデータを解析するサーバとを備えるシステムにより実行される行動記録入力支援方法であって、
上記センサノードは、上記センサが取得したセンシングデータを上記サーバに送信し、
上記サーバは、上記センシングデータを蓄積し、上記センシングデータから上記監視対象の動作状態を検出し、上記サーバに格納されるシーン判定ルールに基づいて上記動作状態から上記監視対象の行動内容の候補を複数算出し、接続される表示部に上記複数の行動内容の候補を表示し、上記表示された複数の行動内容の候補から特定の行動内容が選択されると、上記監視対象の行動内容を確定して上記サーバに格納する行動記録入力支援方法。
【請求項13】
請求項12に記載の行動記録入力支援方法であって、
上記サーバは、上記複数の候補それぞれの確信度を算出し、時間間隔の異なる上記行動内容の候補を、上記確信度とともに上記表示部に表示する行動記録入力支援方法。
【請求項1】
センサと、上記センサが取得したセンシングデータをサーバに送信する通信部とを有し、監視対象に装着されるセンサノードと、
ネットワークを介して上記サーバに接続され、受信する上記センシングデータを上記サーバに送信する基地局と、
上記センシングデータを蓄積するデータ格納部と、上記データ格納部に蓄積されたセンシングデータから上記監視対象の動作状態を検出するシーン分割部と、上記データ格納部に格納されるシーン判定ルールに基づいて上記動作状態から上記監視対象の行動内容の候補を複数算出するシーン列挙部と、接続される表示部に上記複数の行動内容の候補を表示し、上記表示された複数の行動内容の候補から特定の行動内容が選択されると、上記監視対象の行動内容を確定して上記データ格納部に格納する行動獲得部と、を有するサーバと、
を備える行動記録入力支援システム。
【請求項2】
請求項1に記載の行動記録入力支援システムにおいて、
上記シーン列挙部は、上記複数の候補それぞれの確信度を算出し、
上記行動獲得部は、時間間隔の異なる上記行動内容の候補を、上記確信度とともに上記表示部に表示する行動記録入力支援システム。
【請求項3】
請求項1に記載の行動記録入力支援システムにおいて、
上記シーン分割部は、上記動作状態と次の動作状態に挟まれた期間をシーン領域として抽出し、上記シーン領域ごとに上記センシングデータの時系列的な変化点を検出し、当該変化点から次の変化点までを運動単位とするシーン断片を抽出する行動記録入力支援システム。
【請求項4】
請求項1に記載の行動記録入力支援システムにおいて、
上記シーン判定ルールは、条件テーブルと結論テーブルからなり、
上記条件テーブルと上記結論テーブルは、ルールIDにより関連づけられ、
上記条件テーブルは、上記監視対象の動作状態を示すシーン領域、上記シーン領域を構成し運動単位を示すシーン断片、上記監視対象の行動記録、時間情報及びそれらの出現順序からなり、
上記結論テーブルは、上記出現順序、行動内容、及び確信度からなる行動記録入力支援システム。
【請求項5】
請求項1に記載の行動記録入力支援システムにおいて、
上記データ格納部は、外部機器を通じて入力されるデータをイベントデータとして記録し、
上記行動獲得部は、上記行動内容と時間軸を一致させて上記イベントデータを上記表示部に表示し、上記表示されたイベントデータが選択されると、上記確定された行動内容とともに上記選択されたイベントデータが表示される行動記録入力支援システム。
【請求項6】
請求項1に記載の行動記録入力支援システムにおいて、
上記行動獲得部は、上記表示部に、上記行動内容の時間幅を調整するための目盛りを表示する行動記録入力支援システム。
【請求項7】
請求項1に記載の行動記録入力支援システムにおいて、
上記監視対象が人である場合であって、
上記データ格納部には、上記人の気持ちあるいは感情を示す記号が格納され、
上記行動獲得部は、上記記号を上記表示部に表示し、上記表示された記号が選択されると、上記選択された記号に対応する指標に基づき、上記人の気持ちあるいは感情を時系列にグラフ表示する行動記録入力支援システム。
【請求項8】
監視対象に装着されるセンサノードがセンサにより取得した生体情報を受信する通信部と、
上記生体情報を蓄積するデータ格納部と、
上記生体情報から上記監視対象の動作状態を検出するシーン分割部と、
上記データ格納部に格納されるシーン判定ルールに基づいて上記動作状態から上記監視対象の行動内容の候補を複数算出するシーン列挙部と、
接続される表示部に上記複数の行動内容の候補を表示し、上記表示された複数の行動内容の候補から特定の行動内容が選択されると、上記監視対象の行動内容を確定して上記データ格納部に格納する行動獲得部と、
を備えるサーバ。
【請求項9】
請求項8に記載のサーバにおいて、
上記シーン列挙部は、上記複数の候補それぞれの確信度を算出し、
上記行動獲得部は、時間間隔の異なる上記行動内容の候補を、上記確信度とともに上記表示部に表示するサーバ。
【請求項10】
請求項8に記載のサーバにおいて、
上記シーン分割部は、上記動作状態と次の動作状態に挟まれた期間をシーン領域として抽出し、上記シーン領域ごとに上記生体情報の時系列的な変化点を検出し、当該変化点から次の変化点までを運動単位とするシーン断片を抽出するサーバ。
【請求項11】
請求項8に記載のサーバにおいて、
上記シーン判定ルールは、条件テーブルと結論テーブルからなり、
上記条件テーブルと上記結論テーブルは、ルールIDにより関連づけられ、
上記条件テーブルは、上記監視対象の動作状態を示すシーン領域、上記シーン領域を構成し運動単位を示すシーン断片、上記監視対象の行動記録、時間情報及びそれらの出現順序からなり、
上記結論テーブルは、上記出現順序、行動内容、及び確信度からなるサーバ。
【請求項12】
監視対象に装着されてセンシングデータを取得するセンサノードと、上記センシングデータを解析するサーバとを備えるシステムにより実行される行動記録入力支援方法であって、
上記センサノードは、上記センサが取得したセンシングデータを上記サーバに送信し、
上記サーバは、上記センシングデータを蓄積し、上記センシングデータから上記監視対象の動作状態を検出し、上記サーバに格納されるシーン判定ルールに基づいて上記動作状態から上記監視対象の行動内容の候補を複数算出し、接続される表示部に上記複数の行動内容の候補を表示し、上記表示された複数の行動内容の候補から特定の行動内容が選択されると、上記監視対象の行動内容を確定して上記サーバに格納する行動記録入力支援方法。
【請求項13】
請求項12に記載の行動記録入力支援方法であって、
上記サーバは、上記複数の候補それぞれの確信度を算出し、時間間隔の異なる上記行動内容の候補を、上記確信度とともに上記表示部に表示する行動記録入力支援方法。
【図1】
【図2】
【図3】
【図4(a)】
【図4(b)】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13(a)】
【図13(b)】
【図14】
【図15】
【図16(a)】
【図16(b)】
【図16(c)】
【図17】
【図18】
【図19(a)】
【図19(b)】
【図19(c)】
【図20】
【図21】
【図22】
【図23】
【図24】
【図25】
【図26】
【図27】
【図2】
【図3】
【図4(a)】
【図4(b)】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13(a)】
【図13(b)】
【図14】
【図15】
【図16(a)】
【図16(b)】
【図16(c)】
【図17】
【図18】
【図19(a)】
【図19(b)】
【図19(c)】
【図20】
【図21】
【図22】
【図23】
【図24】
【図25】
【図26】
【図27】
【公開番号】特開2010−146221(P2010−146221A)
【公開日】平成22年7月1日(2010.7.1)
【国際特許分類】
【出願番号】特願2008−321724(P2008−321724)
【出願日】平成20年12月18日(2008.12.18)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】
【公開日】平成22年7月1日(2010.7.1)
【国際特許分類】
【出願日】平成20年12月18日(2008.12.18)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】
[ Back to top ]