説明

関連動作駆動型情報提示システム、方法、プログラムおよび記録媒体

【課題】ユーザが思考している内容を、その場でさらに深い内容とする支援を行なう。
【解決手段】ユーザ入力検出部1は、共同資料作成が行なわれている場におけるユーザの作業や発言に関する生のデータで示される文字列や図形等のオブジェクトを検出する。検出データフォーマット変換部2は、直前に検出したデータの文字列や図形等のオブジェクトを、検索クエリである位置コンテキストおよび意味コンテキストに変換してDB部5に格納する。コンテキスト検索部3は、直前の入力データに対して変換された位置コンテキストや意味コンテキストをクエリとして、過去に変換された位置コンテキストや意味コンテキストをDB部5から検索して、直前の入力データとの関連が高い文字列やオブジェクトに対するエフェクトを決定する。提示部4は、関連が高い文字列やオブジェクトを決定済みのエフェクトを利用して提示する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、共同作業、特に描画や文字入力を伴う資料作成などの作業において、ユーザ自身の行動によって駆動し、ユーザが行動した結果を反芻させるための情報を提示する関連動作駆動型情報提示システム、方法、プログラムおよび記録媒体に関する。
【背景技術】
【0002】
従来、ユーザ自身の行動によって起動して、当該ユーザの行動に関連した情報を出すことによって、このユーザの行動を支援、誘導、もしくは発展させる技術がある(例えば、特許文献1参照)。
【0003】
【特許文献1】特開2006−81005号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
しかし、従来技術では、ユーザの行動に関連した情報を提示することによって、このユーザの行動に変化を与えることは可能であったが、ある時点でユーザが思考している内容に関して、その場での当該思考の内容をさらに深い内容とするための支援につながる情報提示を行なう技術はなかった。
【0005】
そこで、本発明の目的は、ユーザが思考している内容を、その場でさらに深い内容とする支援を行なうことが可能になる関連動作駆動型情報提示システム、方法、プログラムおよび記録媒体を提供することにある。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明に係わる関連動作駆動型情報提示システムは、人物の作業や発言に関する入力データの文字列や図形等のオブジェクトを検出する検出部と、前記検出部による検出結果を、当該検出結果の特徴を示す特徴情報に変換する変換部と、直前の前記入力データに関する前記検出部による検出結果について前記変換部により変換した特徴情報をもとに、過去の入力データについて前記変換部により変換した特徴情報から当該直前の入力データとの関連性を有する特徴情報を検索することで当該関連性を有する過去の入力データの文字列や図形等のオブジェクトを検索する検索部と、前記検索部により検索した文字列や図形等のオブジェクトを画面上に強調提示する提示部とを備えることを特徴とする。
【0007】
上記構成の関連動作駆動型情報提示システムは、また、前記変換部は、前記検出部による検出結果を、当該検出した文字列や図形等のオブジェクトの画面上の位置情報により、位置に依存する特徴情報である位置コンテキストに変換することを特徴とする。
上記構成の関連動作駆動型情報提示システムは、また、前記変換部は、前記検出部による検出結果を、当該検出した文字列や図形等のオブジェクトの画面上の意味情報により、意味に依存する特徴情報である意味コンテキストに変換することを特徴とする。
【0008】
上記構成の関連動作駆動型情報提示システムは、また、前記検出部は、ユーザの携帯するデバイス、ユーザの周辺に設置されるデバイスのうちから少なくとも一つを利用して、前記入力データの文字列や図形等のオブジェクトを検出することを特徴とする。
上記構成の関連動作駆動型情報提示システムは、また、前記提示部による強調提示の種別の入力を受け付ける入力手段をさらに備え、前記提示部は、前記入力した種別にしたがって強調表示を行なうことを特徴とする。
【0009】
上記構成の関連動作駆動型情報提示システムは、また、前記検索部による検索のための条件の入力を受け付ける入力手段をさらに備え、前記検索部は、前記入力した条件にしたがって検索を行なうことを特徴とする。
【発明の効果】
【0010】
本発明によれば、ユーザが思考している内容を、その場でさらに深い内容とする支援を行なうことができる。
【発明を実施するための最良の形態】
【0011】
以下図面により本発明の実施形態について説明する。
図1は、本発明の実施形態における関連動作駆動型情報提示システムの構成例を示すブロック図である。
図1に示すように、本発明の実施形態における関連動作駆動型情報提示システムは、ユーザ入力検出部1、検出データフォーマット変換部2、コンテキスト検索部3、提示部4、DB(データベース)部5、ルール登録部6、表示エフェクト登録部7および類語辞書DB部8を有する。
【0012】
ユーザ入力検出部1は、ユーザの携帯するデバイスやユーザの周辺に設置されるデバイスを利用して、共同資料作成が行なわれている場におけるユーザの作業や発言に関する生のデータを取得し、この取得したデータで示される文字列や図形等のオブジェクトを検出する。このユーザ入力検出部1は、映像検出部11、音声検出部12、キーボード13、マウス・タッチパネル14、モード入力部15、会議資料処理部16、音声認識部17、文字認識部18およびオブジェクト認識部19を有する。
【0013】
映像検出部11は、共同資料作成が行なわれている場におけるテーブル上の印刷された、あるいは手書きの資料である画用紙やノート、およびホワイトボード上に書かれた形状を、ユーザの利用するタブレットPCやノートPCに付属するカメラ、Webカメラ、会議室に設置されたカメラ、映像音声通信システム用のビデオカメラなどにより撮影した映像情報を検出する。
【0014】
文字認識部18は、映像検出部11により検出した映像情報に含まれる文字列を取得し、オブジェクト認識部19は、前述したように書かれた形状を映像検出部11により検出した映像情報に含まれる図形等のオブジェクトを取得する。
音声検出部12は、前述したタブレットPCやノートPCに付属するマイクロフォンや会議室に設置されたマイクロフォンや映像音声通信システム用のマイクロフォンにより入力した音声を検出する。音声認識部17は、音声検出部12により検出した音声をもとに当該音声で示される文字列を取得する。
【0015】
キーボード13は、ユーザによる文字入力を検出することで文字列を取得する。マウス・タッチパネル14は、ユーザによるタブレットPCの画面上へのペン入力やマウス入力を検出したり、各描画アプリケーション上での動作により図形等のオブジェクトを取得したりして、マウスによりクリックされた画面上のボタン等の箇所に割り振られたタグ情報を検出することにより文字列を取得する。
【0016】
また、モード入力部15は、システム利用の目的がアイデアから考え出すブレインストーミングなのか、アイデアは出ていて当該アイデアを資料として形にする資料作成なのか、既に作成されている資料を修正する資料修正なのか等といった、システム利用のために設定するモードの、ユーザによるキーボード13やマウス・タッチパネル14による入力操作を受け付ける。
【0017】
この関連動作駆動型情報提示システムでは、モード入力部15により入力したモードに応じてユーザの思考の内容をより深いものにする支援のための情報提示に関する各ルールの設定を行なう。これにより、ユーザの思考の内容を発言や作業の目的、状態に応じて深い内容にするための情報提示が可能になる。
【0018】
検出データフォーマット変換部2は、ユーザ入力検出部1により直前に検出したデータの文字列や図形等のオブジェクト、つまり最新の入力データの文字列や図形等のオブジェクトを、過去の文字列やオブジェクトをコンテキスト検索部3により検索するための検索クエリである位置コンテキストおよび意味コンテキストに変換してDB部5に格納する。
【0019】
ここで変換する位置コンテキストとは、直前に検出した描画や文字入力、資料データにおける位置に関する情報である。また、ここで変換する意味コンテキストとは、直前に検出した描画や文字入力や発話、資料データにおける意味に関する情報である。
これらの位置コンテキストや意味コンテキストは、ユーザに思考を深めさせるために、過去の文字列やオブジェクトのうちから、どの文字列やオブジェクトを表示するべきかという表示率算出のクエリとして利用される。
【0020】
コンテキスト検索部3は、直前の入力データに対して変換された位置コンテキストや意味コンテキストをクエリとして、過去に変換された位置コンテキストや意味コンテキストをDB部5から検索して、過去の文字列や図形等のオブジェクトの表示率を算出する。
【0021】
このコンテキスト検索部3は、位置コンテキスト検索部31、意味コンテキスト検索部32、モード別重み付け検索部33および表示エフェクト検索部34を有する。
位置コンテキスト検索部31は、直前入力の位置コンテキストをクエリとして、直前の入力データをもとにした位置コンテキストと関連性の強い過去の位置コンテキストを表示候補の位置コンテキストとして検索し、この検索結果のランキング付けをする。
【0022】
また、意味コンテキスト検索部32は、直前入力の意味コンテキストをクエリとして、直前の入力データをもとにした意味コンテキストと関連性の強い過去の意味コンテキストを表示候補の意味コンテキストとして検索し、この検索結果のランキング付けをする。
【0023】
モード別重み付け検索部33は、ランキング付けされた位置コンテキスト、意味コンテキストをクエリとして、これらコンテキストに対応する文字列やオブジェクトの表示候補に対する表示率を算出する。
表示エフェクト検索部34は、それぞれの文字列やオブジェクトの表示候補に対する表示率をクエリとして、それぞれの文字列やオブジェクトの表示候補に対するエフェクトを決定する。
【0024】
提示部4は、直前入力に対して算出された、関連する過去の文字列とオブジェクトを、決定済みのエフェクトを利用して提示する。
DB部5は、位置・意味コンテキストDB51およびモード別重み付けルールDB52を有する。
ユーザ入力検出部1により、直前の文字列や図形などのオブジェクトのデータがDB部5に格納され、検出データフォーマット変換部2により直前の入力データを変換した位置コンテキストや意味コンテキストのデータがDB部5に格納される。
【0025】
この格納されたデータは、当該直前の入力よりも後の入力時において、過去のデータとしてコンテキスト検索部3による検索対象となる。既にDB部5に格納されている過去のデータは、コンテキスト検索部3により、直前の入力データを変換した位置コンテキストや意味コンテキストがクエリとして検索される。
【0026】
ルール登録部6は、各種DBに格納されるそれぞれのルールを、システム管理者あるいは利用ユーザによるキーボード13やマウス・タッチパネル14への操作に従ってDB部5に格納することで事前に登録する。
表示エフェクト登録部7は、表示エフェクト検索部34によるエフェクトの決定に利用される、それぞれの文字列やオブジェクト表示時に適応するエフェクトを、システム管理者あるいは利用ユーザによるキーボード13やマウス・タッチパネル14への操作に従ってDB部5に事前に格納することで登録する。
類語辞書DB部8は、日本語類語辞書データベースのデータを格納する。類語辞書DB部8に格納されるデータは、Wikipediaの関連項目のリンクなどであってもよい。
【0027】
図2、図3、図4は、本発明の実施形態における関連動作駆動型情報提示システムの処理動作の手順の一例を示す図である。図5、図6は、本発明の実施形態における関連動作駆動型情報提示システムの処理動作の手順の一例を示すシーケンス図である。図7は、本発明の実施形態における関連動作駆動型情報提示システムにより管理されるオブジェクトテーブルの構成例を表形式で示す図である。図8は、本発明の実施形態における関連動作駆動型情報提示システムにより管理される位置データリストテーブルの構成例を表形式で示す図である。図9は、本発明の実施形態における関連動作駆動型情報提示システムにより管理されるモード別重み付けルールデータベースの構成例を表形式で示す図である。図10は、本発明の実施形態における関連動作駆動型情報提示システムにより管理される類語リストデータベースの構成例を表形式で示す図である。
図7および図8に示すように、位置・意味コンテキストDB51は、オブジェクトテーブルと位置データリストテーブルとでなる。
位置・意味コンテキストDB51のオブジェクトテーブルは、オブジェクト番号(n)、点群の位置情報と時間情報リストのアドレス(m)、DB登録時間(t)、文字列データ(string)、オブジェクトの中心座標(x0,y0)、オブジェクトの矩形領域(x1,y1,x2,y2)、オブジェクトの面積(S)、位置コンテキスト表示率(p%)、意味コンテキスト表示率(q%)、表示率(r%)および各種関連キーワードでなる複数種類のカラムを持つ。
【0028】
オブジェクト番号(n)は、検出データフォーマット変換部2にて判別したオブジェクトに対して順次付与するためのカラムである。オブジェクトテーブルのレコードにはオブジェクト番号順にデータが格納される。
点群の位置情報と時間情報リストのアドレス(m)は、検出データフォーマット変換部2にて、位置データと時間データを保存するメモリのアドレスを準備保存するためのカラムである。
【0029】
DB登録時間(t)は、文字列、図形等のオブジェクトが完成した時間、更新された時間を検出データフォーマット変換部2にて保存するためのカラムである。文字列データ(string)は、検出データフォーマット変換部2にて文字列データを保存するためのカラムである。
【0030】
オブジェクトの中心座標(x0,y0)、オブジェクトの矩形領域(x1,y1,x2,y2)、オブジェクトの面積S=(x2−x1)*(y2−y1)は、オブジェクトが完成した時点や更新された時点で、検出データフォーマット変換部2にて計算して保存するためのカラムである。
【0031】
位置コンテキスト表示率(p%)は、コンテキスト検索部3の位置コンテキスト検索部31にて決定されるカラムである。意味コンテキスト表示率(q%)は、コンテキスト検索部3の意味コンテキスト検索部32にて決定されるカラムである。
関連キーワードN(N=1〜10)は、モード別重み付けルールDB52上の入力モードに対応する関連キーワード抽出数がN以上である場合に検出データフォーマット変換部2にて抽出される文字列データを格納するためのカラムである。
【0032】
また、位置・意味コンテキストDB51の位置データリストテーブルは、「点群の位置情報と時間情報リストのアドレス」と、複数の「点群の位置情報と時間情報」をカラムに持ち、レコードには「点群の位置情報と時間情報リストのアドレス」ごとにデータが格納される。
【0033】
また、図9に示すモード別重み付けルールDB52は、カラムとして、モード、関連キーワード抽出数、オブジェクト判定領域、距離条件式、単語検出回数算出方法、位置コンテキストの上位選択数、位置コンテキスト係数(a)、意味コンテキストの上位選択数、意味コンテキスト係数(b)、文字列ありオブジェクトのエフェクト算出式、および文字列なしオブジェクトのエフェクト算出式を持ち、レコードにはモードごとにデータが格納される。
【0034】
モードは、ユーザに入力される値であり、システムが動作する目的や状況によって決定される。関連キーワード抽出数は、位置・意味コンテキストDB51のオブジェクトテーブルにおける関連キーワードを抽出する数である。
オブジェクト判定領域は、コンテキスト検索部3の位置コンテキスト検索部31により利用するカラムである。距離条件式は、位置コンテキスト検索部31により利用する式である。単語検出回数算出方法は、コンテキスト検索部3の意味コンテキスト検索部32により利用するカラムである。
【0035】
位置コンテキストの上位選択数は、位置コンテキスト検索部31により抽出するオブジェクトの数である。位置コンテキスト係数(a)は、コンテキスト検索部3のモード別重み付け検索部33による算出に利用するパラメータである。
意味コンテキストの上位選択数は、意味コンテキスト検索部32により抽出するオブジェクトの数である。意味コンテキスト係数(b)は、モード別重み付け検索部33による算出に利用するパラメータである。
文字列ありオブジェクトのエフェクト算出式や文字列なしオブジェクトのエフェクト算出式は、表示エフェクト検索部34で利用する式である。
また、図10に示すように、類語辞書DB部8は、入力単語と、複数の関連単語のカラムを持ち、レコードには入力単語ごとにデータが格納される。
【0036】
次に、図1に示した構成の関連動作駆動型情報提示システムの動作について説明する。
まず、共同資料作成が行なわれている場において、ユーザ入力検出部1により作業に関連するデータを検出し、この検出した情報より、文字列、オブジェクトを検出する。
【0037】
ユーザ入力検出部1による具体例を説明する。キーボード13は文字列情報を検出する(S1)。音声検出部12はマイクロフォンより発話音声を検出し(S2)、音声認識部17は検出した発話音声から発話文字列情報を検出する(S3)。
マウス・タッチパネル14は、画面上のポインタのクリックのタイミングを検出し(S4)、PC画面上のクリック箇所より、タグ付けされた文字列情報を検出する(S5)。また、マウス・タッチパネル14は、画面上のポインタの位置データを検出する(S6)。
【0038】
映像検出部11は、テーブル上における、印刷された、あるいは手書きの資料をカメラにより撮影した映像を検出し(S7)、映像検出部11は、ホワイトボード上の形状をカメラより撮影した映像を検出し(S8)、会議資料処理部16は、PC画面表示やプロジェクタ投影によって利用される資料の電子ファイルを検出する(S9)。
【0039】
S7,S8,S9の処理で検出されたそれぞれのデータをもとに、文字認識部18は描画文字列情報を検出し(S10)、オブジェクト認識部19はオブジェクトを検出する(S11)。
検出データフォーマット変換部2は、ユーザ入力検出部1で取得した文字列、オブジェクトを、位置コンテキストと意味コンテキストとに変換し、DB部5の位置・意味コンテキストDB51に格納する。
【0040】
位置データに関連する具体的な処理は以下のとおりである。検出データフォーマット変換部2の位置コンテキストフォーマット変換部21は、前述のように検出したオブジェクトの処理のために、位置データの検出フレッシュレート、もしくは1秒以下で連続する位置データに対して、同じオブジェクト番号を付与して一つのオブジェクトのグループとして判別し(S12)、位置・意味コンテキストDB51の位置データリストテーブルに時間データと位置データとを格納し、位置・意味コンテキストDB51のオブジェクトテーブルに、オブジェクト番号(n)、点群の位置情報と時間情報リストのアドレス(m)、DB登録時間(t)、オブジェクトの中心座標(x0,y0)、オブジェクトの矩形領域(x1,y1,x2,y2)、オブジェクトの面積(S=(x2−x1)*(y2−y1))を格納する(S14,S15)。
【0041】
意味データに関連する具体的な処理は以下のとおりである。検出データフォーマット変換部2の意味コンテキストフォーマット変換部22は、前述のように検出した文宇列データの処理のために、文字列入力後に、オブジェクト番号を付与して文字列の範囲をオブジェクトのグループとして判別し(S13)、位置・意味コンテキストDB51のオブジェクトテーブルに、オブジェクト番号(n)、DB登録時間(t)、文字列データ(string)、オブジェクトの中心座標(x0,y0)、オブジェクトの矩形領域(x1,y1,x2,y2)、オブジェクトの面積(S)を格納する(S14,S15)。
【0042】
モード入力部15は、ブレインストーミング、資料作成、資料修正などのモードを入力する(S16)。意味コンテキストフォーマット変換部22は、モード別重み付けルールDB52における入力モードに対応する関連キーワード抽出数を参照し(S17)、文字列データより関連キーワードを抽出する。
【0043】
意味コンテキストフォーマット変換部22は、関連キーワードの抽出において、位置・意味コンテキストDB51のオブジェクトテーブルに格納済みの文字列データから固有名詞を優先的に抽出し、この抽出結果を当該オブジェクトテーブルにおける「関連キーワード1」、「関連キーワード2」、…の欄に順に格納していく。
【0044】
意味コンテキストフォーマット変換部22は、固有名詞が9個以下であり、かつ固有名詞以外の名詞が存在する場合は、抽出された名詞を位置・意味コンテキストDB51のオブジェクトテーブルにおける関連キーワードの欄に順に格納する。意味コンテキストフォーマット変換部22は、この処理をモード別重み付けルールDB52における入力モードに対応する関連キーワード抽出数と一致するまで行なう(S18)。
【0045】
コンテキスト検索部3は、直前の入力データに対する、過去の位置・意味コンテキストの関連度合いをランキング付けする。
位置コンテキストでは、直前入力データとの位置の近さや、過去の入力位置のモード別の重要性が評価基準となり、位置が近い場合は高い表示率となる。また、意味コンテキストでは、直前入力データとの意味の近さが評価基準となり、意味が近い場合は高い表示率となる。
【0046】
コンテキスト検索部3の位置コンテキスト検索部31は、直前の入力における画面上のポインタの位置データが、位置・意味コンテキストDB51のオブジェクトテーブルにおける過去のオブジェクト、あるいは資料上のオブジェクトの領域を入力として、モード別重み付けルールDB52の中の入力モードに対応するオブジェクト判定領域の枠を加算するオブジェクト判定時のマージンで処理した領域に含まれるかどうかを判断する(位置コンテキスト検索ステップ1)。
位置コンテキスト検索部31は、このマージンの設定によって、オブジェクト判定領域を0にすれば、オブジェクトと直前の入力におけるポインタの接触判定は行なわないことになる。
【0047】
次に、位置コンテキスト検索部31は、位置・意味コンテキストDB51のオブジェクトテーブルにおける過去のオブジェクト、あるいは資料上のオブジェクトの領域を入力として、モード別重み付けルールDB52の中の入力モードに対応する距離条件式に一致するかどうかを判断する(位置コンテキスト検索ステップ2)(S19)。
【0048】
位置コンテキスト検索部31は、位置・意味コンテキストDB51のオブジェクトテーブルにおける過去のオブジェクトのうちS18およびS19の判断条件に該当するオブジェクトが、モード別重み付けルールDB52の入力モードに対応する位置コンテキストの上位選択数よりも少ない場合は(S20のYES)、前述した判断条件に該当するオブジェクトのみが表示候補オブジェクトであると判断し、まず、ポインタの位置データが領域に含まれたオブジェクトを優先的に扱い、次に、距離が近いものを優先的に扱い、上位より100,90,80,…のように、10ごとの位置コンテキスト表示率(p%)をオブジェクトテーブル上で割り振る(S21)。
【0049】
一方、位置コンテキスト検索部31は、S18およびS19の判断条件に該当するオブジェクトが、モード別重み付けルールDB52の入力モードに対応する位置コンテキストの上位選択数よりも少なくない場合は(S20のNO)、位置・意味コンテキストDB51のオブジェクトテーブルで示される、オブジェクトの領域の狭いオブジェクトを上位として順位付けを行ない、上位より100,90,80,…のように、10ごとの位置コンテキスト表示率(p%)をオブジェクトテーブル上で割り振る(位置コンテキスト検索ステップ3)(S22)。
【0050】
位置コンテキスト検索部31は、S22の処理を経ても同順位のオブジェクトが位置・意味コンテキストDB51のオブジェクトテーブル上に存在する場合は(S23のYES)、当該オブジェクトテーブルで示される、オブジェクトの登録日時の新しいオブジェクトを上位として順位付けを行ない、上位より100,90,80,…のように、10ごとの位置コンテキスト表示率(p%)をオブジェクトテーブル上で割り振る(位置コンテキスト検索ステップ4)(S24)。
【0051】
S23で「NO」と判断された場合、またはS21,S24の処理後、コンテキスト検索部3の意味コンテキスト検索部32は、直前入力データの意味コンテキストをクエリとして、類語辞書DB部8を検索し(S25)、検索結果に該当がある、つまり類語がある場合は(S26のYES)、意味コンテキストと類語辞書の検索結果とをクエリと定め、検索結果に該当がない場合は(S26のNO)、意味コンテキストのみをクエリと定める。
【0052】
意味コンテキスト検索部32は、この定めたクエリとモード別重み付けルールDB52上の入力モードに対応する単語検出回数算出方法とをもとに、位置・意味コンテキストDB51のオブジェクトテーブル上の過去の各文字列データに対する単語検出回数を意味コンテキストごとに算出する(意味コンテキスト検索ステップ1)(S27)(S28)。
【0053】
そして、意味コンテキスト検索部32は、算出した単語検出回数がモード別重み付けルールDB52上の意味コンテキストの上位選択数よりも少ない場合は(S29のYES)、S18およびS19の判断条件に該当するオブジェクトのみを表示候補オブジェクトとして判断し、上位より100,90,80,…のように、10ごとの意味コンテキスト表示率(q%)を位置・意味コンテキストDB51のオブジェクトテーブル上で割り振る(S30)。
【0054】
意味コンテキスト検索部32は、算出した単語検出回数が、モード別重み付けルールDB52上の意味コンテキストの上位選択数よりも多い場合は(S29のNO)、位置・意味コンテキストDB51のオブジェクトテーブルに格納されたオブジェクトの領域の広いオブジェクトを上位として順位付けを行ない、上位より100,90,80,…のように、10ごとの意味コンテキスト表示率(q%)をオブジェクトテーブル上で割り振る(意味コンテキスト検索ステップ2)(S31)。
【0055】
意味コンテキスト検索部32は、S31の処理を経ても同順位のオブジェクトが位置・意味コンテキストDB51のオブジェクトテーブル上に存在する場合は(S32のYES)、当該オブジェクトテーブルに格納されたオブジェクトの登録日時の新しいオブジェクトを上位として順位付けを行ない、上位より100,90,80,…のように、10ごとの意味コンテキスト表示率(q%)をオブジェクトテーブル上で割り振る(意味コンテキスト検索ステップ3)(S33)。
【0056】
S32で「NO」と判断された場合、またはS30,S33の処理後、コンテキスト検索部3のモード別重み付け検索部33は、位置コンテキスト表示率(p%)、意味コンテキスト表示率(q%)を元に、モード別重み付けルールDB52上で予め定められた位置コンテキスト係数(a)と意味コンテキスト係数(b)とを利用し、以下の式(1)よりオブジェクトの表示率(r%)を算出し、算出結果を位置・意味コンテキストDB51のオブジェクトテーブルに格納する(S34)。
【0057】
r=p*a/100+q*b/100 …式(1)
コンテキスト検索部3の表示エフェクト検索部34は、位置・意味コンテキストDB51のオブジェクトテーブル上のオブジェクトの表示率rが50%以上である表示候補を、直前の入力データに対して関連し、ユーザの思考を深める過去の文字列やオブジェクトとみなし、この表示候補をクエリとし、モード別重み付けルールDB52上のエフェクト算出式をもとに、当該表示候補のエフェクトを決定する(S35,S36)。
提示部4は、表示エフェクト検索部34により決定したエフェクトを加えて画面上に提示する(S37)。
【0058】
ルール登録部6は、モード別重み付けルールとしてブレインストーミングモード用のルール、資料作成モード用のルール、資料修正モード用のルール、承認会議モード用のルールなどを入力操作に従ってDB部5に予め格納する機能を有する。また、ルール登録部6は、ユーザからの任意のルールの入力操作にしたがって新たなルールをDB部5に格納する機能をさらに有する。
【0059】
例えば、ルール登録部6は、テーマを環境問題に限定したブレインストーミングを行なう場合のためにブレインストーミング第2モード用のルールを任意の入力操作にしたがってDB部5に格納したり、資料修正を社外メンバーも加えた一般的なメンバーで行なうのでなく限定的な部内メンバーだけで資料修正を行なう場合のために資料修正第2モード用のルールをDB部5に格納したりすることができる。このように、利用時の目的や状況にあわせてモードを事前登録することで、ユーザが思考を深めるために効果的な情報提示が可能になる。
【0060】
表示エフェクト登録部7は、文字列や図形などのオブジェクトを表示する際のエフェクトを任意の入力操作に従ってDB部5に格納する。簡単なエフェクトの場合は、移動成分や色成分に関して数式で表現することで登録可能である。
表示エフェクト登録部7は、位置・意味コンテキストDB51のオブジェクトテーブル上のオブジェクトの表示率(r%)を入力パラメータとし、モード別重み付けルールDB52上のエフェクト算出式を用いてエフェクトを決定する。エフェクトが複雑な変化をさせるエフェクトの場合は、表示エフェクト登録部7は、例えばFlashのSwfファイルのようにアニメーションファイルを利用して読み込むことで登録可能である。
【0061】
図11は、本発明の実施形態における関連動作駆動型情報提示システムによる表示画面における第1の入力例を示す図である。図12は、本発明の実施形態における関連動作駆動型情報提示システムによる表示画面の第1の例を示す図である。
図11に示すように、ユーザが作業中に画面上でマウスクリックをした場合には、このマウスクリックがトリガーとなり、システムの前述した直前の入力として扱われる。
システムは、このときのポインタの位置データを元に処理を行ない、最終的に関連するオブジェクト候補を選定し、図12に示すように中塗りのオブジェクトをオブジェクト候補としてエフェクトを伴って表示させる。
【0062】
図13は、本発明の実施形態における関連動作駆動型情報提示システムによる表示画面における第2の入力例を示す図である。図14は、本発明の実施形態における関連動作駆動型情報提示システムによる表示画面の第2の例を示す図である。
図13に示すように、ユーザが作業中に画面上で吹き出し型のテキストボックスを作成しキーボード13で文字入力を行なった場合には、この文字入力の完了がトリガーとなり、前述した直前の入力として扱われる。
【0063】
システムは、このときのオブジェクトの文字列、図形等の位置データを元に処理を行ない、最終的に関連するオブジェクト候補を選定し、図14に示すように中塗りのオブジェクトをオブジェクト候補としてエフェクトを伴って表示させる。
以上のように、本発明の実施形態における関連動作駆動型情報提示システムでは、最新の思考に関連するタイミングで、当該ユーザが過去に入力した、思考に関連する情報を提示するので、ユーザは描画作業中に自身の思考を深める支援を行なうことができる。このことにより、ユーザは自ら省みて思考を反復することができ、思考を深めることができる。
【0064】
特に、自分で思考の反復を制御しにくい共同作業において効果を発揮する。利用状況には、リアルタイムな対面会議でアイデア出しや資料の作成を行なう状況、修正について議論する状況、リアルタイムに遠隔テレビ会議システムを使って同様の議論を行う状況、および、一人でアイデア出しや資料の作成を行う状況などが考えられる。
【0065】
なお、この発明は前記実施形態そのままに限定されるものではなく実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を省略してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
【図面の簡単な説明】
【0066】
【図1】本発明の実施形態における関連動作駆動型情報提示システムの構成例を示すブロック図。
【図2】本発明の実施形態における関連動作駆動型情報提示システムの処理動作の手順の一例を示す図。
【図3】本発明の実施形態における関連動作駆動型情報提示システムの処理動作の手順の一例を示す図。
【図4】本発明の実施形態における関連動作駆動型情報提示システムの処理動作の手順の一例を示す図。
【図5】本発明の実施形態における関連動作駆動型情報提示システムの処理動作の手順の一例を示すシーケンス図。
【図6】本発明の実施形態における関連動作駆動型情報提示システムの処理動作の手順の一例を示すシーケンス図。
【図7】本発明の実施形態における関連動作駆動型情報提示システムにより管理されるオブジェクトテーブルの構成例を表形式で示す図。
【図8】本発明の実施形態における関連動作駆動型情報提示システムにより管理される位置データリストテーブルの構成例を表形式で示す図。
【図9】本発明の実施形態における関連動作駆動型情報提示システムにより管理されるモード別重み付けルールデータベースの構成例を表形式で示す図。
【図10】本発明の実施形態における関連動作駆動型情報提示システムにより管理される類語リストデータベースの構成例を表形式で示す図。
【図11】本発明の実施形態における関連動作駆動型情報提示システムによる表示画面における第1の入力例を示す図。
【図12】本発明の実施形態における関連動作駆動型情報提示システムによる表示画面の第1の例を示す図。
【図13】本発明の実施形態における関連動作駆動型情報提示システムによる表示画面における第2の入力例を示す図。
【図14】本発明の実施形態における関連動作駆動型情報提示システムによる表示画面の第2の例を示す図。
【符号の説明】
【0067】
1…ユーザ入力検出部、2…検出データフォーマット変換部、3…コンテキスト検索部、4…提示部、5…DB(データベース)部、6…ルール登録部、7…表示エフェクト登録部、8…類語辞書DB部、11…映像検出部、12…音声検出部、13…キーボード、14…マウス・タッチパネル、15…モード入力部、16…会議資料処理部、17…音声認識部、18…文字認識部、19…オブジェクト認識部、21…位置コンテキストフォーマット変換部、22…意味コンテキストフォーマット変換部、31…位置コンテキスト検索部、32…意味コンテキスト検索部、33…モード別重み付け検索部、34…表示エフェクト検索部、51…位置・意味コンテキストDB、52…モード別重み付けルールDB。

【特許請求の範囲】
【請求項1】
人物の作業や発言に関する入力データの文字列や図形等のオブジェクトを検出する検出部と、
前記検出部による検出結果を、当該検出結果の特徴を示す特徴情報に変換する変換部と、
直前の前記入力データに関する前記検出部による検出結果について前記変換部により変換した特徴情報をもとに、過去の入力データについて前記変換部により変換した特徴情報から当該直前の入力データとの関連性を有する特徴情報を検索することで当該関連性を有する過去の入力データの文字列や図形等のオブジェクトを検索する検索部と、
前記検索部により検索した文字列や図形等のオブジェクトを画面上に強調提示する提示部と
を備えることを特徴とする関連動作駆動型情報提示システム。
【請求項2】
前記変換部は、
前記検出部による検出結果を、当該検出した文字列や図形等のオブジェクトの画面上の位置情報により、位置に依存する特徴情報である位置コンテキストに変換する
ことを特徴とする請求項1に記載の関連動作駆動型情報提示システム。
【請求項3】
前記変換部は、
前記検出部による検出結果を、当該検出した文字列や図形等のオブジェクトの画面上の意味情報により、意味に依存する特徴情報である意味コンテキストに変換する
ことを特徴とする請求項1に記載の関連動作駆動型情報提示システム。
【請求項4】
前記検出部は、
ユーザの携帯するデバイス、ユーザの周辺に設置されるデバイスのうちから少なくとも一つを利用して、前記入力データの文字列や図形等のオブジェクトを検出する
ことを特徴とする請求項1乃至請求項3のいずれかに記載の関連動作駆動型情報提示システム。
【請求項5】
前記提示部による強調提示の種別の入力を受け付ける入力手段をさらに備え、
前記提示部は、前記入力した種別にしたがって強調表示を行なう
ことを特徴とする請求項1乃至請求項4のいずれかに記載の関連動作駆動型情報提示システム。
【請求項6】
前記検索部による検索のための条件の入力を受け付ける入力手段をさらに備え、
前記検索部は、前記入力した条件にしたがって検索を行なう
ことを特徴とする請求項1乃至請求項4のいずれかに記載の関連動作駆動型情報提示システム。
【請求項7】
人物の作業や発言に関する入力データの文字列や図形等のオブジェクトを検出し、
前記検出結果を、当該検出結果の特徴を示す特徴情報に変換し、
直前の前記入力データに関する前記検出結果について前記変換した特徴情報をもとに、過去の入力データについて前記変換した特徴情報から当該直前の入力データとの関連性を有する特徴情報を検索することで当該関連性を有する過去の入力データの文字列や図形等のオブジェクトを検索し、
前記検索した文字列や図形等のオブジェクトを画面上に強調提示する
ことを特徴とする関連動作駆動型情報提示方法。
【請求項8】
請求項7に記載の関連動作駆動型情報提示方法をコンピュータに実行させるためのプログラム。
【請求項9】
請求項8に記載のプログラムを記録した、コンピュータ読み取り可能な記録媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2010−117859(P2010−117859A)
【公開日】平成22年5月27日(2010.5.27)
【国際特許分類】
【出願番号】特願2008−290162(P2008−290162)
【出願日】平成20年11月12日(2008.11.12)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】