感情推定装置および感情推定方法
【課題】人間のコミュニケーションの場の感情であるグループ感情を推定することが可能な感情推定装置を提供する。
【解決手段】複数人で構成される集団の感情を示すグループ感情を推定する感情推定装置であって、状態遷移モデルを記憶する記憶部と、集団を構成する個人の感情に関する情報をセンシングにより取得し、個人感情を推定する情報入力部と、情報入力部から取得した個人感情の情報と状態遷移モデルとからグループ感情を推定するグループ感情推定部とを有し、状態遷移モデルは、個人感情とグループ感情の時系列遷移を扱うものであり、連続的にそのモデルの状態が更新されるものである。
【解決手段】複数人で構成される集団の感情を示すグループ感情を推定する感情推定装置であって、状態遷移モデルを記憶する記憶部と、集団を構成する個人の感情に関する情報をセンシングにより取得し、個人感情を推定する情報入力部と、情報入力部から取得した個人感情の情報と状態遷移モデルとからグループ感情を推定するグループ感情推定部とを有し、状態遷移モデルは、個人感情とグループ感情の時系列遷移を扱うものであり、連続的にそのモデルの状態が更新されるものである。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人間のコミュニケーションの場の感情であるグループ感情を推定する感情推定装置および感情推定方法に関する。
【背景技術】
【0002】
近年、人間や人間の集団の感情を推定する技術は、人間の円滑なコミュニケーションを支える技術として、心理学や社会学、人工知能、ロボット技術等への応用が期待されている。そのため、人間の表情や声の情報から、その人の感情を情報処理装置に認識させるための技術は重要である。非特許文献1および非特許文献2では、個人の感情状態を音声や画像系列から推定する方法が提案されている。
【0003】
人間のコミュニケーションの場における雰囲気を感情で表現したものをグループ感情と呼ぶと、グループ感情を推定することが、今後、重要になる。
【0004】
特許文献1には、複数の人間が持つ感情を統合した集団的感情を認識することを目的として、プレゼンテーションの聴衆に対して、個人の感情を介さずに、聴衆の視線に関する視線情報または発汗量などの生体情報から、直接集団的感情を推定する技術が開示されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2008−272019号公報
【非特許文献】
【0006】
【非特許文献1】松本祥平、外4名、「ロボットでの利用を目的とした顔画像情報と音声情報の統合による感情認識」、第22回日本ロボット学会学術講演会、2004年9月15日〜17日
【非特許文献2】伊藤彰則、外3名、「音声処理と顔画像処理を統合した対話映像からの笑いの認識」、情報処理学会SIG研究報告、2005年5月26日
【発明の概要】
【発明が解決しようとする課題】
【0007】
非特許文献1または非特許文献2に開示された方法は、個人感情のみが推定され、グループ感情を推定するものではなかった。特許文献1に開示された集団的感情は、プレゼンテーションに聴衆がどの程度興味を持っているか示す情報に過ぎない。
【0008】
本発明は上述したような技術が有する問題点を解決するためになされたものであり、人間のコミュニケーションの場の感情であるグループ感情を推定することが可能な感情推定装置および感情推定方法を提供することを目的とする。
【課題を解決するための手段】
【0009】
上記目的を達成するための本発明の感情推定装置は、複数人で構成される集団の感情を示すグループ感情を推定する感情推定装置であって、
状態遷移モデルを記憶する記憶部と、
前記集団を構成する個人の感情に関する情報をセンシングにより取得し、個人感情を推定する情報入力部と、
前記情報入力部から取得した個人感情の情報と前記状態遷移モデルとから前記グループ感情を推定するグループ感情推定部とを有し、
前記状態遷移モデルは、前記個人感情と前記グループ感情の時系列遷移を扱うものであり、連続的にそのモデルの状態が更新されることを特徴とする。
【0010】
一方、本発明の感情推定方法は、複数人で構成される集団の感情を示すグループ感情を、該集団を構成する人の個人感情と記憶部に格納された状態遷移モデルとから推定する情報処理装置による感情推定方法であって、
前記個人感情が入力されると、該個人感情と前記状態遷移モデルに基づく過去のグループ感情とのうち少なくとも1つから、現在のグループ感情を推定するものである。
【発明の効果】
【0011】
本発明によれば、個人感情およびグループ感情の因果関係に適合したグループ感情を推定することができる。
【図面の簡単な説明】
【0012】
【図1】本実施形態の情報処理装置の一構成例を示すブロック図である。
【図2】図1に示した情報処理装置の動作手順を示すフロー図である。
【図3】実施例1の感情推定装置の一構成例を示すブロック図である。
【図4】図3に示したセンシング情報処理部による特徴量算出方法を説明するための模式図である。
【図5】目および口の付近の安定特徴点の一例を示す図である。
【図6】実施例1における状態遷移モデルの一例を示す図である。
【図7】実施例1の感情推定装置の動作手順を示すフロー図である。
【図8】グループのうちの1人について感情認識のための観測量が得られない場合の感情推定方法を示す場合の一例である。
【図9】実施例1における共起感情モデルのパラメータの設定例を示す図である。
【図10】実施例1における感情推定装置の別の構成例を示すブロック図である。
【図11】図10に示した感情推定装置の動作手順を示すフロー図である。
【発明を実施するための形態】
【0013】
本実施形態の情報処理装置について説明する。図1は本実施形態の情報処理装置の一構成例を示すブロック図である。
【0014】
図1に示すように、情報処理装置は、個人感情の推定に関する情報を出力する情報入力部2と、個人感情からグループ感情を推定するためのモデルである状態遷移モデルを記憶する記憶部6と、情報入力部2から受け取る情報および記憶部6の状態遷移モデルを用いてグループ感情を推定するグループ感情推定部4とを有する。
【0015】
情報入力部2およびグループ感情推定部4は、情報処理部5に設けられている。情報処理部5には、プログラムにしたがって処理を実行するCPU(Central Processing Unit)(不図示)と、プログラムを格納するためのメモリ(不図示)が設けられている。CPUがプログラムを実行することで、情報入力部2およびグループ感情推定部4が仮想的に構成される。
【0016】
情報入力部2は、個人感情の推定に関する情報を外部から取得し、グループ感情推定部4にその情報を出力する。個人感情の推定に関する情報とは、個人感情の情報そのものである場合に限らず、例えば、人の感情を推定するために、人を観測するセンシングに基づいた情報であってもよい。センシングに基づいた情報とは、具体的には、カメラで取得される映像情報や、マイクで取得される音声情報または韻律情報などである。
【0017】
なお、情報入力部2は、個人感情の推定に関する情報がセンシングに基づいた情報である場合、個人感情の推定に関する情報から個人感情を推定する処理を行って、その結果をグループ感情推定部4に出力してもよい。また、上述の形式や方法に限らず、情報入力部2は、状態遷移モデルの内容やグループ感情推定部4の推定方法に好適な形式となるように、入力した情報を処理し、その結果をグループ感情推定部に4に入力してもよい。
【0018】
状態遷移モデルは、グループ感情推定部4によって利用されるモデルである。ただし、状態遷移モデルを用いた感情推定および状態遷移モデルの更新のためのプログラムが記憶部6に格納されていてもよく、または、状態遷移モデルに含まれるデータのみが記憶部6に格納され、状態遷移モデルを用いた感情推定および状態遷移モデルの更新のためのプログラムが情報処理部5内のメモリ(不図示)に保存されていてもよい。記憶部6にプログラムが格納されている場合には、情報処理部5のCPU(不図示)が記憶部6からプログラムを読み出して実行する。
【0019】
また、状態遷移モデルは、個人感情の時系列推移が含まれるものであってもよく、複数人の個人感情が含まれるものであってもよい。さらに、状態遷移モデルは、情報入力部2から入力される情報や、グループ感情推定部4に対して、好適な形式であればよい。
【0020】
グループ感情推定部4は、複数の人の個人感情の推定に関する情報を情報入力部2から受け取ると、複数の人の個人感情の推定に関する情報に基づく、複数の人の個人感情と状態遷移モデルとを用いて、グループ感情を推定する。その際、グループ感情推定部4は、複数の人の個人感情の推定に関する情報が、映像情報および音声情報など、センシングに基づいた情報である場合、これらの情報から複数の人のそれぞれの個人感情を推定する。個人感情を推定する処理は、後述の個人感情推定部14の動作で詳しく説明する。
【0021】
また、グループ感情推定部4は、複数の人の個人感情と過去に推定されたグループ感情のうち少なくとも1つから、現在のグループ感情を推定してもよい。
【0022】
次に、図1に示した情報処理装置の動作を説明する。図2は図1に示した情報処理装置の動作手順を示すフロー図である。
【0023】
グループ感情推定部4は、複数の人のそれぞれの個人感情の推定に関する情報を情報入力部2から受け取ると(ステップ101)、受け取る情報に基づいた、複数の人のそれぞれの個人感情と、記憶部6が記憶する状態遷移モデルとからグループ感情を推定する(ステップ102)。
【0024】
なお、本実施形態では、情報入力部2およびグループ感情推定部4の機能はCPU(不図示)がプログラムを実行することで実現される場合で説明したが、情報入力部2およびグループ感情推定部4は、その両方、またはいずれか一方がその機能に特化した専用の演算回路で構成されてもよい。
【0025】
また、個人感情の推定に関する情報がセンシングに基づいた情報である場合、情報入力部2が、複数の人のそれぞれの個人感情の推定に関する情報から各人の個人感情を推定する処理を行って、その結果をグループ感情推定部4に出力し、グループ感情推定部4は、複数の人のそれぞれの個人感情の情報と状態遷移モデルとを用いて、グループ感情を推定すればよい。
【0026】
以下に、図1に示した情報処理装置を含む感情推定装置について実施例を説明する。また、情報入力部2が複数の人のそれぞれの個人感情の推定に関する情報から各人の個人感情を推定する処理を行う場合で説明する。
【実施例1】
【0027】
本実施例の感情推定装置の構成を説明する。
【0028】
図3は本実施例の感情推定装置の一構成例を示すブロック図である。図1に示した構成と同様な構成については同一の符号を付し、その詳細な説明を省略する。
【0029】
図3に示すように、本実施例における感情推定装置は、センシング入力部10と、センシング情報処理部12と、個人感情推定部14と、状態遷移モデルを記憶する記憶部6と、グループ感情推定部4とを有する。図3に示すセンシング情報処理部12および個人感情推定部14は、図1に示した情報入力部2の一例である。
【0030】
センシング入力部10は、人の感情に関連する情報を取得するための機器である。ここでは、センシング入力部10は、カメラ21およびマイク23を含む構成である。センシング入力部10は、カメラ10で人の表情を撮影し、表情を観測するための映像情報をセンシング情報処理部12に入力する。また、センシング入力部10は、マイク23を介して声が入力されると、韻律感情を観測するために音声情報(韻律情報)をセンシング情報処理部12に入力する。
【0031】
センシング情報処理部12では、映像情報から顔の表情を示す特徴量を算出し、韻律情報から声の感情を示す特徴量を算出し、算出結果を個人感情推定部14に送る。ここで、感情認識のための特徴量の算出方法を簡単に説明する。
【0032】
図4は図3に示したセンシング情報処理部による特徴量算出方法を説明するための模式図である。図4に示すカメラ21およびマイク23が図3に示したセンシング入力部10の一例である。
【0033】
顔の表情を示す特徴量の算出方法を説明する。センシング情報処理部12は、カメラ21で撮影された動画像が入力されると、動画像で顔検出の処理を行う。顔検出の処理は、照明条件の変化や肌の色によらない処理として、顔の構造に着目したHarr-like特徴量などを用いることが望ましい。次に、センシング情報処理部12は、顔向きを検出するために、予め学習処理により作成しておいた表情特徴点モデルの顔検出によって得られる特徴点データを用いて、相関演算などの当てはめを行い、最大応答を示す顔向きを求める。次に、センシング情報処理部12は、求めた顔向きから表情筋を構成する顔特徴点(注目特徴点)を抽出する。特徴点の抽出には、FACS(Facial Action Coding System)モデルを用いた抽出であってもよく、図5に示すように、目や口付近の安定特徴点を算出してもよい。
【0034】
図5は目および口の付近の安定特徴点の一例を示す図である。図5のpt1〜pt4は右目の特徴点を示し、pt5〜pt8は左目の特徴点を示し、pt9〜pt12は口の特徴点を示す。
【0035】
次に、センシング情報処理部12は、算出した特徴点の情報から表情の特徴量を算出する。また、センシング情報処理部12は、顔の特徴点をトラッキングすることによって、特徴点抽出の精度を上げる。トラッキング処理には、パーティクルフィルタを用いてもよいが、本実施例では、オプティカルフローを算出している。
【0036】
注目特徴点から算出される、表情の特徴を示す量として、例えば、図5に示すような幾何学的関係に関する量を用いる。図5では、特徴点間の距離をF1〜F6で示し、これらの距離が表情を示す特徴量となる。
【0037】
次に、声の感情を示す特徴量の算出方法を説明する。
【0038】
センシング情報処理部12は、マイク23に入力される音声情報から、ピッチやパワー、基本周波数F0値、モーラなどの韻律特徴を算出する。続いて、センシング情報処理部12は、韻律特徴と韻律特徴量との関係が示された韻律特徴モデルを用いて、F0の最大値、F0の最小値、F0の平均値、短時間パワーの最大値、短時間パワーの最小値、短時間パワーの平均値、および、平均モーラ長を求め、これらの値から、声の感情を示す特徴量を算出する。
【0039】
個人感情推定部14は、顔の表情を示す特徴量と声の感情を示す特徴量の情報をセンシング情報処理部12から受け取ると、それらの特徴量から個人感情を算出し、算出した個人感情の情報をグループ感情推定部4に送る。
【0040】
なお、感情認識の特徴量の算出方法の一例が非特許文献1および非特許文献2に開示されており、これらの文献に開示された方法を用いてもよい。
【0041】
次に、状態遷移モデルについて説明する。図6は本実施例における状態遷移モデルの一例を示す図である。
【0042】
図6に示すように、本実施例の状態遷移モデルを、個人感情とグループ感情の時間遷移を示したベイジアンネットワークとしている。なお、以下では、このベイジアンネットワークを共起感情モデルと称する。
【0043】
図6に示す共起感情モデルは、AおよびBの2人の感情に基づく共起感情モデルを示している。図6に示すFAは、センシング情報処理部12から出力される、Aの感情認識のための観測量を示す。観測量は、例えば、顔の表情を示す特徴量および声の感情を示す特徴量の少なくともいずれかである。図6に示すFBは、センシング情報処理部12から出力される、Bの感情認識のための観測量を示す。
【0044】
図6に示すEAは、個人感情推定部14から出力される、Aの個人感情を示す。図6に示すEBは、個人感情推定部14から出力される、Bの個人感情を示す。図6に示すGはグループ感情推定部4から出力されるグループ感情を示す。
【0045】
なお、本実施例では、説明を簡単にするために、感情推定の対象となる人が2人の場合で説明するが、図6に示すように、共起感情モデルはグラフ構造をしているため、3人以上の人に対して共起感情モデルを展開してもよい。
【0046】
図6に示す共起感情モデルでは、時刻tを現在とすると、現在におけるグループ感情Gtは、過去の時刻(t−1)におけるグループ感情Gt-1およびA、Bのそれぞれの個人感情EAt-1、EBt-1から推定されるものとして表される。また、時刻tにおけるA、Bのそれぞれの個人感情EAt、EBtは、時刻tのグループ感情Gtの影響を受ける。このように、時間経過に伴って個人感情はグループ感情の影響を受けながら変化していく。共起感情モデルは、個人感情と集団感情の時系列遷移を表すモデルになっている。
【0047】
グループ感情推定部4は、個人感情と共起感情モデルを用いて、グループ感情を推定する。図6を参照して説明すると、時刻(t−1)でのAの個人感情EAt-1、Bの個人感情EBt-1およびグループ感情Gt-1と時刻tでのグループ感情Gtとの関係を、条件付確率分布P( Gt | EAt-1, EBt-1, Gt-1 )として共起感情モデルに予め記述しておき、グループ感情推定部4は、それに基づいて、時刻tでのグループ感情Gtの確率分布を算出し、グループ感情を推定する。グループ感情推定部4が時間経過に伴ってグループ感情を順次推定することで、図6に示すように、共起感情モデルの状態が連続的に更新される。
【0048】
なお、図3に示すブロック図では、グループ感情推定部14によるグループ感情推定の1回分の処理の際のデータの流れを矢印で示している。
【0049】
次に、本実施例の感情推定装置の動作を説明する。図7は本実施例の感情推定装置の動作手順を示すフロー図である。
【0050】
センシング情報処理部12は、センシング入力部10から映像情報と音声情報が入力されると(ステップ201)、顔の表情を示す特徴量と声の感情を示す特徴量を算出する(ステップ202)。続いて、個人感情推定部14は、顔の表情を示す特徴量と声の感情を示す特徴量から個人感情を算出する(ステップ203)。そして、グループ感情推定部4は、個人感情推定部14で算出された個人感情の情報と記憶部6に格納された共起感情モデルを用いて、グループ感情を推定する(ステップ204)。
【0051】
本実施例によれば、人がグループで会話しているシーンにおいて、リアルタイムにグループ感情を推定することができる。また、顔の表情を示す特徴量と声の感情を示す特徴量の両方を用いることにより、推定性能を向上させることが可能となる。例えば、発話中は表情特徴量の重みを下げ、聞き役などのときは重みを上げるなどの動的な選択を行うことも可能となる。
【0052】
次に、本実施例の感情推定装置において、センシング時に起こる人物の遮蔽などにより、グループのうちの1人について、感情認識のための観測量を得られない場合の感情推定方法について説明する。
【0053】
時刻(t−1)において、センシング時に起こる人物の隠蔽などがあると、AとBのうち、いずれか一方の人の個人感情が算出できない場合が考えられる。この場合、グループ感情推定部4は、時刻(t−1)におけるAの個人感情EAt-1およびBの個人感情EBt-1のうち、算出できた方の個人感情と時刻(t−1)におけるグループ感情Gt-1とから、時刻tでのグループ感情Gtを推定することが可能となる。
【0054】
図8は、グループのうちの1人について感情認識のための観測量が得られない場合の感情推定方法を示す場合の一例である。図8はAの人の、時刻tにおける観測量FAtを取得できなかった場合を示す。
【0055】
時刻(t−1)でのAの個人感情EAt-1および時刻tでのAの個人感情EAtとグループ感情Gtとの関係を、条件付確率分布P( EAt | EAt-1, Gt )として共起感情モデルに予め記述しておく。図8に示すように、時刻tでのAの観測量FAtが欠落したとき、グループ感情推定部4は、時刻tのグループ感情Gtと時刻(t−1)のAの個人感情EAt-1とから、観測量の欠落した、時刻tにおけるAの個人感情EAtを逆に推定してもよい。この場合、時刻(t+1)のグループ感情Gt+1の推定に必要な情報を補完することが可能となる。
【0056】
さらに、欠損する情報は上述の場合に限らない。条件付確率分布P( Gt |Gt-1 )を予め共起感情モデルに記述しておけば、グループ感情推定部4は、過去に推定されたグループ感情から次の時刻のグループ感情を推定することが可能となり、条件付確率分布P( Gt | EAt-1 )またはP( Gt | EAt )を予め共起感情モデルに記述しておけば、グループ感情推定部4は、個人感情からグループ感情を推定することが可能となる。
【0057】
次に、図6に示した共起感情モデルの具体例を説明する。
【0058】
グループ感情推定部4において、時刻(t−1)の個人とグループのそれぞれの感情から時刻tのグループ感情を算出する方法は、本発明を適用する環境に合わせて柔軟に設計できる。
【0059】
図9は本実施例における共起感情モデルのパラメータ設定例を示す図である。例えば、Gt =f( EAt-1, EBt-1, Gt-1 )とすると、図9に示すように、計算速度を向上させるため、関数f を以下のように単純な加重和としてもよい。
【0060】
Gt = wa × EAt-1 + wb × EBt-1 + wg × Gt-1
ただし、wa、wbおよびwgは係数であり、wa + wb + wg = 1である。
【0061】
係数wa、wb、およびwgは、グループを構成するメンバーの感情の組み合わせとメンバーの場への影響度によって決定する。例えば、メンバーA、Bの両者がともに笑っていたならば、グループ感情推定部4は、音声波形の振幅の大きさによって影響度を算出し、それに基づいてwを決定する。
【0062】
観測情報の欠損により、個人感情E At-1または個人感情EBt-1のうち、どちらか一方を推定できなかった場合、グループ感情推定部4は、さらに過去の個人感情E At-2および個人感情EBt-2の情報を基に係数wを算出してもよい。
【0063】
なお、上述の感情推定装置が共起感情モデルの更新を行うようにしてもよい。以下に、共起感情モデルの更新について詳しく説明する。共起感情モデルの更新とは、共起感情モデルに設定された各種のパラメータを変更することであり、例えば、上述の条件付確率分布、係数wおよび後述の結合確率表などのパラメータを学習処理によって変更することである。
【0064】
図10は本実施例の感情推定装置の別の構成例を示すブロック図である。図1または図3に示した構成と同様な構成については同一の符号を付し、その詳細な説明を省略する。
【0065】
図10に示す感情推定装置は、図3を参照して説明した感情推定装置に含まれる構成の他に、状態遷移モデル生成部16と、推定結果出力部18とを有する構成である。
【0066】
図6を参照して説明すると、状態遷移モデル生成部16は、AおよびBの2人の個人感情およびグループ感情からなる3つの結合確率表をベイジアンネットワークの学習処理により、共起感情モデルの更新を行う。また、グループ感情の推定結果が存在する場合、状態遷移モデル生成部16は、結合確率表の場合と同様に、それを用いて、ベイジアンネットワークの学習処理を行う。
【0067】
推定結果出力部18では、グループ感情推定部4による、グループ感情の推定結果を人に提示する。例えば、推定結果出力部18は、表示部(不図示)を備え、グループ感情を「ポジティブ」や「ネガティブ」といった言葉で表現して表示部に提示したり、グループ感情をキャラクタ画像の表情に反映させて表示したりする。推定結果出力部18がスピーカ(不図示)を備えている場合には、グループ感情を「ポジティブ」や「ネガティブ」といった言葉を音声でスピーカから出力したり、グループ感情を反映させた音をスピーカから出力したりしてもよい。グループ感情を提示する方法は、人が推定結果を理解できる好適な方法であれば、ここで例示した方法以外であってもよい。
【0068】
次に、図10に示した感情推定装置の動作を説明する。図11は図10に示した感情推定装置の動作手順を示すフロー図である。
【0069】
図11に示すステップ201から204までの処理は、図7を参照して説明した処理と同様である。ステップ204の処理の後、推定結果出力部18がグループ感情推定結果を提示し(ステップ205)、状態遷移モデル生成部16が共起感情モデルを更新する(ステップ206)。
【0070】
グループ感情の推定結果を用いて、共起感情生成モデルを更新することにより、推定精度を高めることが可能となる。
【0071】
本発明によれば、個人感情からグループ感情を推定する状態遷移モデルを用いてグループ感情の推定を行うため、個人感情がグループ感情にどのような影響を及ぼすか、個人感情およびグループ感情の因果関係に適合したグループ感情を推定することができる。本発明をコミュニケーションロボットに搭載すると、個人感情の遷移とグループ感情の遷移の状況を考慮して、会話に参入することができるので、より自然なコミュニケーションを行うことが可能なロボット実現させることが可能となる。
【産業上の利用可能性】
【0072】
本発明は、人間と会話を行うコミュニケーションロボットにおいて、コミュニケーションの場に適切な対話戦略を選択することや、会議内容を記録し分析する会議システムなどにおいて、会議の盛り上がり具合を視覚化することに利用可能である。
【符号の説明】
【0073】
2 情報入力部
4 グループ感情推定部
5 情報処理部
6 記憶部
10 センシング入力部
12 センシング情報処理部
14 個人感情推定部
16 状態遷移モデル生成部
18 推定結果出力部
21 カメラ
23 マイク
【技術分野】
【0001】
本発明は、人間のコミュニケーションの場の感情であるグループ感情を推定する感情推定装置および感情推定方法に関する。
【背景技術】
【0002】
近年、人間や人間の集団の感情を推定する技術は、人間の円滑なコミュニケーションを支える技術として、心理学や社会学、人工知能、ロボット技術等への応用が期待されている。そのため、人間の表情や声の情報から、その人の感情を情報処理装置に認識させるための技術は重要である。非特許文献1および非特許文献2では、個人の感情状態を音声や画像系列から推定する方法が提案されている。
【0003】
人間のコミュニケーションの場における雰囲気を感情で表現したものをグループ感情と呼ぶと、グループ感情を推定することが、今後、重要になる。
【0004】
特許文献1には、複数の人間が持つ感情を統合した集団的感情を認識することを目的として、プレゼンテーションの聴衆に対して、個人の感情を介さずに、聴衆の視線に関する視線情報または発汗量などの生体情報から、直接集団的感情を推定する技術が開示されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2008−272019号公報
【非特許文献】
【0006】
【非特許文献1】松本祥平、外4名、「ロボットでの利用を目的とした顔画像情報と音声情報の統合による感情認識」、第22回日本ロボット学会学術講演会、2004年9月15日〜17日
【非特許文献2】伊藤彰則、外3名、「音声処理と顔画像処理を統合した対話映像からの笑いの認識」、情報処理学会SIG研究報告、2005年5月26日
【発明の概要】
【発明が解決しようとする課題】
【0007】
非特許文献1または非特許文献2に開示された方法は、個人感情のみが推定され、グループ感情を推定するものではなかった。特許文献1に開示された集団的感情は、プレゼンテーションに聴衆がどの程度興味を持っているか示す情報に過ぎない。
【0008】
本発明は上述したような技術が有する問題点を解決するためになされたものであり、人間のコミュニケーションの場の感情であるグループ感情を推定することが可能な感情推定装置および感情推定方法を提供することを目的とする。
【課題を解決するための手段】
【0009】
上記目的を達成するための本発明の感情推定装置は、複数人で構成される集団の感情を示すグループ感情を推定する感情推定装置であって、
状態遷移モデルを記憶する記憶部と、
前記集団を構成する個人の感情に関する情報をセンシングにより取得し、個人感情を推定する情報入力部と、
前記情報入力部から取得した個人感情の情報と前記状態遷移モデルとから前記グループ感情を推定するグループ感情推定部とを有し、
前記状態遷移モデルは、前記個人感情と前記グループ感情の時系列遷移を扱うものであり、連続的にそのモデルの状態が更新されることを特徴とする。
【0010】
一方、本発明の感情推定方法は、複数人で構成される集団の感情を示すグループ感情を、該集団を構成する人の個人感情と記憶部に格納された状態遷移モデルとから推定する情報処理装置による感情推定方法であって、
前記個人感情が入力されると、該個人感情と前記状態遷移モデルに基づく過去のグループ感情とのうち少なくとも1つから、現在のグループ感情を推定するものである。
【発明の効果】
【0011】
本発明によれば、個人感情およびグループ感情の因果関係に適合したグループ感情を推定することができる。
【図面の簡単な説明】
【0012】
【図1】本実施形態の情報処理装置の一構成例を示すブロック図である。
【図2】図1に示した情報処理装置の動作手順を示すフロー図である。
【図3】実施例1の感情推定装置の一構成例を示すブロック図である。
【図4】図3に示したセンシング情報処理部による特徴量算出方法を説明するための模式図である。
【図5】目および口の付近の安定特徴点の一例を示す図である。
【図6】実施例1における状態遷移モデルの一例を示す図である。
【図7】実施例1の感情推定装置の動作手順を示すフロー図である。
【図8】グループのうちの1人について感情認識のための観測量が得られない場合の感情推定方法を示す場合の一例である。
【図9】実施例1における共起感情モデルのパラメータの設定例を示す図である。
【図10】実施例1における感情推定装置の別の構成例を示すブロック図である。
【図11】図10に示した感情推定装置の動作手順を示すフロー図である。
【発明を実施するための形態】
【0013】
本実施形態の情報処理装置について説明する。図1は本実施形態の情報処理装置の一構成例を示すブロック図である。
【0014】
図1に示すように、情報処理装置は、個人感情の推定に関する情報を出力する情報入力部2と、個人感情からグループ感情を推定するためのモデルである状態遷移モデルを記憶する記憶部6と、情報入力部2から受け取る情報および記憶部6の状態遷移モデルを用いてグループ感情を推定するグループ感情推定部4とを有する。
【0015】
情報入力部2およびグループ感情推定部4は、情報処理部5に設けられている。情報処理部5には、プログラムにしたがって処理を実行するCPU(Central Processing Unit)(不図示)と、プログラムを格納するためのメモリ(不図示)が設けられている。CPUがプログラムを実行することで、情報入力部2およびグループ感情推定部4が仮想的に構成される。
【0016】
情報入力部2は、個人感情の推定に関する情報を外部から取得し、グループ感情推定部4にその情報を出力する。個人感情の推定に関する情報とは、個人感情の情報そのものである場合に限らず、例えば、人の感情を推定するために、人を観測するセンシングに基づいた情報であってもよい。センシングに基づいた情報とは、具体的には、カメラで取得される映像情報や、マイクで取得される音声情報または韻律情報などである。
【0017】
なお、情報入力部2は、個人感情の推定に関する情報がセンシングに基づいた情報である場合、個人感情の推定に関する情報から個人感情を推定する処理を行って、その結果をグループ感情推定部4に出力してもよい。また、上述の形式や方法に限らず、情報入力部2は、状態遷移モデルの内容やグループ感情推定部4の推定方法に好適な形式となるように、入力した情報を処理し、その結果をグループ感情推定部に4に入力してもよい。
【0018】
状態遷移モデルは、グループ感情推定部4によって利用されるモデルである。ただし、状態遷移モデルを用いた感情推定および状態遷移モデルの更新のためのプログラムが記憶部6に格納されていてもよく、または、状態遷移モデルに含まれるデータのみが記憶部6に格納され、状態遷移モデルを用いた感情推定および状態遷移モデルの更新のためのプログラムが情報処理部5内のメモリ(不図示)に保存されていてもよい。記憶部6にプログラムが格納されている場合には、情報処理部5のCPU(不図示)が記憶部6からプログラムを読み出して実行する。
【0019】
また、状態遷移モデルは、個人感情の時系列推移が含まれるものであってもよく、複数人の個人感情が含まれるものであってもよい。さらに、状態遷移モデルは、情報入力部2から入力される情報や、グループ感情推定部4に対して、好適な形式であればよい。
【0020】
グループ感情推定部4は、複数の人の個人感情の推定に関する情報を情報入力部2から受け取ると、複数の人の個人感情の推定に関する情報に基づく、複数の人の個人感情と状態遷移モデルとを用いて、グループ感情を推定する。その際、グループ感情推定部4は、複数の人の個人感情の推定に関する情報が、映像情報および音声情報など、センシングに基づいた情報である場合、これらの情報から複数の人のそれぞれの個人感情を推定する。個人感情を推定する処理は、後述の個人感情推定部14の動作で詳しく説明する。
【0021】
また、グループ感情推定部4は、複数の人の個人感情と過去に推定されたグループ感情のうち少なくとも1つから、現在のグループ感情を推定してもよい。
【0022】
次に、図1に示した情報処理装置の動作を説明する。図2は図1に示した情報処理装置の動作手順を示すフロー図である。
【0023】
グループ感情推定部4は、複数の人のそれぞれの個人感情の推定に関する情報を情報入力部2から受け取ると(ステップ101)、受け取る情報に基づいた、複数の人のそれぞれの個人感情と、記憶部6が記憶する状態遷移モデルとからグループ感情を推定する(ステップ102)。
【0024】
なお、本実施形態では、情報入力部2およびグループ感情推定部4の機能はCPU(不図示)がプログラムを実行することで実現される場合で説明したが、情報入力部2およびグループ感情推定部4は、その両方、またはいずれか一方がその機能に特化した専用の演算回路で構成されてもよい。
【0025】
また、個人感情の推定に関する情報がセンシングに基づいた情報である場合、情報入力部2が、複数の人のそれぞれの個人感情の推定に関する情報から各人の個人感情を推定する処理を行って、その結果をグループ感情推定部4に出力し、グループ感情推定部4は、複数の人のそれぞれの個人感情の情報と状態遷移モデルとを用いて、グループ感情を推定すればよい。
【0026】
以下に、図1に示した情報処理装置を含む感情推定装置について実施例を説明する。また、情報入力部2が複数の人のそれぞれの個人感情の推定に関する情報から各人の個人感情を推定する処理を行う場合で説明する。
【実施例1】
【0027】
本実施例の感情推定装置の構成を説明する。
【0028】
図3は本実施例の感情推定装置の一構成例を示すブロック図である。図1に示した構成と同様な構成については同一の符号を付し、その詳細な説明を省略する。
【0029】
図3に示すように、本実施例における感情推定装置は、センシング入力部10と、センシング情報処理部12と、個人感情推定部14と、状態遷移モデルを記憶する記憶部6と、グループ感情推定部4とを有する。図3に示すセンシング情報処理部12および個人感情推定部14は、図1に示した情報入力部2の一例である。
【0030】
センシング入力部10は、人の感情に関連する情報を取得するための機器である。ここでは、センシング入力部10は、カメラ21およびマイク23を含む構成である。センシング入力部10は、カメラ10で人の表情を撮影し、表情を観測するための映像情報をセンシング情報処理部12に入力する。また、センシング入力部10は、マイク23を介して声が入力されると、韻律感情を観測するために音声情報(韻律情報)をセンシング情報処理部12に入力する。
【0031】
センシング情報処理部12では、映像情報から顔の表情を示す特徴量を算出し、韻律情報から声の感情を示す特徴量を算出し、算出結果を個人感情推定部14に送る。ここで、感情認識のための特徴量の算出方法を簡単に説明する。
【0032】
図4は図3に示したセンシング情報処理部による特徴量算出方法を説明するための模式図である。図4に示すカメラ21およびマイク23が図3に示したセンシング入力部10の一例である。
【0033】
顔の表情を示す特徴量の算出方法を説明する。センシング情報処理部12は、カメラ21で撮影された動画像が入力されると、動画像で顔検出の処理を行う。顔検出の処理は、照明条件の変化や肌の色によらない処理として、顔の構造に着目したHarr-like特徴量などを用いることが望ましい。次に、センシング情報処理部12は、顔向きを検出するために、予め学習処理により作成しておいた表情特徴点モデルの顔検出によって得られる特徴点データを用いて、相関演算などの当てはめを行い、最大応答を示す顔向きを求める。次に、センシング情報処理部12は、求めた顔向きから表情筋を構成する顔特徴点(注目特徴点)を抽出する。特徴点の抽出には、FACS(Facial Action Coding System)モデルを用いた抽出であってもよく、図5に示すように、目や口付近の安定特徴点を算出してもよい。
【0034】
図5は目および口の付近の安定特徴点の一例を示す図である。図5のpt1〜pt4は右目の特徴点を示し、pt5〜pt8は左目の特徴点を示し、pt9〜pt12は口の特徴点を示す。
【0035】
次に、センシング情報処理部12は、算出した特徴点の情報から表情の特徴量を算出する。また、センシング情報処理部12は、顔の特徴点をトラッキングすることによって、特徴点抽出の精度を上げる。トラッキング処理には、パーティクルフィルタを用いてもよいが、本実施例では、オプティカルフローを算出している。
【0036】
注目特徴点から算出される、表情の特徴を示す量として、例えば、図5に示すような幾何学的関係に関する量を用いる。図5では、特徴点間の距離をF1〜F6で示し、これらの距離が表情を示す特徴量となる。
【0037】
次に、声の感情を示す特徴量の算出方法を説明する。
【0038】
センシング情報処理部12は、マイク23に入力される音声情報から、ピッチやパワー、基本周波数F0値、モーラなどの韻律特徴を算出する。続いて、センシング情報処理部12は、韻律特徴と韻律特徴量との関係が示された韻律特徴モデルを用いて、F0の最大値、F0の最小値、F0の平均値、短時間パワーの最大値、短時間パワーの最小値、短時間パワーの平均値、および、平均モーラ長を求め、これらの値から、声の感情を示す特徴量を算出する。
【0039】
個人感情推定部14は、顔の表情を示す特徴量と声の感情を示す特徴量の情報をセンシング情報処理部12から受け取ると、それらの特徴量から個人感情を算出し、算出した個人感情の情報をグループ感情推定部4に送る。
【0040】
なお、感情認識の特徴量の算出方法の一例が非特許文献1および非特許文献2に開示されており、これらの文献に開示された方法を用いてもよい。
【0041】
次に、状態遷移モデルについて説明する。図6は本実施例における状態遷移モデルの一例を示す図である。
【0042】
図6に示すように、本実施例の状態遷移モデルを、個人感情とグループ感情の時間遷移を示したベイジアンネットワークとしている。なお、以下では、このベイジアンネットワークを共起感情モデルと称する。
【0043】
図6に示す共起感情モデルは、AおよびBの2人の感情に基づく共起感情モデルを示している。図6に示すFAは、センシング情報処理部12から出力される、Aの感情認識のための観測量を示す。観測量は、例えば、顔の表情を示す特徴量および声の感情を示す特徴量の少なくともいずれかである。図6に示すFBは、センシング情報処理部12から出力される、Bの感情認識のための観測量を示す。
【0044】
図6に示すEAは、個人感情推定部14から出力される、Aの個人感情を示す。図6に示すEBは、個人感情推定部14から出力される、Bの個人感情を示す。図6に示すGはグループ感情推定部4から出力されるグループ感情を示す。
【0045】
なお、本実施例では、説明を簡単にするために、感情推定の対象となる人が2人の場合で説明するが、図6に示すように、共起感情モデルはグラフ構造をしているため、3人以上の人に対して共起感情モデルを展開してもよい。
【0046】
図6に示す共起感情モデルでは、時刻tを現在とすると、現在におけるグループ感情Gtは、過去の時刻(t−1)におけるグループ感情Gt-1およびA、Bのそれぞれの個人感情EAt-1、EBt-1から推定されるものとして表される。また、時刻tにおけるA、Bのそれぞれの個人感情EAt、EBtは、時刻tのグループ感情Gtの影響を受ける。このように、時間経過に伴って個人感情はグループ感情の影響を受けながら変化していく。共起感情モデルは、個人感情と集団感情の時系列遷移を表すモデルになっている。
【0047】
グループ感情推定部4は、個人感情と共起感情モデルを用いて、グループ感情を推定する。図6を参照して説明すると、時刻(t−1)でのAの個人感情EAt-1、Bの個人感情EBt-1およびグループ感情Gt-1と時刻tでのグループ感情Gtとの関係を、条件付確率分布P( Gt | EAt-1, EBt-1, Gt-1 )として共起感情モデルに予め記述しておき、グループ感情推定部4は、それに基づいて、時刻tでのグループ感情Gtの確率分布を算出し、グループ感情を推定する。グループ感情推定部4が時間経過に伴ってグループ感情を順次推定することで、図6に示すように、共起感情モデルの状態が連続的に更新される。
【0048】
なお、図3に示すブロック図では、グループ感情推定部14によるグループ感情推定の1回分の処理の際のデータの流れを矢印で示している。
【0049】
次に、本実施例の感情推定装置の動作を説明する。図7は本実施例の感情推定装置の動作手順を示すフロー図である。
【0050】
センシング情報処理部12は、センシング入力部10から映像情報と音声情報が入力されると(ステップ201)、顔の表情を示す特徴量と声の感情を示す特徴量を算出する(ステップ202)。続いて、個人感情推定部14は、顔の表情を示す特徴量と声の感情を示す特徴量から個人感情を算出する(ステップ203)。そして、グループ感情推定部4は、個人感情推定部14で算出された個人感情の情報と記憶部6に格納された共起感情モデルを用いて、グループ感情を推定する(ステップ204)。
【0051】
本実施例によれば、人がグループで会話しているシーンにおいて、リアルタイムにグループ感情を推定することができる。また、顔の表情を示す特徴量と声の感情を示す特徴量の両方を用いることにより、推定性能を向上させることが可能となる。例えば、発話中は表情特徴量の重みを下げ、聞き役などのときは重みを上げるなどの動的な選択を行うことも可能となる。
【0052】
次に、本実施例の感情推定装置において、センシング時に起こる人物の遮蔽などにより、グループのうちの1人について、感情認識のための観測量を得られない場合の感情推定方法について説明する。
【0053】
時刻(t−1)において、センシング時に起こる人物の隠蔽などがあると、AとBのうち、いずれか一方の人の個人感情が算出できない場合が考えられる。この場合、グループ感情推定部4は、時刻(t−1)におけるAの個人感情EAt-1およびBの個人感情EBt-1のうち、算出できた方の個人感情と時刻(t−1)におけるグループ感情Gt-1とから、時刻tでのグループ感情Gtを推定することが可能となる。
【0054】
図8は、グループのうちの1人について感情認識のための観測量が得られない場合の感情推定方法を示す場合の一例である。図8はAの人の、時刻tにおける観測量FAtを取得できなかった場合を示す。
【0055】
時刻(t−1)でのAの個人感情EAt-1および時刻tでのAの個人感情EAtとグループ感情Gtとの関係を、条件付確率分布P( EAt | EAt-1, Gt )として共起感情モデルに予め記述しておく。図8に示すように、時刻tでのAの観測量FAtが欠落したとき、グループ感情推定部4は、時刻tのグループ感情Gtと時刻(t−1)のAの個人感情EAt-1とから、観測量の欠落した、時刻tにおけるAの個人感情EAtを逆に推定してもよい。この場合、時刻(t+1)のグループ感情Gt+1の推定に必要な情報を補完することが可能となる。
【0056】
さらに、欠損する情報は上述の場合に限らない。条件付確率分布P( Gt |Gt-1 )を予め共起感情モデルに記述しておけば、グループ感情推定部4は、過去に推定されたグループ感情から次の時刻のグループ感情を推定することが可能となり、条件付確率分布P( Gt | EAt-1 )またはP( Gt | EAt )を予め共起感情モデルに記述しておけば、グループ感情推定部4は、個人感情からグループ感情を推定することが可能となる。
【0057】
次に、図6に示した共起感情モデルの具体例を説明する。
【0058】
グループ感情推定部4において、時刻(t−1)の個人とグループのそれぞれの感情から時刻tのグループ感情を算出する方法は、本発明を適用する環境に合わせて柔軟に設計できる。
【0059】
図9は本実施例における共起感情モデルのパラメータ設定例を示す図である。例えば、Gt =f( EAt-1, EBt-1, Gt-1 )とすると、図9に示すように、計算速度を向上させるため、関数f を以下のように単純な加重和としてもよい。
【0060】
Gt = wa × EAt-1 + wb × EBt-1 + wg × Gt-1
ただし、wa、wbおよびwgは係数であり、wa + wb + wg = 1である。
【0061】
係数wa、wb、およびwgは、グループを構成するメンバーの感情の組み合わせとメンバーの場への影響度によって決定する。例えば、メンバーA、Bの両者がともに笑っていたならば、グループ感情推定部4は、音声波形の振幅の大きさによって影響度を算出し、それに基づいてwを決定する。
【0062】
観測情報の欠損により、個人感情E At-1または個人感情EBt-1のうち、どちらか一方を推定できなかった場合、グループ感情推定部4は、さらに過去の個人感情E At-2および個人感情EBt-2の情報を基に係数wを算出してもよい。
【0063】
なお、上述の感情推定装置が共起感情モデルの更新を行うようにしてもよい。以下に、共起感情モデルの更新について詳しく説明する。共起感情モデルの更新とは、共起感情モデルに設定された各種のパラメータを変更することであり、例えば、上述の条件付確率分布、係数wおよび後述の結合確率表などのパラメータを学習処理によって変更することである。
【0064】
図10は本実施例の感情推定装置の別の構成例を示すブロック図である。図1または図3に示した構成と同様な構成については同一の符号を付し、その詳細な説明を省略する。
【0065】
図10に示す感情推定装置は、図3を参照して説明した感情推定装置に含まれる構成の他に、状態遷移モデル生成部16と、推定結果出力部18とを有する構成である。
【0066】
図6を参照して説明すると、状態遷移モデル生成部16は、AおよびBの2人の個人感情およびグループ感情からなる3つの結合確率表をベイジアンネットワークの学習処理により、共起感情モデルの更新を行う。また、グループ感情の推定結果が存在する場合、状態遷移モデル生成部16は、結合確率表の場合と同様に、それを用いて、ベイジアンネットワークの学習処理を行う。
【0067】
推定結果出力部18では、グループ感情推定部4による、グループ感情の推定結果を人に提示する。例えば、推定結果出力部18は、表示部(不図示)を備え、グループ感情を「ポジティブ」や「ネガティブ」といった言葉で表現して表示部に提示したり、グループ感情をキャラクタ画像の表情に反映させて表示したりする。推定結果出力部18がスピーカ(不図示)を備えている場合には、グループ感情を「ポジティブ」や「ネガティブ」といった言葉を音声でスピーカから出力したり、グループ感情を反映させた音をスピーカから出力したりしてもよい。グループ感情を提示する方法は、人が推定結果を理解できる好適な方法であれば、ここで例示した方法以外であってもよい。
【0068】
次に、図10に示した感情推定装置の動作を説明する。図11は図10に示した感情推定装置の動作手順を示すフロー図である。
【0069】
図11に示すステップ201から204までの処理は、図7を参照して説明した処理と同様である。ステップ204の処理の後、推定結果出力部18がグループ感情推定結果を提示し(ステップ205)、状態遷移モデル生成部16が共起感情モデルを更新する(ステップ206)。
【0070】
グループ感情の推定結果を用いて、共起感情生成モデルを更新することにより、推定精度を高めることが可能となる。
【0071】
本発明によれば、個人感情からグループ感情を推定する状態遷移モデルを用いてグループ感情の推定を行うため、個人感情がグループ感情にどのような影響を及ぼすか、個人感情およびグループ感情の因果関係に適合したグループ感情を推定することができる。本発明をコミュニケーションロボットに搭載すると、個人感情の遷移とグループ感情の遷移の状況を考慮して、会話に参入することができるので、より自然なコミュニケーションを行うことが可能なロボット実現させることが可能となる。
【産業上の利用可能性】
【0072】
本発明は、人間と会話を行うコミュニケーションロボットにおいて、コミュニケーションの場に適切な対話戦略を選択することや、会議内容を記録し分析する会議システムなどにおいて、会議の盛り上がり具合を視覚化することに利用可能である。
【符号の説明】
【0073】
2 情報入力部
4 グループ感情推定部
5 情報処理部
6 記憶部
10 センシング入力部
12 センシング情報処理部
14 個人感情推定部
16 状態遷移モデル生成部
18 推定結果出力部
21 カメラ
23 マイク
【特許請求の範囲】
【請求項1】
複数人で構成される集団の感情を示すグループ感情を推定する感情推定装置であって、
状態遷移モデルを記憶する記憶部と、
前記集団を構成する個人の感情に関する情報をセンシングにより取得し、個人感情を推定する情報入力部と、
前記情報入力部から取得した個人感情の情報と前記状態遷移モデルとから前記グループ感情を推定するグループ感情推定部とを有し、
前記状態遷移モデルは、前記個人感情と前記グループ感情の時系列遷移を扱うものであり、連続的にそのモデルの状態が更新されることを特徴とする感情推定装置。
【請求項2】
請求項1記載の感情推定装置において、
前記状態遷移モデルは、前記情報入力部から入力される個人感情と過去に推定されたグループ感情のうち少なくとも1つから、現在のグループ感情が推定されるモデルであることを特徴とする感情推定装置。
【請求項3】
請求項1または2記載の感情推定装置において、
前記グループ感情推定部は、
前記集団のうちの1人について、現在の個人の感情に関する情報を前記情報入力部から取得できない場合、該1人について過去に推定された個人感情と現在におけるグループ感情とから、該1人についての現在における個人感情を推定することを特徴とする感情推定装置。
【請求項4】
複数人で構成される集団の感情を示すグループ感情を、該集団を構成する人の個人感情と記憶部に格納された状態遷移モデルとから推定する情報処理装置による感情推定方法であって、
前記個人感情が入力されると、該個人感情と前記状態遷移モデルに基づく過去のグループ感情とのうち少なくとも1つから、現在のグループ感情を推定する、感情推定方法。
【請求項1】
複数人で構成される集団の感情を示すグループ感情を推定する感情推定装置であって、
状態遷移モデルを記憶する記憶部と、
前記集団を構成する個人の感情に関する情報をセンシングにより取得し、個人感情を推定する情報入力部と、
前記情報入力部から取得した個人感情の情報と前記状態遷移モデルとから前記グループ感情を推定するグループ感情推定部とを有し、
前記状態遷移モデルは、前記個人感情と前記グループ感情の時系列遷移を扱うものであり、連続的にそのモデルの状態が更新されることを特徴とする感情推定装置。
【請求項2】
請求項1記載の感情推定装置において、
前記状態遷移モデルは、前記情報入力部から入力される個人感情と過去に推定されたグループ感情のうち少なくとも1つから、現在のグループ感情が推定されるモデルであることを特徴とする感情推定装置。
【請求項3】
請求項1または2記載の感情推定装置において、
前記グループ感情推定部は、
前記集団のうちの1人について、現在の個人の感情に関する情報を前記情報入力部から取得できない場合、該1人について過去に推定された個人感情と現在におけるグループ感情とから、該1人についての現在における個人感情を推定することを特徴とする感情推定装置。
【請求項4】
複数人で構成される集団の感情を示すグループ感情を、該集団を構成する人の個人感情と記憶部に格納された状態遷移モデルとから推定する情報処理装置による感情推定方法であって、
前記個人感情が入力されると、該個人感情と前記状態遷移モデルに基づく過去のグループ感情とのうち少なくとも1つから、現在のグループ感情を推定する、感情推定方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2011−186521(P2011−186521A)
【公開日】平成23年9月22日(2011.9.22)
【国際特許分類】
【出願番号】特願2010−47848(P2010−47848)
【出願日】平成22年3月4日(2010.3.4)
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成21年度 独立行政法人新エネルギー・産業技術総合開発機構「次世代ロボット共通基盤開発プロジェクト コミュニケーション知能(社会・生活分野)の開発」に関する委託研究、産業技術力強化法第19条の適用を受ける特許出願
【出願人】(000004237)日本電気株式会社 (19,353)
【出願人】(503420833)学校法人常翔学園 (62)
【Fターム(参考)】
【公開日】平成23年9月22日(2011.9.22)
【国際特許分類】
【出願日】平成22年3月4日(2010.3.4)
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成21年度 独立行政法人新エネルギー・産業技術総合開発機構「次世代ロボット共通基盤開発プロジェクト コミュニケーション知能(社会・生活分野)の開発」に関する委託研究、産業技術力強化法第19条の適用を受ける特許出願
【出願人】(000004237)日本電気株式会社 (19,353)
【出願人】(503420833)学校法人常翔学園 (62)
【Fターム(参考)】
[ Back to top ]