説明

顔面動作推定装置及び顔面動作推定方法

【課題】顔面の動作を容易に知覚できるようにする。
【解決手段】顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定装置において、前記顔の所定領域に対する前記生体電位信号を取得するための複数の電極と、前記複数の電極から得られるそれぞれの信号を所定の帯域でフィルタリングするフィルタ手段と、前記フィルタ手段により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理手段と、前記信号処理手段により得られる信号に対して機械学習により信号解析を行う機械学習解析手段と、前記機械学習解析手段により得られる解析結果から、顔の表情及び度合いを推定する表情推定手段と、前記顔の表情及び度合いに対応させて予め設定された提示を行う提示手段とを有することにより上記課題を解決する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、顔面動作推定装置及び顔面動作推定方法に係り、特に顔面の動作を容易に知覚できるようにするための顔面動作推定装置及び顔面動作推定方法に関する。
【背景技術】
【0002】
従来、対話等における顔の表情は、対人に付加的情報を与えており、その人の感情を取得する1つの目安として人間関係において重要な役割を果たしている。
【0003】
そこで、例えば、カメラ等により撮影された人物の表情認識に関する技術が存在しており、顔の所定部位に設置された電極等から得られる生体電位信号(筋電)に基づいて表情を認識する技術についても開示されている(例えば、特許文献1、2等。)。
【0004】
例えば、特許文献1では、ユーザの生体情報や運動情報を検出し、検出した生体情報及び運動情報に基づいてユーザ状況を判定して、それに応じた表示キャラクタの表情又は動作を決定する技術について示されている。
【0005】
また、特許文献2では、笑筋及び頬骨筋の何れかの端部に電極を配置し、これにより検出された笑筋及び頬骨筋の20〜100Hzの周波数分布の筋電に基づいて、その人物が笑っているか否かの笑いの有無を検出する技術について示されている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2009−39157号公報
【特許文献2】特開2006−340986号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、カメラ等で撮影された画像から人物の表情を推定する場合には、少なくとも画面上に正面顔が映し出されていなければならず、例えば顔が俯いた場合やカメラに対して後を向いた場合には、その表情や動作を測定することができない。
【0008】
また、例えば、笑った顔の表情を検知するために電極を用いて生体電位信号を測定する際、従来では、顔面内部にある笑筋の上に電極を配置して笑筋の動きにより生じる生体電位信号を取得しているが、このような配置を行うと顔の前面に配置することになるため、外見上に大きな違和感があり、また表情そのものを阻害してしまうため、好ましいものとはいえない。
【0009】
また、例えば、特許文献2に示すようにヘッドホン等を用いて耳介部からの生体電位信号を取得する場合には、筋肉部からの距離があるため、ノイズ等や皮膚を伝搬する際の減衰等があるため、笑顔の度合い等を正確に推測することができない。
【0010】
更に、従来では、例えば顔面麻痺等により表情がうまく作れない人物等に対して、生体電位信号により得られる顔面内部の信号を、筋肉の動きではなく、光や音により対人等に明確に提示させることで他人が容易に視認することができる装着型の装置については存在していなかった。
【0011】
本発明は、上述した課題に鑑みてなされたものであって、顔面の動作を容易に知覚できるようにするための顔面動作推定装置及び顔面動作推定方法を提供することを目的とする。
【課題を解決するための手段】
【0012】
上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
【0013】
請求項1に記載された発明は、顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定装置において、前記顔の所定領域に対する前記生体電位信号を取得するための複数の電極と、前記複数の電極から得られるそれぞれの信号を所定の帯域でフィルタリングするフィルタ手段と、前記フィルタ手段により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理手段と、前記信号処理手段により得られる信号に対して機械学習により信号解析を行う機械学習解析手段と、前記機械学習解析手段により得られる解析結果から、顔の表情及び度合いを推定する表情推定手段と、前記顔の表情及び度合いに対応させて予め設定された提示を行う提示手段とを有することを特徴とする。
【0014】
請求項1記載の発明によれば、顔面の動作を容易に定量化できると共に知覚できるようにすることができる。
【0015】
請求項2に記載された発明は、前記顔の所定領域は、前記装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉に対する生体電位信号が取得できる領域であることを特徴とする。
【0016】
請求項2記載の発明によれば、1つの筋肉の動きに依存しすぎずに、表情を形成するために必要な複数の筋肉への信号を効率的且つ高い時間精度で取得することができる。
【0017】
請求項3に記載された発明は、前記信号処理手段は、前記複数の電極から得られる複数の生体電位信号の組み合わせから独立成分を抽出することを特徴とする。
【0018】
請求項3記載の発明によれば、どの部位から取得した生体電位信号であるか否かの判断を必要とせず、複数の電極から取得した複数の生体電位信号のみに着目して独立成分を抽出することができる。
【0019】
請求項4に記載された発明は、前記機械学習解析手段は、前記複数の電極から得られる少なくとも2つの信号からなる混合信号の入力に対す顔の表情の種類及び度合いを出力とする予め設定されたニューロンネットワークを用いて解析を行うことを特徴とする。
【0020】
請求項4記載の発明によれば、機械学習としてニューラルネットワークを用いることで、顔の表情が異なるどのユーザに対しても制限なく顔面動作推定装置を利用することができる。
【0021】
請求項5に記載された発明は、前記提示手段は、複数の光又は音により提示を行い、前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする。
【0022】
請求項5記載の発明によれば、光又は音により装着者又は対面者及び周囲の者等は、容易に表情を把握することができる。これにより、無意識のうちに行われる表情の変化を正確に把握することができる。更に、表情の種類及び度合いに応じて光や音を変更するため、詳細な表情の変化を高精度に確認することができる。
【0023】
請求項6に記載された発明は、顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定方法において、複数の電極を用いて前記顔の所定領域に対する前記生体電位信号を取得するための信号取得段階と、前記信号取得段階により得られる前記複数の電極からのそれぞれの信号を所定の帯域でフィルタリングするフィルタ段階と、前記フィルタ段階により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理段階と、前記信号処理段階により得られる信号に対して機械学習により信号解析を行う機械学習解析段階と、前記機械学習解析段階により得られる解析結果から、顔の表情及び度合いを推定する表情推定段階と、前記顔の表情及び度合いに対応させて予め設定された提示手段により提示させる提示段階とを有することを特徴とする。
【0024】
請求項6記載の発明によれば、顔面の動作を容易に定量化できると共に知覚できるようにすることができる。
【0025】
請求項7に記載された発明は、前記顔の所定領域は、前記装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉に対する生体電位信号が取得できる領域であることを特徴とする。
【0026】
請求項7記載の発明によれば、1つの筋肉の動きに依存しすぎずに、表情を形成するために必要な複数の筋肉への信号を効率的且つ高い時間精度で取得することができる。
【0027】
請求項8に記載された発明は、前記信号処理段階は、前記複数の電極から得られる複数の生体電位信号の組み合わせから独立成分を抽出することを特徴とする。
【0028】
請求項8記載の発明によれば、どの部位から取得した生体電位信号であるか否かの判断を必要とせず、複数の電極から取得した複数の生体電位信号のみに着目して独立成分を抽出することができる。
【0029】
請求項9に記載された発明は、前記機械学習解析段階は、前記複数の電極から得られる少なくとも2つの信号からなる混合信号の入力に対す顔の表情の種類及び度合いを出力とする予め設定されたニューロンネットワークを用いて解析を行うことを特徴とする。
【0030】
請求項9記載の発明によれば、機械学習としてニューラルネットワークを用いることで、顔の表情が異なるどのユーザに対しても制限なく利用することができる。
【0031】
請求項10に記載された発明は、前記提示段階は、前記提示手段を用いて複数の光又は音により提示を行い、前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする。
【0032】
請求項10記載の発明によれば、光又は音により装着者又は対面者及び周囲の者等は、容易に表情を把握することができる。これにより、無意識のうちに行われる表情の変化を正確に把握することができる。更に、表情の種類及び度合いに応じて光や音を変更するため、詳細な表情の変化を高精度に確認することができる。
【発明の効果】
【0033】
本発明によれば、顔面の動作を容易に知覚できるようにすることができる。
【図面の簡単な説明】
【0034】
【図1】電極の配置位置を説明するための図である。
【図2】本実施形態における顔面動作推定装置の外部形態の一例を示す図である。
【図3】顔面動作推定装置の変形例を説明するための図である。
【図4】本実施形態における顔面動作推定装置の機能構成の一例を示す図である。
【図5】顔面動作推定装置における信号処理の概要を説明するための図である。
【図6】信号処理モジュールの一例を示す図である。
【図7】ICAのブロックダイアグラムの一例を示す図である。
【図8】本実施形態における表情推定における基本データの生成例を示す図である。
【図9】本実施形態を適用した実験結果の一例を示す図(その1)である。
【図10】本実施形態を適用した実験結果の一例を示す図(その2)である。
【図11】本実施形態を適用した実験結果の一例を示す図(その3)である。
【発明を実施するための形態】
【0035】
<本発明について>
本発明は、表情筋の運動に関わる生体電位信号(Bio Electrical Signals;BES)に基づき、表情や動作の内容やその度合いを識別する。具体的には、従来のように顔の前面に電極を配置することは表情及び顔の印象を阻害してしまうため、本発明では、顔の側面にある顔面神経頬筋枝上の生体電位信号を取得することで、表情や動作の内容やその度合いを識別する。
【0036】
なお、このような顔の側方での生体電位信号の計測では、首の動作や咬筋の影響を取り除かなければならないが、本発明では、複数の電極を用いて得られた2チャンネル以上の信号を用いて独立成分分析やニューラルネットワーク等を用いることで、顔の表情や動作(例えば、笑い、恐れ、中立(真顔)、怒り、泣き、あくび等)や、その表情や動作の度合い(例えば、どの程度笑っているか、あくびの口の大きさ等)を判断して提示手段により提示することができる。
【0037】
また、本発明は、上述した顔の表情や動作を所定期間蓄積しておき、その蓄積データを統計的に利用することにより、例えば本装置の装着者毎に、一日や一週間、一ヶ月等の所定期間内にどの程度笑っているか等、その装着者も意識していない表情の変化を容易且つ正確に取得することができる。
【0038】
また、本発明では、顔面内部の信号を光や音により対人等に明確に提示させるために、例えば発光素子等による光表示機能やスピーカ等による音出力機能を有することにより、生体電位信号から取得される情報から判断される顔の表情や動作の種類によって、光表示や音出力を行うことで、外見上、顔の表情に変化が見られないような被験者であっても、その表情の内容を明確に把握することができる。
【0039】
更に、本発明は、例えば本発明を装着型装置として提供することで、装着者及び周囲の人間への即時且つ確実な視覚的・音響的フィードバックが可能となるため、安価な構成でユーザの利便性を向上させた顔面動作推定装置を提供することができる。
【0040】
以下に、本発明における顔面動作推定装置及び顔面動作推定方法を好適に実施した形態について、図面を用いて説明する。
【0041】
<本発明の動作手法>
まず、本発明における動作手法について説明する。本発明は、複数の電極から得られる生体電位信号からリアルタイムの感情的な表情又は動作を識別して、連続的にその内容を提示するように構成された装着型装置を用いた顔面動作推定手法である。
【0042】
そのため、本発明では、生体電位信号を取得する電極を、顔面神経頬筋枝上であるこめかみ付近の所定の位置に配置する。なお、電極は、少なくとも左右合計で2チャンネル(1チャンネルは電極2個)以上が取得できるように複数の電極を用いる。なお、取得する信号は、左右2チャンネルで合計4チャンネルが好ましい。これにより、笑いの有無のみならず、笑顔の度合い、怒り顔等の他の表情やあくび等の動作の認識も可能となる。
【0043】
図1は、電極の配置位置を説明するための図である。図1(a)に示すように、装着者10の顔面内部は、複数の筋肉により表情が形成されており、その中でも特に人間の表情に寄与しているとされる顔輪筋11、小頬骨筋12、大頬骨筋13、及び笑筋14のうち、1つ以上の筋肉の動きから生じる生体電位信号を取得する。なお、取得される生体電位信号は、2つ以上が好ましい。これにより、1つの筋肉の動きに依存しすぎずに、表情を形成するために必要な複数の筋肉への信号を効率的且つ高い時間精度で取得することができる。
【0044】
また、本実施形態では、複数の電極の設置する位置は、装着者10の顔面において、表情生成が可能な限り変位が少ない場所として選定し、且つ表情推定が可能な生体電位信号を取得できる部位として選定する。つまり、本実施形態では、図1(b)に示すように、こめかみ付近の所定領域15に複数の電極16を配置する。
【0045】
生体電位信号は、1対の電極間、すなわち2つの電極で取得した信号間の電位差により取得される。したがって、図1(b)に示ように電極16−1と16−2とで1つの生体電位信号取得部(1チャンネル)を構成し、電極16−3と16−4とで1つの生体電位信号取得部(1チャンネル)を構成する。なお、本実施形態では、生体電位信号取得部は、左右それぞれに2つずつ、左右両側で合計4チャンネルの生体電位信号を取得する。なお、本発明における電極の設置個数については、これに限定されるわけではない。
【0046】
上述した図1(b)に示すように、電極16の位置は、こめかみ付近に設定されることにより、対面している人には、違和感を与えず、電極により装着者10の表情を阻害することなく、顔輪筋11、小頬骨筋12、大頬骨筋13、及び笑筋14から皮膚等を通して伝わる波紋状の電極信号の混合信号を取得することができる。
【0047】
また、本実施形態では、配置した複数の電極から得られる電極の位置と信号の位相差等により、取得した信号が何処の筋肉の信号であるかを特定することができ、直接的にノイズ等の影響を受けずに顔輪筋11、小頬骨筋12、大頬骨筋13、及び笑筋14による表情を効果的に推定するための混合信号を取得することができる。
【0048】
なお、本実施形態における生体電位信号のチャンネル取得数は複数であればよく、本発明においては特に制限されるものではないが、多すぎると装着時に顔面に邪魔になるため、2〜8チャンネル程度でよく、特に4チャンネルが好ましい。
【0049】
また、上述の顔面に邪魔にならない配置を実現するという観点から、1つの電極は、例えば直径が約2〜10mm程度が好ましく、対を形成する電極間の距離は、例えば約20mm程度が好ましい。また、各電極16−1〜16−4は、顔面に対して縦に略直線的に配置されることが好ましいが、本発明においては特に制限されるものではない。
【0050】
<顔面動作推定装置の外部形態>
次に、本実施形態における顔面動作推定装置の外部形態(インターフェース)の例について説明する。図2は、本実施形態における顔面動作推定装置の外部形態の一例を示す図である。ここで、図2(A)は、装着型の顔面動作推定装置20及び装着者10による装着の様子を説明するための図であり、図2(B)は、顔面動作推定装置20の端部の形成の様子を示す図である。
【0051】
図2に示す顔面動作推定装置20は、図2(A)−(a)〜(c)に示すように、後頭部側が円弧形状になっており、左右の端部が左右のこめかみ付近に対して上述した電極16の位置に設置されるように、顔面動作推定装置20の端部が縦長に形成され、そこに複数の電極16が対となって設けられている。
【0052】
つまり、図2(A)−(a)、図2(B)−(a)に示すように、こめかみ付近に装着される顔面動作推定装置20の端部の内側には、上述した電極16が設けられている。なお、これらの電極は、左右の一方だけでもよく、両方でもよい。左右一方の場合には、例えば、左右のどちらかが麻痺している患者等に対してリハビリを行う場合等にその麻痺している側だけに電極を設置して、片側の信号を受信するような場合に用いることができる。
【0053】
また、図2(A)−(a)、図2(B)−(b)に示すように、顔面動作推定装置20の端部の外側には、LED等の複数の発光素子等からなる光提示手段21と、音声出力機能であるスピーカ等の音提示手段22とが構成されている。
【0054】
なお、光提示手段21は、複数の異なる色或いは同一の色、又はこれらの組合せからなる、LED(図2(B)−(b)では、LED21−1,21−2)を設けることで、例えば、電極16からの生体電位信号により解析した表情や動作の内容やその度合いに応じて、予め設定された条件に基づいて、点灯させる光の数や位置を変えたり、点滅させたり、点滅される間隔を変えて提示することができる。また、音提示手段22も同様に、解析した表情や動作の内容やその度合いに応じて音の大きさや音の種類、音声等を変えて出力することができる。
【0055】
これにより、例えば、顔面機能が低下又は停止した患者や老人等に対して顔面動作推定装置20を装着することで、電極16からの生体電位信号を解析して得られた表情や動作の内容やその度合いを光や音に応じて、他の人に容易に伝えることができる。
【0056】
上述したように、本実施形態における顔面動作推定装置20は、電極16の位置を配慮し、更に可能な限り表情を阻害しない形式で装着型を可能とした。
【0057】
なお、顔面動作推定装置20を装着する際には、顔の側面との接触面にジェル状の粘着剤等を用いて所定位置に固定されることが好ましい。また、顔面動作推定装置20は、装着者10毎の頭部の形が異なるため、可撓性のある材質からなり、例えば樹脂等の材質からなる。また、本実施形態では、頭部の大きさに合わせて円弧部分の長さが調整できるような、一般的な調整機構を設けていてもよい。
【0058】
<変形例>
ここで、図3は、顔面動作推定装置の変形例を説明するための図である。変形例としては、例えば、図3(A)に示すように、顔面動作推定装置30−1が装着者の耳全体を覆うように耳の凹凸の形状に係合させたり、耳の付け根にフックさせて係止部をフックさせることで固定して装着する。また、顔面動作推定装置30−1は、固定された状態でこめかみ付近に設置される電極を複数設けており、更にLED等の複数の発光素子からなる光提示手段31−1や、スピーカ等の音提示手段32−1が顔の正面側(対面者に見えるような位置)に配置される。これにより、対面者や鏡等から提示されている内容を容易に把握することができる。
【0059】
また、図3(B)の顔面動作推定装置30−2も上述した顔面動作推定装置30−1と同様に耳に係止されており、上述した複数の発光素子からなる光提示手段31−1や、スピーカ等の音提示手段32−1が側面に配置されている。また、顔面動作推定装置30−2は、こめかみ付近に複数の電極16が設けられ、本実施形態における処理が行われる。これにより、対面していない第三者からも提示された表情の内容を確認することができる。
【0060】
なお、図3(A),(B)に示された顔面動作推定装置30−1,30−2は、それぞれ組み合わせて光提示手段31又は音提示手段32の何れか又は両方を1又は複数個所に設置することができる。また、
また、本実施形態における顔面動作推定装置は、例えば内部に太陽電池や充電型のリチウム電池等が内蔵されており、そこから供給される電力に基づいて各処理が実行される。
【0061】
<顔面動作推定装置:機能構成例>
次に、本実施形態における顔面動作推定装置の機能構成例について図を用いて説明する。図4は、本実施形態における顔面動作推定装置の機能構成の一例を示す図である。なお、以下の説明では、顔面動作推定装置の一例として、図2に示す顔面動作推定装置20を用いる。
【0062】
図4に示す顔面動作推定装置20は、電極信号入力手段41と、蓄積手段42と、フィルタ手段43と、信号処理手段44と、機械学習解析手段45と、表情推定手段46と、提示手段47と、送受信手段48と、制御手段49とを有するよう構成されている。なお、提示手段47は、具体的には光提示手段47−1と音提示手段47−2とを含んでいる。
【0063】
電極信号入力手段41は、顔の左右又は一方の側面にある複数の電極から、各電極の信号を受信する。なお、電極とは、例えば電位差検出電極等を示し、上述したようにそれぞれ一対の電極によって構成される。なお、本実施形態における一対の電極のそれぞれには、単数の電極又は複数の電極の両者が含まれる。すなわち、別個独立して設けられた電極であっても電気的に等価に扱うことにより、一対の電極のそれぞれを構成する場合も含まれる。
【0064】
蓄積手段42は、電極信号入力手段41により得られる電極からの信号(生体電位信号)を時間情報と共に蓄積しておき、機械学習解析手段45等を用いて経時的又は統計的な解析を行うことにより表情や動作のパターンや度合い等を推測して提示する。
【0065】
なお、蓄積手段42は、フィルタ手段43により処理された結果や、信号処理手段33により信号処理された結果、機械学習解析手段45により解析された結果、光提示手段46により提示されている内容、送受信手段47により通信ネットワークを介して取得される他の外部装置から、本実施形態における実施において必要な各種情報等の蓄積を行う。また、蓄積手段42は、送受信手段47により取得される上述した各種情報等も蓄積する。更に、蓄積手段42は、必要に応じて蓄積されている各種データを読み出すことができる。
【0066】
フィルタ手段43は、電極信号入力手段41や蓄積手段42から得られる生体電位信号に含まれるノイズ等を除去するため平滑化処理を行う。具体的には、フィルタ手段43は、取得した生体電位信号を用いてバンドパスフィルタ(BPF)や、ノッチフィルタ(BEF)等を行い、所定の帯域で信号のフィルタリングを行う。なお、上述した所定の帯域としては、例えば約5〜400Hz程度の帯域を利用する。
【0067】
信号処理手段44は、フィルタ手段43から得られる信号に対して独立成分分析(Independent Component Analysys;ICA)を用いて、有意信号を抽出する。つまり、信号処理手段44は、フィルタ手段43により得られる信号に対して、予め設定される信号の独立性を仮定することにより分別する。なお、信号処理手段44における独立成分分析の詳細については後述する。
【0068】
機械学習解析手段45は、前記信号処理手段44により得られる有意信号に基づいて、機械学習を行う。具体的には、機械学習解析手段45は、機械学習を用いて上述した有意信号を弁別し、目的とする表情推定が可能な信号に変換する。なお、機械学習解析手段45は、上述した解析を蓄積手段42により時間情報と共に蓄積される生体電位信号に基づいて統計的に解析を行うことができる。
【0069】
ここで、機械学習解析手段45における機械学習の例としては、例えば、ニューロンネットワーク(Artificial Neural Network;ANN)を用いることができる。なお、本実施形態では、上述したANN以外であっても、例えば重回帰分析やサポートベクターマシン等の手法により機械学習を行うことができる。なお、機械学習解析手段45における詳細な説明は後述する。
【0070】
表情推定手段46は、機械学習解析手段45により得られる表情推定が可能な信号に基づいて装着者10の表情や動作の推定を行う。
【0071】
具体的には、表情推定手段46は、予め設定された信号の振幅や周波数、波形のパターン等に応じて、予め設定された複数の表情や動作、及びそれらの度合いに関する情報のうち、どれに該当するかを選択して推定を行う。なお、本実施形態では、信号の振幅や周波数、波形のパターンと複数の表情や動作、度合いをそれぞれ対応テーブルとして生成して蓄積手段42等に蓄積しておき、表情推定手段46がその対応テーブルを用いて対応するデータの内容を容易に推定することができる。
【0072】
これにより、表情推定手段46は、例えば、「笑い顔」等、1つの表情に対しても、その度合いを推定することができ、詳細な表情認識を実現することができる。
【0073】
更に、表情推定手段46は、装着者毎に最初に顔面動作推定装置20を装着してもらった後に、所定時間(例えば、2〜4秒程度)で笑顔や怒っている顔等の各種表情やあくび等の動作を意図的に行ってもらい、そのときに得られる各電極16からの生体電位信号を用いて上述のテーブル(基本データ)を更新することもできる。これにより、装着者毎に笑い方が異なる場合でも高精度に表情認識を行うことができる。なお、本実施形態においては、上述した内容の他に、例えば口腔内の咀嚼運動の認識等についても、上述した手法と同様な手法を用いて認識処理を行うことができる。
【0074】
提示手段47は、表情推定手段46により得られる表情推定結果に基づいて、所定の提示を行う。具体的には、提示手段47は、表情推定結果に基づいて光提示手段47−1により、光により外部に提示を行う。なお、光提示手段47−1としては、例えば、同色又は異色の複数のLEDのうち、表情推定手段46により推定された表情に対応する色、又は、複数のLEDのうち、1又は複数のLEDを表示させたり、所定時間間隔で点滅させる等といった処理を行う。また、光提示手段47−1は、表情や動作、及びその度合いに応じて点滅間隔を早くしたり、遅くしたりすることもできる。
【0075】
これにより、例えば、大声で大きく口を上げて笑っている場合には、早く点滅させ、微笑む程度であれば、点灯させる等といった提示も行うことができる。
【0076】
更に、提示手段47は、表情推定結果に基づいて、音提示手段47−1により推定された表情に対応する音を提示することができる。なお、この音は、人の声でもよい。つまり、笑っている場合には、笑い声が音声出力されたりすることもでき、また度合いに応じて笑い声の大きさも変更することができ、音の種類も予め設定された音声データにより「うふふ・・・」や「アハハ・・・」等を度合いに対応させて出力することができる。また、提示手段47は、光と音声の両方を組み合わせて同時に提示されることもできる。
【0077】
送受信手段48は、有線又は無線を用いて蓄積手段42により蓄積されたデータを通信ネットワーク等により接続された外部装置等に送信したり、本実施形態における必要な各種データを入力したり、各種実行結果を外部装置に出力することができる。
【0078】
制御手段49は、顔面動作推定装置20の各構成部全体の制御を行う。具体的には、制御手段49は、例えば本実施形態における顔面動作提示を実現するために、電極信号入力処理や、フィルタ処理、信号処理、機械学習解析処理、表情推定処理、提示処理、送受信処理等の各制御を行う。
【0079】
<信号処理手段44における処理内容>
次に、上述した信号処理手段44における具体的な処理内容について説明する。図5は、顔面動作推定装置における信号処理の概要を説明するための図である。図5に示すように、顔面動作推定装置20は、装着者10の顔の側面に設置された電極16から生体電位信号(BES)を取得し、取得した信号に対してフィルタ手段43による信号の平滑化処理(フィルタリング)を行い、信号処理手段44によって処理を行い、その内容を提示手段47で予め設定された手法に基づいて光信号や音信号により提示することになる。
【0080】
図6は、信号処理モジュールの一例を示す図である。図6では、顔の表情を分類するために、顔の側面に設置された複数の電極から生体電位信号(BES)を取得する。その複数の電極から取得される複数の信号(Mixed Signal)から信号処理手段44としての独立成分分析(ICA)を使用して独立成分の分析を行う。
【0081】
なお、独立成分分析を行った後、例えば、図6に示すようにフィルタ手段43を用いてニューロンネットワーク(ANN)における処理が高精度に行われるように入力信号に対して平滑化処理(フィルタリング)を行う。つまり、フィルタ手段43は、独立成分(IC)を分離するために使用される。
【0082】
また、独立成分分析された結果は、適切な時間窓(例えば、約50〜200ms程度)を経て図6に示すように機械学習解析手段45であるANNによって学習され、更に表情や動作の内容(Pattern)や度合いに分類されて出力される。
【0083】
つまり、本実施形態においては、生体電位信号(BES)は、ろ過された顔の側面に複数の電極を使用して得られ、上述した信号処理モジュールによって表情推定が実行される。
【0084】
<独立成分分析の内容について>
次に、上述した独立成分分析(ICA)の内容について説明する。図7は、ICAのブロックダイアグラムの一例を示す図である。図7に示すように、例えば、未知の環境(Unknown environment)で得られる値s(t),s(t),・・・,s(t)については、線形混合変換手段(Linear mixer)Aにより、サンプルデータx(t),x(t),・・・,x(t)が生成され、更に、生成されたサンプルデータXに対応する線形混合逆変換手段(Linear demixer)Wが生成されて独立成分(IC)であるy(t), y(t),・・・, y(t)が生成される。
【0085】
<表情推定における基本データ生成例>
ここで、本実施形態では、上述したように装着者毎に最初に顔面動作推定装置20を装着してもらった後に、所定時間(例えば、2〜4秒程度)で笑顔や怒っている顔等の各種表情やあくび等の動作を意図的に行ってもらい、そのときに得られる各電極16からの生体電位信号を用いて基本データを生成することもできる。
【0086】
図8は、本実施形態における表情推定における基本データの生成例を示す図である。なお、図8では、表情推定の一例として、本実施形態におけるリアルタイムに微笑みを検知する手法について説明する。
【0087】
リアルタイムな微笑み検知は、ICA及び学習されたANNを使用し、且つ、顔面動作推定装置20に表示される機能が実装されている。
【0088】
なお、顔面動作推定装置20は、予め設定された顔の側面の所定領域から生体電位信号として例えば筋電位信号(EMG)をサンプリングし、それらを所定のブロックとして分析する。なお、サンプリングは、例えば、0.5秒毎等に行うのが適切であるが、本発明においては、これに限定されるものではない。
【0089】
また、本実施形態における即時性(リアルタイム)の認識については、それが最初にICAマトリックスの生成及びANNの学習をしておくことで、顔面動作推定装置における推定を装着者毎の表情や動作の違いに関係なく行うことができる。
【0090】
ここで、顔面動作推定装置20に入力されるトレーニング信号は、例えば、所定の表現「中立(ニュートラル)」、「噛む」、「噛んで微笑む」、「微笑む」等を行うことができる。
【0091】
本実施形態では、これらのデータを生成しておくことで、リアルタイムで正確な感情ディスプレイ装置としての顔面動作推定装置20を提供することができる。なお、顔の表現や動作は、上述に限定されるものではなく、例えば「眉をひそめる」や「眉をしかめる」、「怒る」、「あくび」、更に「口腔内の咀嚼運動の認識」等も含めることができ、例えばトレーニングセットの一部を利用することもできる。
【0092】
<実験結果について>
次に、本実施形態を適用した実験結果について説明する。図9〜図11は、本実施形態を適用した実験結果の一例を示す図(その1)〜(その3)である。
【0093】
本実験では、2つの主題上の顔の側面から電極を用いて生体電位信号を取得する。ここで、実験の中で使用される信号のサンプリング周波数は、約1024Hzであるが、本実施形態では約800〜1200Hzであればよい。また、本実験では、合計16秒(4種類の表情があるとして各表情が約4秒)がトレーニング及びANNの両方をテストするために使用される。また、表情推定のためにトレーニングされる表情は、例えば、「中立(ナチュラル)」、「噛む」、「噛み微笑む」、又は「微笑む」とした。
【0094】
まず、図9では、「笑い」表情に対する実験結果を示している。自身のトレーニングデータセット(Training set)、テストデータセット(Test set)(トレーニング時に利用したデータを除いたデータ)を利用した場合の認識率を、例えば被験者1(Subject1)、被験者2(Subject2)のそれぞれに示したものである。本実施形態を提供すれば、表情の認識率を高い水準で取得することができることがわかる。
【0095】
また、図10は、「笑い」「怒り」「中立」の3表情について、上述した図9と同様にトレーニングデータセット、テストデータセットに対する認識結果の合計を示している。これらの3表情についても図9と略同様の結果が得られた。
【0096】
なお、被験者1で学習したデータを被験者2に適用した場合、またその逆の認識率が図9の右側に示した2つのグラフ(S.1 Trained ANN & S.2 Test set、S.2 Trained ANN & S.1 Test set)であり、何れも低い認識率になることを示している。つまり、図9に示すように、表情の認識において、事前に必要な機械学習は、上述した本人が実際に使用する装着型の顔面動作推定装置を用いてキャリブレーションを行うことが必要であり、本実施形態における顔面動作推定装置は、機械学習の容易に行うことができるため利便性もよく、顔の表情認識等には最適なデバイスであるということができる。
【0097】
ここで、本実施形態では、ニューロンネットワーク(ANN)のトレーニング後の推定精度を改善させるため、顔の生体電位信号に対する独立成分分析(ICA)が実装される。
【0098】
まず、ニューロンネットワーク(ANN)に対し、テストデータセットとして4つの生体電位信号を直接与えて、表情を推定すると、正解率はわずか76.52%であった。そこで、本実施形態における成分分析(IC)を用いて表情推定を行った結果、テストセット中のニューロンネットワーク(ANN)によって平均の中で96.95%の高精度な分類結果を得ることができた。
【0099】
更に、生体電位信号である筋電位信号(EMG)の個人毎の性質及び独立成分分析(ICA)を調査するために、別のデータで訓練されたニューロンネットワーク(ANN)に対して上述した実験を行ったが、生体電位信号を分類することはできたが、別のデータにおける表情の分類は非常によくなかった。
【0100】
更に、例えば、「眉をしかめる(Frown)」と「微笑む(Smile)」、及び「そのどちらでもない(Neither)」の間で表情推定する場合にも図10に示すような結果が得られた。
また、本実施形態では、表情の分類のために分離することができた独立成分(独立したコンポーネント)の異なる数に関して、1つのサブジェクトに対して正確な分類の平均比率(%)を取得することができる。
【0101】
ここで、図11に示すように、実験結果によれば、使用される独立成分(IC)の数が増える程、正確なデータが取得できる確率を増加させることができる。つまり、本実施形態によれば、ICの数を増加させることによって、分類の正確さを増加させることができる。なお、図11によれば、1つの場合はICの精度が低く、4つの場合は非常に正確な分類が得られた。したがって、本実施形態では、装着者の顔の側面に快適に付けることができる4つの電極ペアを使用して、高精度に表情推定を行うことができる。
【0102】
また、本実施形態によれば、噛むことにより生じる顎の筋肉によって作成されたノイズ等もあるが、その中で顔の生体信号を、ANNによい入力ベクトルを供給することで、上述したICA手法により正確は結果を得ることができる。
【0103】
また、本実施形態では、筋肉に属する信号を識別する代わりに顔の表情のパターンに基づいた識別のためのANNを使用することで顔の表現分析への新しいアプローチ手法を提供する。
【0104】
更に、表情を推定するために用いられるANNは、入力されるチャンネルの順番やそれらの振幅に関係なく、不確実性に関する独立成分分析(ICA)における弱さを克服することができる。
【0105】
上述したように本発明によれば、顔面の動作を容易に知覚できるようにすることができる。具体的には、本発明は、生体電位信号を使用して、顔の表情や動作、及びその度合いについて独立成分分析やニューラルネットワーク(ANN)を用いて分析することが可能であることが示された。
【0106】
また、微笑み等の表情を形成する筋肉の上に直接電極を配置するのではなく、顔面神経頬筋枝上に配置し、そこから得られる信号からの微笑み等の表情を検知することが可能であることはさらに示された。また、電極は、顔の側面に置かれた少数の電極により達成することができる。
【0107】
また、本発明によれば、顔の表情のパターンに基づいた識別が可能となり、ニューラルネットワークのような適応性のあるメカニズムを用いて表情の推定が高精度に行うことができる。
【0108】
更に、本発明を適用することで、例えば、装着型の笑顔測定器による長時間測定を実現することができ、また、笑顔のトレーニング等、バイオフィードバックへの応用や、笑顔での実演が必要な舞踊等の身体を用いて表現する芸術において、その身体活動をリアルタイムにフィードバック制御を行う技術を提供することができ、スポーツ科学やエクササイズ等、身体運動計測に係る光提示、エンタテイメント等の人支援技術に適用するこができる。
【0109】
更に、表情認識が困難な人への代替提示手段の実現、及び、ダンス・バレエ等身体動作の訓練機器、及びエクササイズ、運動支援への応用、小型且つ形態可能な新しい装着型表情推定装置への応用、筋活動の提示等による福祉機器やリハビリテーション機器としても利用することができる。
【0110】
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
【符号の説明】
【0111】
10 装着者
11 顔輪筋
12 小頬骨筋
13 大頬骨筋
14 笑筋
15 所定領域
16 電極
20,30 顔面動作推定装置
21,31 光提示手段
22,32 音提示手段
41 電極信号入力手段
42 蓄積手段
43 フィルタ手段
44 信号処理手段
45 機械学習解析手段
46 表情推定手段
47 提示手段
48 送受信手段
49 制御手段


【特許請求の範囲】
【請求項1】
顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定装置において、
前記顔の所定領域に対する前記生体電位信号を取得するための複数の電極と、
前記複数の電極から得られるそれぞれの信号を所定の帯域でフィルタリングするフィルタ手段と、
前記フィルタ手段により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理手段と、
前記信号処理手段により得られる信号に対して機械学習により信号解析を行う機械学習解析手段と、
前記機械学習解析手段により得られる解析結果から、顔の表情及び度合いを推定する表情推定手段と、
前記顔の表情及び度合いに対応させて予め設定された提示を行う提示手段とを有することを特徴とする顔面動作推定装置。
【請求項2】
前記顔の所定領域は、
前記装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉に対する生体電位信号が取得できる領域であることを特徴とする請求項1に記載の顔面動作推定装置。
【請求項3】
前記信号処理手段は、
前記複数の電極から得られる複数の生体電位信号の組み合わせから独立成分を抽出することを特徴とする請求項1又は2に記載の顔面動作推定装置。
【請求項4】
前記機械学習解析手段は、
前記複数の電極から得られる少なくとも2つの信号からなる混合信号の入力に対す顔の表情の種類及び度合いを出力とする予め設定されたニューラルネットワークを用いて解析を行うことを特徴とする請求項1乃至3の何れか1項に記載の顔面動作推定装置。
【請求項5】
前記提示手段は、複数の光又は音により提示を行い、
前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする請求項1乃至4の何れか1項に記載の顔面動作推定装置。
【請求項6】
顔の所定領域から得られる生体電位信号に基づいて顔の動作を推定する顔面動作推定方法において、
複数の電極を用いて前記顔の所定領域に対する前記生体電位信号を取得するための信号取得段階と、
前記信号取得段階により得られる前記複数の電極からのそれぞれの信号を所定の帯域でフィルタリングするフィルタ段階と、
前記フィルタ段階により得られる信号に対して予め設定される信号の独立性を仮定することにより分別する信号処理段階と、
前記信号処理段階により得られる信号に対して機械学習により信号解析を行う機械学習解析段階と、
前記機械学習解析段階により得られる解析結果から、顔の表情及び度合いを推定する表情推定段階と、
前記顔の表情及び度合いに対応させて予め設定された提示手段により提示させる提示段階とを有することを特徴とする顔面動作推定方法。
【請求項7】
前記顔の所定領域は、
前記装着者の顔輪筋、小頬骨筋、大頬骨筋、笑筋のうち、少なくとも2つの筋肉に対する生体電位信号が取得できる領域であることを特徴とする請求項6に記載の顔面動作推定方法。
【請求項8】
前記信号処理段階は、
前記複数の電極から得られる複数の生体電位信号の組み合わせから独立成分を抽出することを特徴とする請求項6又は7に記載の顔面動作推定方法。
【請求項9】
前記機械学習解析段階は、
前記複数の電極から得られる少なくとも2つの信号からなる混合信号の入力に対す顔の表情の種類及び度合いを出力とする予め設定されたニューラルネットワークを用いて解析を行うことを特徴とする請求項6乃至8の何れか1項に記載の顔面動作推定方法。
【請求項10】
前記提示段階は、前記提示手段を用いて複数の光又は音により提示を行い、
前記顔の表情及び度合いに応じて前記複数の光又は音を変更して提示することを特徴とする請求項6乃至9の何れか1項に記載の顔面動作推定方法。


【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate