説明

癒し情報出力装置

【課題】人間の五感のうちの何れかを刺激する五感情報を入力し、癒しをもたらす五感情報に加工して出力する癒し情報出力装置を提供する。
【解決手段】人間が癒される情報を出力する癒し情報出力装置は、入力部1と伝達関数部2と情報加工部3とからなる。入力部1は、顔画像情報等の五感情報が入力され、その特徴点に基づき複数のパラメータを生成する。伝達関数部2は、癒されるか否かの心理的判断を行うものであり、予め操作者が癒される五感情報を学習している。そして、情報加工部3は、伝達関数部の結果に基づき、新たに入力される顔画像情報等を、癒しをもたらす顔画像情報等に加工して出力する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は情報出力装置に関し、特に、人間が癒される情報を出力する癒し情報出力装置に関する。
【背景技術】
【0002】
人間の表情を解析する従来の技術としては、例えば、本願発明者による特許文献1に開示の表情診断支援装置がある。この装置は、表情をデジタルカメラで撮影し、表情の左右対称度や、目の緊張度、頬の緊張度、口角の角度等を基に顔画像を解析し、パラノイア度、ノイローゼ度、ソシオパス度、鬱度、ストレス度等を診断するものである。なお、診断するプロセスにおいては、事前に複数の専門家による医学、心理学的知識を基にした診断結果を教師データとして、ニューラルネット技術を用いた学習により診断マトリックスの各要素の値を求めている。
【0003】
また、近来、「癒し」というキーワードが注目されている。しかしながら、「癒し」とはどのようなことを言うのかという点については、感情なのか状態なのかも定かでなく、癒される対象が人間であるが故、個人差や場面の違いによる現象が多いことや、心理的反応を客観的に計測することが極めて困難であることから、長い年月の間解き明かされていない。
【0004】
この「癒し」を解明するための糸口としては、感情としてのアプローチが重要であると考えられる。そして、本願発明者は、感情の表出、コミュニケーションの手段として発達してきたと言われる人間の表情に着目し、心理的反応の評価指標として最も適当だと思われるその表情を解析することで「癒し」を解明できるのではないかと考えた。
【0005】
【特許文献1】特開2006−305260
【発明の開示】
【発明が解決しようとする課題】
【0006】
しかしながら、上述の特許文献1に開示の装置においては、人間の顔画像情報を「癒し」という観点では診断しておらず、人間が癒されるという心理的プロセスの存在・構造・評価を行うものではなかった。また、入力される顔画像情報に対して、それを所定の目的を満たすように加工して出力する点についても何ら検討がなされているものではなかった。このため、これらの従来技術を用いて、人間が癒されるような環境を構築することは行えなかった。
【0007】
本発明は、斯かる実情に鑑み、人間の五感のうちの何れかを刺激する五感情報を入力し、癒しをもたらす五感情報に加工して出力する癒し情報出力装置を提供しようとするものである。
【課題を解決するための手段】
【0008】
上述した本発明の目的を達成するために、本発明による癒し情報出力装置は、人間の五感のうちの何れかを刺激する五感情報が入力され、入力される五感情報の特徴点に基づき複数のパラメータを生成する入力部と、前記入力部により生成される複数のパラメータが入力され、癒されるか否かの心理的判断を行う伝達関数部であって、予め操作者が癒される五感情報を学習した伝達関数部と、癒し情報出力装置に新たに入力される五感情報に対する前記伝達関数部の結果に基づき、前記新たに入力される五感情報を、癒しをもたらす五感情報に加工して出力する情報加工部と、を具備するものである。
【0009】
ここで、入力部は、五感情報として顔を撮像して生成される顔画像情報が入力され、入力される顔画像情報の特徴点に基づき複数のパラメータを生成し、前記情報加工部は、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、前記新たに入力される顔画像情報を、癒しをもたらす顔画像情報に加工して出力するものであれば良い。
【0010】
また、入力部は、入力される顔画像情報の特徴点に基づき、以下の複数のパラメータ、即ち、
1)顔領域に対する右目領域
2)顔領域に対する左目領域
3)顔領域に対する鼻領域
4)顔領域に対する口領域
5)顔領域に対する右眉領域
6)顔領域に対する左眉領域
7)顔横幅に対する目間距離
8)顔縦幅に対する目鼻間距離
9)顔縦幅に対する目口間距離
10)顔縦幅に対する額縦幅
11)顔横幅に対する額横幅
12)顔縦幅に対する左目眉間距離
13)顔縦幅に対する右目眉間距離
14)顔縦幅に対する口縦幅
15)顔横幅に対する口横幅
16)顔縦幅に対する鼻縦幅
17)顔横幅に対する鼻横幅
の何れかを組み合わせて生成するものであれば良い。
【0011】
また、入力部は、入力される顔画像情報に対して、顔、一対の目、及び口の各輪郭を2次の楕円の陰関数で表現した後に特徴点を抽出すれば良い。
【0012】
また、伝達関数部は、ホログラフィックニューラルネットワークモデルを用いるものであれば良い。
【0013】
また、伝達関数部は、ホログラフィックニューラルネットワークモデルとファジー推論を組み合わせて用いても良い。
【0014】
さらに、情報加工部は、新たに入力される顔画像情報に対してウェーブレット変換及び陰関数処理を用いて顔画像情報を再構成するものであっても良い。
【0015】
また、情報加工部は、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、前記新たに入力される顔画像情報を、フェイシャルアクションコーディングシステムを用いて癒しをもたらす顔画像情報に加工して出力することを特徴とする癒し情報出力装置。
【0016】
さらに、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、新たに入力される顔画像情報に対して癒し評価度を出力する出力部を具備するものであっても良い。
【0017】
また、情報加工部は、さらに、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、前記新たに入力される顔画像情報を、癒しをもたらさない顔画像情報に加工して出力しても良い。
【0018】
また、入力部は、五感情報として音を録音して生成される音情報が入力され、入力される音情報の特徴点に基づき複数のパラメータを生成し、前記情報加工部は、癒し情報出力装置に新たに入力される音情報に対する前記伝達関数部の結果に基づき、前記新たに入力される音情報を、癒しをもたらす音情報に加工して出力するものであっても良い。
【0019】
また、入力部は、五感情報として臭いを測定して生成される臭い情報が入力され、入力される臭い情報の特徴点に基づき複数のパラメータを生成し、前記情報加工部は、癒し情報出力装置に新たに入力される臭い情報に対する前記伝達関数部の結果に基づき、前記新たに入力される臭い情報を、癒しをもたらす臭い情報に加工して出力するものであっても良い。
【0020】
さらに、入力部は、五感情報として操作者の環境に基づき生成される環境情報が入力され、入力される環境情報の特徴点に基づき複数のパラメータを生成し、前記情報加工部は、癒し情報出力装置に新たに入力される環境情報に対する前記伝達関数部の結果に基づき、前記新たに入力される環境情報を、癒しをもたらす環境情報に加工して出力するものであっても良い。
【発明の効果】
【0021】
本発明の癒し情報出力装置には、人間の五感のうちの何れかを刺激する五感情報、例えば顔画像情報を、癒しをもたらす顔画像情報に加工して出力することが可能であるという利点がある。また、入力される顔画像情報を基に、癒し評価度を出力可能であるため、表情から癒されているか否かを評価・解析することが可能であるという利点もある。
【発明を実施するための最良の形態】
【0022】
以下、本発明を実施するための最良の形態を図示例と共に説明する。図1は、本発明の癒し情報出力装置のシステムの概略を説明するためのブロック図である。図示の通り、本発明の癒し情報出力装置は、入力部1と伝達関数部2と情報加工部3とからなる。
【0023】
入力部1は、人間の五感のうち何れかを刺激する五感情報が入力され、入力される五感情報の特徴点に基づき複数のパラメータを生成するものである。人間の五感のうち何れかが刺激された場合に人間は癒されると考えられる。入力部1では、この五感を刺激する情報が入力される。以下、五感を刺激する情報として、視覚を刺激する情報、より具体的には、顔画像を用いる場合について説明する。この場合、入力部1は、顔を撮像するための撮像部11と、撮像された顔画像情報の特徴点を抽出し、特徴点からパラメータを生成する演算処理部12とからなる。より具体的には、撮像部11はデジタルカメラであれば良い。また、演算処理部12は、コンピュータ等の電子計算機からなるものであれば良い。演算処理部12では、撮像部11により撮像された顔画像情報を入力とし、特徴点を抽出した上で所定のパラメータを生成する。
【0024】
以下、より具体的にパラメータ生成手法について説明する。図2は、入力された顔画像情報に対する特徴点抽出及びパラメータ生成手法を説明するための図である。図示のように、まず撮像された顔画像情報に対して、1〜63の特徴点を抽出する。特徴点を抽出するにあたり、前処理として画像フィルタリングしても良い。また、必要によりパターン認識等の技術を用いても良い。
【0025】
以下、より具体的に特徴点抽出の手法について説明する。ここで、撮像部11により撮像される顔画像情報はRGBのカラー画像とする。まず、入力画像からRGB値を得る。次に、それを明度情報と色度情報に分離して考えることができるYIQ表色系に変換する。YIQ表色系はY(輝度)、I(オレンジ−シアン)、Q(緑−マゼンダ)の三要素からなるものである。そして、明度の差の大きい部分を抽出する。そのためにはY成分について、画像全体にWavelet変換をレベル2まで行い低周波成分をカットする。その後逆変換をし、Y成分の絶対値をとって正規化(0−255)し、閾値以上の値を抽出する。そして、Y成分の小さい部分、即ち暗色部分を抽出して眉や目の部分に関する特徴点を抽出したり、Q成分の大きい部分を抽出して唇に関する特徴点を抽出したりすることで、図2に示されるような各特徴点を抽出する。
【0026】
このように抽出された特徴点を基に、顔の各構成要素の面積や間隔、角度を、図2に示した数式により計算する。なお、図中、Pは右目領域を、Pは左目領域を、Pは鼻領域を、Pは口領域を、Pは顔領域を、Pは右眉領域を、Pは左眉領域を、Pは顔縦幅を、Pは顔横幅を、P10は額縦幅を、P11は額横幅を、P12は目間距離を、P13は左目眉間距離を、P14は右目眉間距離を、P15は目鼻間距離を、P16は鼻縦幅を、P17は鼻横幅を、P18は目口間距離を、P19は口縦幅を、P20は口横幅を、それぞれ算出する計算式である。
【0027】
そして、このようにして算出された目や鼻、口等の顔の各構成要素の関係を基に、単なる各構成要素の大きさや形だけを用いるのではなく、顔の雰囲気を示す情報とするために、種々の構成要素の割合を取る。これにより、以下に示される複数のパラメータを算出する。
1)顔領域に対する右目領域
2)顔領域に対する左目領域
3)顔領域に対する鼻領域
4)顔領域に対する口領域
5)顔領域に対する右眉領域
6)顔領域に対する左眉領域
7)顔横幅に対する目間距離
8)顔縦幅に対する目鼻間距離
9)顔縦幅に対する目口間距離
10)顔縦幅に対する額縦幅
11)顔横幅に対する額横幅
12)顔縦幅に対する左目眉間距離
13)顔縦幅に対する右目眉間距離
14)顔縦幅に対する口縦幅
15)顔横幅に対する口横幅
16)顔縦幅に対する鼻縦幅
17)顔横幅に対する鼻横幅
これらの各構成要素の相関関係に基づくパラメータをいくつか組み合わせることで、次の伝達関数部2へ入力する複数のパラメータとする。
【0028】
次に、伝達関数部2は、入力部1により生成される複数のパラメータが入力され、癒されるか否かの心理的判断を行うものである。伝達関数部2は、予め操作者(オペレータ)が癒される顔画像情報を教師データを用いて学習しているものとする。伝達関数部2は、例えばニューラルネットワークモデル21をベースとするものである。より具体的には、ニューラルネットワークモデルの中でもホログラフィックニューラルネットワークモデルを用いたものである。ホログラフィックニューラルネットワークモデルは、入出力データを複素平面に写像することにより、入出力関係が線形になることを利用したニューラルネットワークモデルである。ホログラフィックニューラルネットワークモデルではニューロンの数は1個であり、伝達関数を求めることに等しい。このため計算が収束するまでの時間を大幅に短縮することが可能となる。
【0029】
以下、ホログラフィックニューラルネットワークモデルについて説明する。学習にl組のm次元入力ベクトルsとn次元出力ベクトルrとを用いるとする。入出力ベクトルの各要素は、非線形変換関数により、以下のように複素平面上に変換される。
【数1】

【数2】

ここで、iは虚数単位、θhk、φjkは写像関数により変換される位相角度[0,2π]である。λhk、γjkは入出力データが対応する位相角領域に出現する確率[0,1]を示す。
【0030】
以上の数1、数2の操作により、以下の入力行列[S]、教師行列[T]が得られる。
【数3】

【数4】

【0031】
また、出力行列[A]は、伝達関数[X]を用いて以下のように表される。
【数5】

ここで、伝達関数[X]は、数6で表される[A]と[T]との差が最小となるように決定される。
【数6】

ここで、Hは共役転置を表す。
この条件より以下の数式が得られる。
【数7】

【0032】
[S]、[T]は既知であるので、[X]は数7により直接求まる。しかし、Gauss−Jordan消去法でn次の行列の逆行列を求める場合、その演算回数はn回となるので、[S]が高次元になると演算に膨大な時間が必要となる。そこでこれを避けるため、以下の数式で示される反復学習により[X]を求める。
【数8】

【0033】
伝達関数[X]の収束を速くするためには、入力ベクトルを複素平面上に均一に変換することが望ましい。このため、変換関数にはシグモイド関数などが用いられる。ニューラルネットワークモデルの教師データ数が少ない場合には、expansion term数を増やすことにより、ニューロン内部の入力数を増加する。つまり、データ数そのものは不変であるが、入力データ同士の積で新たな入力データを作成する。このようにして作成された入力データは、元のデータとは線形関係を持たない。例えば、ニューロンへの基本的な入力を2とし、2次項を作成すると、次の拡張ができる。
【数9】

以上の操作で、例えば入力の数は2から12に増大する。ここで、12に増大した入力はexpansion termと呼ばれる。なお、ベクトルは重複して定義する必要はない。
【0034】
このようなホログラフィックニューラルネットワークモデルを用いた伝達関数部2に対して、まず操作者が癒される顔画像情報を予め学習させる。学習用の入力画像である教師データとしては、例えば世界各国の複数の有名芸術作品の顔表情を顔画像情報として用いる。これをまず図1に示される入力部1に入力することで、上述の入力部1の説明と同様に、顔画像情報の特徴点を抽出し、複数のパラメータを生成する。そして、入力される顔画像情報に対して癒されるか癒されないか、どちらでもないかという評価を操作者自らが行い、これをホログラフィックニューラルネットワークモデルの出力情報の真値とすることで、伝達関数部2のホログラフィックニューラルネットワークモデルの学習を行う。
【0035】
ホログラフィックニューラルネットワークモデルにおけるこの学習処理により、伝達関数部2は、癒されるか癒されないかの心理的判断を操作者の立場で行うことが可能となる。即ち、教師データ以外に新たに入力される未知の顔画像情報の場合にも、伝達関数部2は操作者が癒されるか否かの心理的判断を行い、その結果を出力することが可能となる。
【0036】
なお、伝達関数部2に入力される複数のパラメータのうち、どのパラメータが操作者の癒されるか否かという心理的判断に大きく影響を及ぼしているかについて、各教師データの顔画像情報及びそのパラメータの変化と、操作者の評価(真値)とを比較解析することで決定する。これにより、例えば顔の中で目の雰囲気を重視する操作者である、というような傾向を見いだすことが可能となる。この場合、例えば上記複数のパラメータのうち、目の雰囲気の影響を受けていると思われるパラメータ1、パラメータ2、パラメータ7等を適宜組み合わせて伝達関数部2に入力するように制御すれば良い。
【0037】
また、上述の説明では、伝達関数部2がホログラフィックニューラルネットワークモデルで構成されるものを中心に説明したが、本発明はこれに限定されず、多次元量のデータでなおかつ線形分離不可能な問題に対して比較的小さい計算量で良好な解を得られることが可能な手法であれば、他の構成であっても構わない。また、ホログラフィックニューラルネットワークモデル単体で用いるものにも限定されず、例えばホログラフィックニューラルネットワークモデルとファジー推論を組み合わせて用いても良い。
【0038】
以下、ホログラフィックニューラルネットワークとファジー推論を組み合わせた場合の伝達関数部について説明する。任意分布f(x)の−∞≦x≦+∞の範囲において、入力変数xのドメインは、L個のカテゴリC(a=1・・・L)に分けられ、新たな分散関数は以下の式により各カテゴリに対して算出される。即ち、上記複数のパラメータの各々に対して、それぞれL個のカテゴリ分けを行う(例えば、大、中、小の3個のカテゴリ)。
【数10】

境界τ,τ,・・・τL−1の正しい選択の後、新たなサブセットC(a=1・・・L)が、以下の条件にしたがって最初の列から得られる。
【数11】

境界は、各カテゴリC(a=1・・・L)がシーケンスxから略同じ値の数を有するように選択される。即ち、例えばカテゴリ数Lが3の場合であって、試験回数が例えば15回であった場合には、各カテゴリに5個ずつ含まれるように境界を選択する。これはファジー推論で用いられる手法である。
【0039】
そして、以下の数12の係数ciaを解くための一次方程式のシステムを構築した。なお、係数ciaは、領域選択の重みを示すものであり、操作者が癒される情報であるか否かという学習結果に相当するものである。
【数12】

なお、メンバシップ関数δia及びμは以下の数13及び数14で表される。
【数13】

【数14】

【0040】
ファジー推論では、係数ciaを固有値解析に持ち込んで求めるが、新たな情報入力に対しては、これを数7で示されるようなホログラフィックニューラルネットワークモデルを用いて求めることで、ホログラフィックニューラルネットワークモデルとファジー推論を組み合わせたハイブリッド型の伝達関数部となる。
【0041】
これにより、ホログラフィックニューラルネットワークの予測精度は、1次統計の場合に55%、2次統計の場合に25%だったのに対して、上述のファジー推論を組み合わせた場合には、60%に向上した。
【0042】
さて、本発明の癒し情報出力装置では、入力部1で入力され特徴点を抽出し、これに基づき上記パラメータ1〜パラメータ17の複数のパラメータを適宜組み合わせて出力し、これを上述のような学習済のニューラルネットワークモデルを用いた伝達関数部2に入力し、癒されるか否かの心理的判断を行う。そして、この伝達関数部の出力は、次に情報加工部3に入力される。
【0043】
情報加工部3は、新たに入力される顔画像情報に対して、学習済の伝達関数部2の判断結果に基づき、顔画像情報を、癒しをもたらす顔画像情報に加工するものである。伝達関数部2により、どのような顔画像情報であれば操作者が癒されるのかというのが判断できるため、新たに入力される顔画像情報の表情をどのように加工したら操作者が癒される表情となるのかも分かる。即ち、操作者が癒される表情として重視しているパラメータを中心に、そのパラメータの値を操作者が癒される表情と判断する値に近づけるための画像の加工処理を行う。
【0044】
以下、情報加工部3の加工手順について説明する。情報加工部3では、伝達関数部2の結果に基づき、顔の表情を変化させる。なお、表情の変化度合いについては、別人となる程度の大幅な加工も勿論可能であるが、通常は人間の筋肉の動きにより変化する表情の範囲内で行われることが好ましい。
【0045】
より具体的に、顔画像情報の加工手法の一例について説明する。まず、入力部1で入力された顔画像情報に対して、画像処理部31で画像処理を行う。画像処理としては、例えば、ウェーブレット変換及び陰関数処理により顔画像情報を再構成する。なお、画像の再構成については、情報加工部3で行われても良いし、入力部1で予め関数表現化等しておいても良い。ここで、ウェーブレット変換及び陰関数処理としては、例えば、本願発明者と同一の発明者による特開2007−19687に開示のCSRBF(Compactly Supported Radial Basis Functions)による画像処理方法等を用いることが可能である。ここで、CSRBFとは、物体像の表面再構成を行なう技術の1つである。これは、ある種のスプライン関数や球関数に基づいた手法であり、処理速度が遅いRBF法に対して基底関数をコンパクトにしたものである。CSRBFを用いて画像を関数表現化する画像処理方法は、例えば多重解像度解析を行ない、各レベルのウェーブレット変換の画素値列及び点群を構築し、最初のレベルでCSRBF近似曲面を生成し、次のレベルにおけるウェーブレット変換の画素値列との誤差を求め、誤差が閾値を超えた場合には超えたところの画素値を用いてCSRBF近似曲面を生成していく。これを繰り返していき、レベル0でのCSRBF近似曲面を生成する。
【0046】
このような処理により、顔画像情報を関数表現化した上で、次にアクションユニット部32で表情の変形を行う。表情の変形を行うにあたっては、アクションユニット部32において、例えばフェイシャルアクションコーディングシステム(FACS)を用いる。フェイシャルアクションコーディングシステムとは、表現記述法であり、アクションユニット(AU)と呼ばれる、解剖学的に独立し且つ視覚的に識別可能な表現動作の最小単位を組み合わせて表情変化を主観的に表現する手法である。アクションユニットは、図3に示されるように、No.1〜66まである(欠番があるので全58個)。このようなアクションユニットを組み合わせることで、顔画像情報を様々な表情に変化させることが可能となる。なお、上述のファジー推論の手法を用いて、アクションユニットや今回の入力(説明変数)に用いた長さや角度による表情の変化に対してもカテゴリ分けを行うことで、表情の変化度合いに幅を持たせたものとすることも可能である。
【0047】
情報加工部3では、上述のように、新たに入力された顔画像情報に対する伝達関数部2の結果に基づき、新たに入力される顔画像情報を、アクションユニット部32でのフェイシャルアクションコーディングシステムを用いて癒しをもたらす顔画像情報に加工する。例えば、伝達関数部2による操作者の心理的判断を基に、操作者に対して癒しをもたらすように、目を細めたり頬を持ち上げたり口角を持ち上げたりする画像処理を施す。そして、このようにして癒しをもたらすように加工された顔画像情報を出力する。出力はモニタ等の画像表示装置に表示しても良いし、プリンタ等で印刷しても良い。
【0048】
ここで、入力部1において、入力される顔画像情報から特徴点を抽出したり、情報加工部3において、画像処理を行ったりする前に行う前処理について説明する。即ち、顔画像情報から、顔の各パーツ等を特定して特徴点を抽出するための処理について、より具体的に説明する。
【0049】
まず、顔、一対の目、及び口の各輪郭に対応するような、4個の楕円からなる顔モデル(テンプレート)を用意しておく。4個の楕円は、一般的な人間の顔や目、口の配置がカバー可能な程度に配置されれば良い。また、楕円は、2次の陰関数で記述されれば良い。具体的には、楕円を以下の陰関数で表す。
【数15】

ここで、A,B,C,D,E,Fは、楕円の2次曲線の係数である。
【0050】
このようなテンプレートを用いて、入力された顔画像情報から顔、一対の目、口の輪郭を抽出する。即ち、楕円内に存在しているはずの顔や目、口の各特徴から、実際に顔画像情報に存在する顔や一対の目、口の輪郭を楕円関数で表現する。楕円による表現は、4個の楕円と各楕円の6個の係数から、全部で24個の係数を求めて行えば良い。係数を求めるのには、例えば遺伝的アルゴリズム等のメタヒューリスティクスな手法や数理的計画法等の最適化手法により、実際に顔画像情報に存在する顔や一対の目、口の輪郭を同定すれば良い。
【0051】
そして、このようにして特定された4つの楕円の配置位置に基づき、他の顔のパーツ、即ち、鼻や眉、額等を顔画像情報から特定する。顔や目、口の配置位置が判明すれば、これらの位置関係に基づき、鼻の位置や眉の位置等はある程度判別可能である。例えば、眉は、パターン認識及びウェーブレットを施して得られる元画像の色別、稜線の識別により特定可能である。また、鼻穴や鼻の輪郭は、元画像の稜線の識別等により特定可能である。
【0052】
このようにして、顔の各パーツを顔画像情報から特定し、必要な特徴点のみを選択的に用い、不要な情報を抽出しないように構成する。これにより、撮影時の影等のノイズによる影響を低減し、撮影条件等に依存することなく、顔画像情報の特徴点の抽出が可能となる。
【0053】
入力部1では、このように選択的に抽出された顔画像情報に対して、特徴点に基づき複数のパラメータを生成すれば良い。
【0054】
また、情報加工部3においては、このように選択的に抽出された顔画像情報に対して、CSRBFやウェーブレット変換等の関数表現化や、癒しをもたらす画像情報への加工等を行えば良い。なお、上述のように、CSRBFやウェーブレット変換等の関数表現化による画像の再構成については、情報加工部3で行われても良いし、入力部1で予め行っておいても良い。さらに、情報加工部3においては、再度元の入力された顔画像情報を用いて、必要な加工を行っても勿論良い。
【0055】
本発明の癒し情報出力装置は、予め操作者が癒される顔画像情報を学習させた上で、未知の新たな顔画像情報を入力すると、操作者にとって癒される表情となるように入力された顔画像情報を加工して出力するものである。なお、これとは逆に、癒しをもたらさない顔画像情報に加工して出力することも可能である。即ち、伝達関数部では、操作者が癒される画像情報が学習されているため、これと正反対の状態とすれば操作者が癒されない顔画像情報に加工することも可能となる。
【0056】
さらに、操作者としての対象は1人には限定されず、複数の操作者に共通して癒される顔画像情報を学習させておくことも可能である。本発明によれば、多数の者に共通して癒される顔画像情報を学習させた上で、新たな顔画像情報を入力して万人が癒されるような顔画像情報に加工することも可能であるため、例えば証明写真の画像情報を入力すれば、万人が癒されるような表情に加工して出力することも可能となる。これにより、例えば履歴書等に貼付する写真の心証が良くなる効果等が得られる。
【0057】
なお、操作者が癒される顔画像情報と、新たに入力された顔画像情報に対する伝達関数部の結果を用いることで、これらの差分を抽出して新たに入力された顔画像情報に対して癒し評価度を出力することも可能である。癒し評価度としては、例えば段階評価として数値を提示しても良いし、各パラメータに対する差異をレーダーチャート等で示しても良い。
【0058】
またさらに、癒し情報出力装置に対して、操作者の顔をリアルタイムに撮像して癒し情報出力装置に入力すると、その操作者が現在癒されているか否かという判断も可能となる。これにより、例えば車両運転中の操作者の表情をリアルタイムで撮像しておき、操作者(ドライバ)が癒されない表情となったという評価も可能となる。したがって、運転中にイライラしだしたドライバに対して、操作者が癒される画像を表示したりリラックスする音楽を流したりすることでイライラを解消し、事故を起こしがちな状況を改善することも可能である。
【0059】
なお、上述の説明では、人間の五感のうちの何れかを刺激する五感情報として、視覚を刺激する顔画像情報について中心に説明したが、本発明の癒し情報出力装置は、これに限定されるものではない。例えば、五感情報として聴覚を刺激する音を適用しても良い。音の場合には、入力部にはマイク等を用いた録音装置が適用され、音を録音して生成される音情報が入力される。そして、入力された音情報の特徴点に基づき複数のパラメータを生成する。特徴点としては、音の強弱や音程、長さ等、種々のものを抽出し、これに基づき所定のパラメータを生成すれば良い。そして、伝達関数部では、入力される音が操作者に癒されるか否か予め学習しておき、新たに入力される音情報に対して伝達関数部で癒しをもたらすか否か心理的判断を行い、情報加工部で癒しをもたらす音情報に加工して出力すれば良い。
【0060】
また、五感を刺激するものであれば良いため、入力される五感情報は臭覚を刺激する臭いであっても良い。臭いの場合であっても、臭い情報について所定の特徴点を決定し、これに基づき所定のパラメータを生成すれば良く、これを予め伝達関数部で学習した上で、新たに入力される臭い情報を伝達関数部で癒しをもたらすか否か心理的判断を行い、情報加工部で癒しをもたらす臭い情報に加工して出力しても良い。
【0061】
さらに、五感のうちの何れかを刺激する五感情報は、何れか1つには限定されず、複数の感覚をトータルで適用することも可能である。例えば、操作者の置かれた環境に基づき生成される環境情報であっても良い。環境情報は、視覚や聴覚以外に、触覚等、複数の感覚に対して操作者が受ける情報である。これらの環境情報に基づき、所定の特徴点、パラメータを上述の例と同様に生成し、伝達関数部で癒しをもたらすか否か心理的判断を行い、情報加工部で癒しをもたらす環境情報に加工して出力しても良い。
【0062】
なお、本発明の癒し情報出力装置は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【図面の簡単な説明】
【0063】
【図1】図1は、本発明の癒し情報出力装置のシステムの概略を説明するためのブロック図である。
【図2】図2は、入力された顔画像情報に対する特徴点抽出及びパラメータ生成手法を説明するための図である。
【図3】図3は、アクションユニットの各ユニット番号とユニット名の対応を示す表である。
【符号の説明】
【0064】
1 入力部
2 伝達関数部
3 情報加工部
11 撮像部
12 演算処理部
21 ニューラルネットワークモデル
31 画像処理部
32 アクションユニット部

【特許請求の範囲】
【請求項1】
人間が癒される情報を出力する癒し情報出力装置であって、該癒し情報出力装置は、
人間の五感のうちの何れかを刺激する五感情報が入力され、入力される五感情報の特徴点に基づき複数のパラメータを生成する入力部と、
前記入力部により生成される複数のパラメータが入力され、癒されるか否かの心理的判断を行う伝達関数部であって、予め操作者が癒される五感情報を学習した伝達関数部と、
癒し情報出力装置に新たに入力される五感情報に対する前記伝達関数部の結果に基づき、前記新たに入力される五感情報を、癒しをもたらす五感情報に加工して出力する情報加工部と、
を具備することを特徴とする癒し情報出力装置。
【請求項2】
請求項1に記載の癒し情報出力装置において、前記入力部は、五感情報として顔を撮像して生成される顔画像情報が入力され、入力される顔画像情報の特徴点に基づき複数のパラメータを生成し、
前記情報加工部は、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、前記新たに入力される顔画像情報を、癒しをもたらす顔画像情報に加工して出力する、
ことを特徴とする癒し情報出力装置。
【請求項3】
請求項2に記載の癒し情報出力装置において、前記入力部は、入力される顔画像情報の特徴点に基づき、以下の複数のパラメータ、即ち、
1)顔領域に対する右目領域
2)顔領域に対する左目領域
3)顔領域に対する鼻領域
4)顔領域に対する口領域
5)顔領域に対する右眉領域
6)顔領域に対する左眉領域
7)顔横幅に対する目間距離
8)顔縦幅に対する目鼻間距離
9)顔縦幅に対する目口間距離
10)顔縦幅に対する額縦幅
11)顔横幅に対する額横幅
12)顔縦幅に対する左目眉間距離
13)顔縦幅に対する右目眉間距離
14)顔縦幅に対する口縦幅
15)顔横幅に対する口横幅
16)顔縦幅に対する鼻縦幅
17)顔横幅に対する鼻横幅
の何れかを組み合わせて生成することを特徴とする癒し情報出力装置。
【請求項4】
請求項2又は請求項3に記載の癒し情報出力装置において、前記入力部は、入力される顔画像情報に対して、顔、一対の目、及び口の各輪郭を2次の楕円の陰関数で表現した後に特徴点を抽出することを特徴とする癒し情報出力装置。
【請求項5】
請求項2乃至請求項4の何れかに記載の癒し情報出力装置において、前記伝達関数部は、ホログラフィックニューラルネットワークモデルを用いることを特徴とする癒し情報出力装置。
【請求項6】
請求項5に記載の癒し情報出力装置において、前記伝達関数部は、ホログラフィックニューラルネットワークモデルとファジー推論を組み合わせて用いることを特徴とする癒し情報出力装置。
【請求項7】
請求項2乃至請求項6の何れかに記載の癒し情報出力装置において、前記情報加工部は、新たに入力される顔画像情報に対してウェーブレット変換及び陰関数処理を用いて顔画像情報を再構成することを特徴とする癒し情報出力装置。
【請求項8】
請求項2乃至請求項7の何れかに記載の癒し情報出力装置において、前記情報加工部は、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、前記新たに入力される顔画像情報を、フェイシャルアクションコーディングシステムを用いて癒しをもたらす顔画像情報に加工して出力することを特徴とする癒し情報出力装置。
【請求項9】
請求項2乃至請求項8の何れかに記載の癒し情報出力装置であって、さらに、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、新たに入力される顔画像情報に対して癒し評価度を出力する出力部を具備することを特徴とする癒し情報出力装置。
【請求項10】
請求項2乃至請求項9の何れかに記載の癒し情報出力装置において、前記情報加工部は、さらに、癒し情報出力装置に新たに入力される顔画像情報に対する前記伝達関数部の結果に基づき、前記新たに入力される顔画像情報を、癒しをもたらさない顔画像情報に加工して出力することを特徴とする癒し情報出力装置。
【請求項11】
請求項1に記載の癒し情報出力装置において、前記入力部は、五感情報として音を録音して生成される音情報が入力され、入力される音情報の特徴点に基づき複数のパラメータを生成し、
前記情報加工部は、癒し情報出力装置に新たに入力される音情報に対する前記伝達関数部の結果に基づき、前記新たに入力される音情報を、癒しをもたらす音情報に加工して出力する、
ことを特徴とする癒し情報出力装置。
【請求項12】
請求項1に記載の癒し情報出力装置において、前記入力部は、五感情報として臭いを測定して生成される臭い情報が入力され、入力される臭い情報の特徴点に基づき複数のパラメータを生成し、
前記情報加工部は、癒し情報出力装置に新たに入力される臭い情報に対する前記伝達関数部の結果に基づき、前記新たに入力される臭い情報を、癒しをもたらす臭い情報に加工して出力する、
ことを特徴とする癒し情報出力装置。
【請求項13】
請求項1に記載の癒し情報出力装置において、前記入力部は、五感情報として操作者の環境に基づき生成される環境情報が入力され、入力される環境情報の特徴点に基づき複数のパラメータを生成し、
前記情報加工部は、癒し情報出力装置に新たに入力される環境情報に対する前記伝達関数部の結果に基づき、前記新たに入力される環境情報を、癒しをもたらす環境情報に加工して出力する、
ことを特徴とする癒し情報出力装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate


【公開番号】特開2009−148535(P2009−148535A)
【公開日】平成21年7月9日(2009.7.9)
【国際特許分類】
【出願番号】特願2008−130599(P2008−130599)
【出願日】平成20年5月19日(2008.5.19)
【出願人】(304021417)国立大学法人東京工業大学 (1,821)