説明

行為支援方法および行為支援装置

【課題】鏡を見ながら行う行為を上手に行うことを可能にする行為支援方法および行為支援装置を提供する。
【解決手段】この行為支援方法および行為支援装置100では、行為提示者Sの動作を表す動画像52と、行為提示者Sの鏡像50を目視している当該行為提示者Sの視点VPの推移を示す視線追跡データ62と、が互いに対応づけられて重畳された提示動画像64を、反転選択情報CMに基づいて正像または左右反転画像で表示出力させる。提示動画像64を正像と左右反転画像とに選択して表示出力することができるため、鏡を見ながら行う行為を上手に行うことを可能にする行為支援方法および行為支援装置100が提供される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザの行為を支援する行為支援方法および行為支援装置に関する。
【背景技術】
【0002】
目的を持った行為を上手に行ってその目的を達成することができるようにするために、手本となる行為を映像で提示することが行われている。手本となる行為の提示方法として、例えば、特許文献1には鍵盤楽器の演奏における運指映像の提示技術が、特許文献2には電子式装置の操作説明映像の提示技術が、それぞれ開示されている。
【0003】
このほか、WEBサイト上でも、例えば、女性が望むヘアスタイルを作る行為を上手に行いたいという要望に対して、美容専門家による実演の様子を動画で提示することなどが行われている。非特許文献1および非特許文献2に関しては実施例にて後述する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開平10−039739号公報
【特許文献2】特開平11−024877号公報
【非特許文献】
【0005】
【非特許文献1】L. Koski, M. Iacoboni, M. C. Dubeau, et al., "Modulation of Cortical Activity During Different Imitative Behaviors" Journal of Neurophysiology 89(2003): pp. 460-471
【非特許文献2】マルコ・イアコボーニ著、ハヤカワ新書「ミラーニューロンの発見」、早川書房出版、2009年5月
【発明の概要】
【発明が解決しようとする課題】
【0006】
各種の美容行為など、鏡を見ながら行う行為においては、正像の動画として提示された手本となる行為を覚えたうえで、実際には鏡に映った自身を対象にしてその行為を再現する必要がある。このとき、正像の動画とは左右反転した鏡像を見ながら行為を行うことになるため、手本通りの行為を再現することが難しい。鏡を見ながら行う行為としては、例えば、髪を染める、髪を整える(ヘアスタイリング)、化粧を施すなどの各種美容行為や、ネクタイを結ぶ、帯を結ぶ等の着付けに係わる行為等が挙げられる。
【0007】
ここで、手本の行為者(行為提示者)の利き手と被支援者(ユーザ)の利き手とが一致している場合と不一致の場合とで、正像と鏡像のいずれに従って行為を再現すればよいかが左右反転する場合がある。しかしながら、行為の種類によっては、たとえば楽器の鍵盤など配列の決められた器具を用いる場合のように左右反転した像を再現することができないものと、美容行為など利き手に応じて左右反転した像を再現することが好ましいものとがある。
【0008】
このように、行為提示者とユーザ自身との利き手の一致または不一致までを考慮して動画を参照した場合には、のちに鏡に映った自身を対象にしてその行為を再現する際に更に混乱をきたすという課題がある。
【0009】
本発明は上述の課題に鑑みてなされたものであり、鏡を見ながら行う行為を上手に行うことを可能にする行為支援方法および行為支援装置を提供するものである。
【課題を解決するための手段】
【0010】
本発明の第1態様に係る行為支援方法は、行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を、反転選択情報に基づいて正像または左右反転画像で表示出力させることを特徴とする。
【0011】
また本発明の第2態様に係る行為支援装置は、行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を記憶する動画像記憶手段と、反転選択情報を受信する受信手段と、受信した前記反転選択情報に基づいて前記提示動画像の正像または左右反転画像を取得する画像取得手段と、取得した前記正像または前記左右反転画像の前記提示動画像を送信する送信手段と、を含む。
【0012】
上記各態様によれば、提示動画像が正像と左右反転画像(鏡像)とに任意に反転して表示される。このため、提示動画像を参照するユーザは、行為の種類と自身の利き手に応じて正像または左右反転画像を選択して提示動画像を表示出力させることができる。そして、かかる提示動画像は、行為提示者による手本となる動画像と、当該行為提示者の視点の推移を示す視線追跡データとが重畳されている。ここで、利き手と視点の推移との相対関係は、正像と左右反転画像とで変化しない。すなわち、提示動画像の正像を左右反転させたとしても、動作中のある瞬間に利き手側または非利き手側のいずれに視線を置いて動作すべきか、という関係性は失われない。したがって、本発明のように行為提示者の視線追跡データを動画像に重畳した提示動画像を用いることにより、その正像または左右反転画像のいずれを参照する場合であってもユーザにとって有効な支援となる。
【0013】
本発明の第3態様に係る行為支援方法は、行為提示者の動作を表す動画像を取得する画像取得工程と、当該動作における行為提示者の手とユーザの手との間の対応関係を示す関係情報を取得する手情報取得工程と、当該関係情報に基づいて行為提示者とユーザとの間で対応付けられる手同士が鏡像位置となるように動画像の正像又は左右反転画像を表示出力させる出力工程と、を含む。
【0014】
本発明の第4態様に係る行為支援装置は、行為提示者の動作を表す動画像を取得する画像取得手段と、当該動作における行為提示者の手とユーザの手との間の関係情報を取得する手情報取得手段と、当該関係情報に基づいて行為提示者とユーザとの間で対応付けられる手同士が鏡像位置となるように動画像の正像又は左右反転画像を表示出力させる出力処理手段と、を備える。
【0015】
なお、本発明の各種の構成要素は、個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。
【発明の効果】
【0016】
上述の第1態様及び第2態様によれば、手本の行為者が鏡像のどこに視点を置いて行為を行っているかを示す視線追跡データが動画像に重畳された提示動画像がユーザに示されることで、手本通りの行為を再現する上で高い効果が得られる。そして、行為の種類と自身の利き手に応じて、かかる提示動画像を正像と左右反転画像とに選択して表示出力することができるため、鏡を見ながら行う行為を上手に行うことを可能にする行為支援方法および行為支援装置が提供される。また、上述の第3態様及び第4態様によれば、鏡を見ながら行う行為のみならずユーザの行為全般を好適に支援する技術を提供することができる。
【図面の簡単な説明】
【0017】
【図1】第1実施形態にかかる行為支援装置の構成図である。
【図2】第1実施形態にかかる行為支援システムのブロック図である。
【図3】動画像と視線追跡データを取得する状態を示す説明図である。
【図4】第1実施形態にかかる行為支援方法のフローチャートである。
【図5】実施例にかかる提示動画像のステップ(1)を示す画像である。
【図6】実施例にかかる提示動画像のステップ(2)を示す画像である。
【図7】実施例にかかる提示動画像のステップ(2)を示す画像である。
【図8】実施例にかかる提示動画像のステップ(3−1)を示す画像である。
【図9】実施例にかかる提示動画像のステップ(3−2)を示す画像である。
【図10】実施例にかかる提示動画像のステップ(3−4)を示す画像である。
【図11】実施例にかかる提示動画像のステップ(3−5)を示す画像である。
【図12】実施例にかかる提示動画像のステップ(3−6)を示す画像である。
【図13】実施例にかかる提示動画像のステップ(3−7)を示す画像である。
【図14】実施例にかかる提示動画像のステップ(3−7)を示す画像である。
【図15】実施例にかかる提示動画像のステップ(4)を示す画像である。
【図16】実施例にかかる提示動画像のステップ(5)を示す画像である。
【図17】実施例にかかる提示動画像のステップ(5)を示す画像である。
【図18】ステップ(3−2)の変形例を示す画像である。
【図19】ステップ(3−6)の変形例を示す画像である。
【図20】第2実施形態における行為支援システムのブロック図である。
【図21】第2実施形態における行為支援方法を示すフローチャートである。
【図22】第2実施形態の変形例としての行為支援システムのブロック図である。
【図23】実験1−1で刺激として用いられた3つの動画像を概念的に示す図である。
【図24】実験1−2で刺激として用いられた2つの動画像を概念的に示す図である。
【図25】実施例2における官能評価結果を示す図である。
【図26A】実験2で刺激として用いられたアイメイクを表す動画像を概念的に示す図である。
【図26B】実験2で刺激として用いられたファンデーション及びヘアカラーを表す動画像を概念的に示す図である。
【図27】実験3−1で刺激として用いられた動画像を概念的に示す図である。
【図28】実験3−2で刺激として用いられた2つの動画像を概念的に示す図である。
【発明を実施するための形態】
【0018】
以下、本発明の各実施形態を図面に基づいてそれぞれ説明する。なお、各実施形態の各種の構成要素は、その機能を実現するように、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、I/F(Interface)ユニット、等の汎用デバイスで構築されたハードウェア、所定の処理動作を実行するように構築された専用の論理回路、またはこれらの組み合わせ等として実現される。
【0019】
また、各実施形態における行為支援方法を説明するにあたり複数の工程が順番に記載される場合があるが、その記載の順番は複数の工程を実行する順番やタイミングを限定するものではない。各実施形態における行為支援方法を実施するときには、その複数の工程の順番は支障のない範囲で変更することができ、また複数の工程の実行タイミングの一部または全部が互いに重複していてもよい。
【0020】
[第1実施形態]
図1は、第1実施形態にかかる行為支援装置100の構成図である。図2は、第1実施形態の行為支援装置100を含む行為支援システム1000のブロック図である。行為支援システム1000は、行為支援装置100、ユーザ端末120およびこれらが接続されたネットワーク110から構成される。
【0021】
はじめに、本実施形態の行為支援装置100の概要について説明する。行為支援装置100は、行為の被提示者であるユーザに対して手本となる提示動画像64を配信するサーバ装置である。
【0022】
本実施形態の行為支援装置100は、動画像記憶部33、受信部78、画像取得部77および送信部79を含む。
動画像記憶部33は、行為提示者Sの動作を表す動画像52と、この行為提示者Sの鏡像50を目視している当該行為提示者Sの視点VPの推移を示す視線追跡データ62と、が互いに対応づけられて重畳された提示動画像64を記憶する手段である。
受信部78は、反転選択情報CMを受信する。画像取得部77は、受信部78が受信した反転選択情報CMに基づいて提示動画像64の正像または左右反転画像を取得する。
そして、送信部79は、画像取得部77が取得した正像または左右反転画像の提示動画像64を送信する。送信部79は、ネットワーク110を介して提示動画像64をユーザ端末120に送信する。
【0023】
次に、本実施形態の行為支援装置100および行為支援システム1000について詳細に説明する。
【0024】
図1に示すように、行為支援装置100は、光束分離部12、撮像部14、視線取得部20および生成部76を含んでいる。また、図3は行為支援装置100を用いて行為提示者Sの動画像52と視線追跡データ62を取得する状態を示す説明図である。
【0025】
光束分離部12は、入射光の一部を透過して他の一部を反射する光学要素であり、本実施形態では半透過鏡(ビームスプリッター)を用いる。光束分離部12の光透過率は特に限定されず、例えば5%以上95%以下とすることができる。また、光束分離部12の光透過率を5%以上50%未満、特に8%以上40%以下として、透過光よりも反射光の強度を強くすることで、行為提示者Sによる鏡像50の自然な目視を妨げることなく、撮像部14による動画像52の撮像を行うことができる。
【0026】
撮像部14は、光束分離部12を透過した行為提示者Sの動画像52を撮像する手段である。図3に示すように、本実施形態の撮像部14は、光束分離部12を介して行為提示者Sの反対側(対向側)に設置されて、行為提示者Sの頭部60を少なくとも含む静止画像または動画像を撮影する。本実施形態では、光束分離部12の法線(面直)方向を光軸方向として設置されて行為提示者Sの静止画像を撮影するデジタルビデオカメラを例示する。このほか、撮像部14にデジタルスチルカメラを用いて、所定の時間間隔で多数枚の静止画像を撮影し、これらを連続的に切り替えて表示してもよい。本明細書では、切り替え表示される静止画像の集合も含めて動画像と称する。
【0027】
撮像部14は、信号線16を介してバス80と電気的に接続されている。撮像部14は、撮像した行為提示者Sの動画像52を、信号線16およびバス80を介して画像蓄積部31に格納する。なお、本実施形態に代えて、可搬性の記憶媒体を用いて動画像52の電子データを撮像部14から画像蓄積部31に移送してもよい。
【0028】
本実施形態の動画像52の一例として、行為提示者Sが、美容行為を実演する美容専門家である場合を例示する。より具体的には、行為提示者Sが自分自身の頭髪を所望のヘアスタイルにセットする動作を動画像52の対象とする。したがって、本実施形態の動画像52は、行為提示者Sの頭部60の少なくとも一部を含む。動画像52には、髪部および顔部のそれぞれ少なくとも一部に加えて、行為提示者Sの上半身や下半身、衣服や装飾品などが含まれていてもよい。また、動画像52における頭部位置情報とは、動画像52に含まれる頭部60の位置を示す情報である。本実施形態では、動画像52における、頭部60のうち両眼の瞳の中央位置などの特徴点が存在する位置をもって、動画像52における頭部位置情報を規定することができる。正確に頭部位置情報を規定する観点から、特徴点は2箇所以上あることが好ましい。
【0029】
視線取得部20は、光束分離部12で反射された行為提示者Sの鏡像50を目視する当該行為提示者Sの視点VPの推移を示す視線追跡データ62を取得する眼検知装置(アイカメラ)である。一例として、Tobii社製の注視点追跡システム(アイトラッカー)を用いることができる。
【0030】
図3に示すように、視線取得部20は、光束分離部12に正対する行為提示者Sに対向して、かつ光束分離部12に映り込む自身の鏡像50を目視する行為提示者Sの視野範囲外に配置されている。これにより、鏡像50を目視する行為提示者Sの視線を視線取得部20が遮ることはない。視線取得部20は、行為提示者Sの頭部60に向かって赤外線などの光ビーム24を照射するとともに、その反射光を受光する。視線取得部20は、受光光を画像化し、画素のコントラストに基づいて行為提示者Sの瞳孔位置を算出することで、行為提示者Sの目の位置を検出してその視点位置(視線方向)を数値データまたは画像データとして取得する。
本実施形態の視線取得部20は、赤外線ダイオードを用いて行為提示者Sに赤外線波長域の光ビーム24を照射する。光ビーム24の強度は、行為提示者Sによる鏡像50の自然な目視を妨げない程度に抑制されている。
【0031】
なお、図1および図3において、視線取得部20は光束分離部12の前面下部に配置されているが、本発明はこれに限られない。行為提示者Sの頭部60に向かって赤外線などの光ビーム24を照射でき、その反射光を受光できる位置であるかぎり、視線取得部20は別の位置に配置されてもよい。視線取得部20は、その発光部(図示せず)から行為提示者Sの頭部60に向かって直接に光ビーム24を照射してもよく、または光束分離部12もしくは他の鏡面で光ビーム24を一回以上反射させた反射光を行為提示者Sの頭部60に照射してもよい。また、行為提示者Sは、自らの姿をよく見ようとする際に、光束分離部12(半透過鏡)に近づきがちとなる。一方、視線取得部20の性能上、行為提示者Sとの距離を適正範囲に保つ必要がある(一例として、上記のアイトラッカーの場合には45〜75cm)。かかる場合には、視線取得部20を図3に示す位置よりさらに下げるか、筐体10の下に配置すればよい。また、行為提示者Sが自らの姿の全身を見ようとする際には、光束分離部12(半透過鏡)から遠ざかる必要が生じる場合がある。かかる場合には、視線取得部20と、行為提示者Sとの距離を適正範囲に保つ為に、視線取得部20を光束分離部12前方に配置してもよい。
【0032】
筐体10の形状は特に限定されないが、本実施形態では直方体形状をなし、光束分離部12を除く各面は遮光されている。撮像部14は筐体10の内部に収容され、視線取得部20は光束分離部12の前面(被験者側の面)に設置されている。
このように、遮光性の筐体10の内部に撮像部14を収容することで、光束分離部12を行為提示者Sが目視した際に、筐体10の内部(撮像部14)を行為提示者Sは見ることができない。これにより、撮像部14は、光束分離部12に映る鏡像50を目視する行為提示者Sの視線LOSを遮ることなく、行為提示者Sの頭部60に正対して静止画像(動画像52)を撮像することができる。
【0033】
本実施形態では、図3に示すように、行為提示者Sは、光束分離部12の反射面Cに対して距離Lで正対している。行為提示者Sは、光束分離部12に映る鏡像50が、光束分離部12から奥行方向に距離Lの位置に存在するものと認識する。したがって、鏡像50を目視する行為提示者Sの目の焦点距離は2Lとなる。
そして、視線取得部20は、光束分離部12に鏡像50として映る自身を目視しながらヘアスタイルをセットする行為提示者Sの視線LOSを、視線追跡データ62として取得する。行為提示者Sの視線LOSは、鏡像50の頭部60の一部または全部に対して連続的に向けられる。
【0034】
視線取得部20が取得する具体的な視線追跡データ62の形式は特に限定されるものではない。たとえば、鏡像50に対する行為提示者Sの視点VPの時系列データのほか、鏡像50に対してどの位置に行為提示者Sの視線LOSが集中したかを示す、視点VPの頻度データを取得してもよい。視点VPの頻度データは、たとえば、鏡像50を複数の領域に分割して、各領域を視線LOSが通過した回数をカウントして求めることができる。
【0035】
本実施形態の視線取得部20は、光ビーム24の照射および受光と、画像処理による視線追跡データ62の取得を所定時間に亘って連続的におこなう。そして、視線取得部20は、視線追跡データ62として、鏡像50に対する行為提示者Sの視点VPの推移を示す時刻歴データを取得する。視線取得部20とバス80とは信号線22によって電気的に接続されており、視線取得部20で取得した視線追跡データ62は視線データ蓄積部32に保存される。このように、行為提示者Sの目線を視線取得部20で追跡して視線追跡データ62を時刻歴データとして取得することで、行為提示者Sの視線LOSの初期位置データや、視点VPの頻度データなど、多様なデータを取得することができる。
【0036】
本実施形態の視線追跡データ62は、視点VPの座標情報と時刻情報とを含む時系列データであり、また動画像52と重畳して表示可能な画像データである。視線追跡データ62は、視点VPを経時的に線分で結ぶことで視点VPの軌跡を示す、折れ線状、または曲線状のプロット図をなしている。より具体的には、図1に示すように、本実施形態の視線追跡データ62は、視線が停止した位置を示す円形などのスポット部と、経時的に連続する二つのスポット部どうしを結ぶ細線部とからなる。
【0037】
記憶部30(画像蓄積部31、視線データ蓄積部32)に記憶された動画像52と視線追跡データ62とは、生成部76(図2を参照)により互いに対応づけられる。生成部76は、CPU70の情報処理によって実現される。
【0038】
生成部76は、動画像52における行為提示者Sの動作と、視線追跡データ62が示す視点VPの推移と、の位置およびタイミングを対応づけて提示動画像64を生成する動画像生成手段である。
【0039】
本実施形態の撮像部14は、光束分離部12を真っ直ぐ通過した行為提示者Sの正像を動画像52として撮像する。これにより、行為提示者Sの動画像52を正確に撮像することができる。しかしながら、光束分離部12に映る行為提示者Sの鏡像50と、撮像部14が撮像した動画像52とは左右が反転することとなる。このため、本実施形態の生成部76は、動画像52を左右反転させて鏡像50としたうえで、視線追跡データ62の視点VPと位置合わせする。なお、本実施形態に代えて、撮像部14で行為提示者Sの鏡像の動画を撮影してもよい。この場合、光束分離部12に代えて通常の鏡を使用し、当該鏡に映る行為提示者Sの鏡像50を、行為提示者Sの後方に設置した撮像部14で撮影してもよい。
【0040】
ここで、視線追跡データ62は、行為提示者Sの視点VPと視線取得部20との相対位置として視線データ蓄積部32に記憶されている。視線取得部20は光束分離部12に対して既知の位置に固定配置されている。また、撮像部14もまた光束分離部12に対して既知の位置に固定配置されている。このため、視線追跡データ62に含まれる視点VPの座標位置を示す視点位置情報を生成部76で演算処理することで、視点VPを、撮像部14で撮像される行為提示者Sの動画像52に対して位置合わせすることができる。また、動画像52と視線追跡データ62は、ともに時刻情報を含んでいる。したがって、動画像52と視線追跡データ62の基準時刻を一致させた状態で位置合わせをすることにより、動画像52における行為提示者Sの動作の流れと、行為提示者Sの各瞬間の視点VPの位置とが対応づけられる。
【0041】
本実施形態の生成部76は、動画像52と視線追跡データ62とを重畳して提示動画像64を生成する。ここで、動画像52と視線追跡データ62とが重畳されているとは、動画像52と視線追跡データ62とが一の電子ファイルとして画像合成されている状態のほか、動画像52と視線追跡データ62とが異なる電子ファイルとしてユーザ端末120に提供されて表示出力部128(図2を参照)で同時に目視可能に表示される状態を含む。表示出力部128は、動画像52に位置合わせされた視線追跡データ62を、動画像52に重畳して出力する表示装置である。具体的には、液晶表示装置などのディスプレイ装置を表示出力部128として用いることができる。
【0042】
画像取得部77は、ユーザ端末120の入力部122を操作して選択した提示動画像64を動画像記憶部33から取得して、送信部79を通じてユーザ端末120の送受信部126に配信する手段である。
【0043】
ここで、動画像記憶部33に記憶されるオリジナルの提示動画像64は、鏡像50と同じ左右反転画像であって、かつ視線追跡データ62が画像合成されたものである。よって、かかる視線追跡データ62をそのまま表示出力部128に表示出力する場合、行為提示者Sの鏡像50に対して、行為提示者Sの視線追跡データ62を重畳された動画像がユーザに目視されることとなる。これに対し、本実施形態の画像取得部77は、ユーザの利き手を考慮して、行為提示者Sの利き手がユーザの利き手の鏡像位置となるように提示動画像64を適宜左右反転して表示出力部128に配信する。
【0044】
反転選択情報CMに基づいて提示動画像64を左右反転するか否かを判断するための具体的な手法は特に限定されない。本発明では大別して、(方法1)ユーザによる反転指示の入力を反転選択情報CMとして受信し、その内容に基づいて提示動画像64を反転させて(すなわち正像として)配信する方法と、(方法2)ユーザの利き手を示す情報(利き手情報IUH)を反転選択情報CMとして受信し、その内容に基づいて画像取得部77がユーザと行為提示者Sとの利き手の一致または不一致を判定したうえで提示動画像64を必要に応じて反転させて配信する方法と、を例示する。
【0045】
図1および図2に示すように、行為支援装置100は提示動画像64を記憶する動画像記憶部33を備えている。動画像記憶部33は、提示動画像64と行為提示者Sの利き手を示す提示者情報とを対応づけて記憶する。すなわち、動画像記憶部33は、多数の提示動画像64を、当該提示動画像64にかかる行為提示者Sの利き手を示す提示者情報(提示者利き手情報IPH)と対応づけて記憶している。提示者情報は、提示者利き手情報IPHのほか、当該行為提示者Sを固有に識別する氏名または識別番号を含んでもよい。これにより、ユーザは希望する行為提示者Sの提示動画像64を動画像記憶部33より検索することができる。
【0046】
(方法1)
本方法は、行為提示者Sの動作を表す動画像52と、行為提示者Sの鏡像50を目視している当該行為提示者Sの視点VPの推移を示す視線追跡データ62と、が互いに対応づけられて重畳された提示動画像64を、反転選択情報CMに基づいて正像または左右反転画像で表示出力させる行為支援方法である。
【0047】
反転選択情報CMは、ユーザ端末120の入力部122を用いてユーザが入力するコマンドであり、表示出力部128で表示出力される提示動画像64の向きを左右反転させることを示す情報である。
【0048】
ユーザは、WEBブラウザなどのアプリケーションソフトを通じて行為支援装置100にアクセスし、配信を希望する提示動画像64を選択する。かかる選択命令は受信部78を通じて画像取得部77に送信される。画像取得部77は動画像記憶部33を参照して、ユーザに選択された提示動画像64のオリジナルデータを呼び出し、送信部79を通じてこれをユーザ端末120の送受信部126に向けてストリーミング配信する。ユーザは、配信された提示動画像64を表示出力部128で表示出力させる。
【0049】
このとき、画像取得部77は、提示動画像64と対応づけられて動画像記憶部33に記憶された提示者利き手情報IPHをユーザ端末120に送信する。提示者利き手情報IPHを如何なる態様でユーザ端末120に送信するかは任意である。一例として、メッセージ(たとえば、「行為提示者の利き手は右手(左手)です」など)を表示出力部128に出力してもよく、または提示動画像64における行為提示者Sの利き手をハイライト表示するなど、提示動画像64の電子ファイル自体に提示者利き手情報IPHを含めて配信してもよい。
【0050】
表示出力部128で表示出力されている提示動画像64を目視するユーザは、提示者利き手情報IPHが示す行為提示者Sの利き手(たとえば右手)がユーザの利き手(たとえば左手)と一致していない場合、すなわち鏡像として配信されるオリジナルの提示動画像64における行為提示者Sの利き手がユーザの利き手に対して交差位置にあると判断した場合には、入力部122を操作して反転選択情報CMを入力することができる。
【0051】
ネットワーク110を通じて受信部78が反転選択情報CMを受信すると、画像取得部77は提示動画像64の表示出力の向きを左右反転させたうえで、送信部79を通じて送受信部126にストリーミング配信を継続する。これにより、表示出力部128が汎用のWEBブラウザであっても、提示動画像64を任意で左右反転させてユーザ端末120で表示出力することができる。
【0052】
(方法2)
本方法は、行為支援装置100が、反転選択情報CMとして利き手情報IUHを取得して、動画像記憶部33に記憶された提示者利き手情報IPHとの一致または不一致を画像取得部77が判定する方法である。図4は、第1実施形態にかかる行為支援方法のフローチャートである。
【0053】
まず、行為支援装置100の受信部78は、ユーザのアカウント(識別子)とともに、ユーザが希望する提示動画像64の選択命令を受け付ける。このとき、画像取得部77はユーザの利き手を示す利き手情報IUHを取得する(ステップS10)。
【0054】
ここで、画像取得部77が利き手情報IUHを取得する方法は種々をとりうる。具体的には、(方法2−1)利き手情報IUHの入力をユーザに求める方法、(方法2−2)ユーザの利き手との関連性の高い情報を利き手情報IUHとして受け付ける方法、および(方法2−3)行為支援装置100のユーザ情報記憶部35に利き手情報IUHを予め記憶しておく方法、を例示することができる。
【0055】
方法2−1および方法2−2では、受信部78は、ユーザの利き手を示す利き手情報IUHを反転選択情報CMとして受信する。画像取得部77は、動画像記憶部33を参照し、受信した利き手情報IUHに基づいて行為提示者Sの利き手がユーザの利き手の鏡像位置となる正像または左右反転画像を取得する。
【0056】
より具体的には、方法2−1では、ユーザ自身が入力部122を操作して利き手(右手または左手)を示す利き手情報IUHを入力し、行為支援装置100の受信部78がこれを受信する。
【0057】
方法2−2では、たとえば、マウスなどの補助入力装置に関する設定データを、受信部78は利き手情報IUHとして受信する。すなわち、ユーザ端末120の入力部122として補助入力装置が用いられている場合、ユーザ端末120にはその設定データが保持されている。行為支援装置100の画像取得部77は、ユーザ端末120の制御部124に対して、補助入力装置の設定に関するリクエストを送信する。制御部124は設定データを参照して、補助入力装置に関するユーザの利き手の設定が左手になっているか否かを示す情報を受信部78に送信する。これにより、画像取得部77は、ユーザの利き手情報IUHを取得することができる。
このほか、画像取得部77は、ユーザの利き手に関連する選択式の質問メッセージを表示出力部128に表示出力してもよい。本実施形態の場合、たとえば、「ドライヤーやアイロンカーラーをどちらの手で持ちますか」など美容行為に関連する設問が好ましい。かかる設問に対してユーザが入力部122を通じて回答すると、この回答メッセージが利き手情報IUHとして受信部78に送信される。これにより、画像取得部77は、ユーザの利き手情報IUHを取得することができる。
【0058】
画像取得部77は利き手情報IUHを受信すると、これと同時または相前後するタイミングで、動画像記憶部33を参照して提示者利き手情報IPHを取得する(ステップS20)。そして、画像取得部77は、これらの利き手どうしの一致または不一致を判定することにより、オリジナルの提示動画像64を左右反転させて表示させるか否かを示す反転選択情報CMを取得する(ステップS30)。
【0059】
さらに、画像取得部77は、これらの利き手どうしが鏡像位置となるよう提示動画像64を必要に応じて反転させて、オリジナルの提示動画像64に関する正像または左右反転画像を取得する(ステップS40)。画像取得部77は、送信部79およびネットワーク110を通じて、かかる正像または左右反転画像をユーザ端末120の送受信部126にストリーミング配信する(ステップS50)。
【0060】
本実施形態にいうオリジナルの提示動画像64に関する正像とは、行為提示者Sの動画像52に対する鏡像50を意味している。そして、オリジナルの提示動画像64に関する左右反転画像とは、行為提示者Sの動画像52に対する正像を意味している。すなわち、ユーザがたとえば左利きの場合には、右利きの行為提示者Sの正像、または左利きの行為提示者Sの鏡像が表示出力部128に表示出力される。これにより、ユーザと行為提示者Sとの利き手の一致・不一致によらず、ユーザ自身の鏡像と利き手が一致した提示動画像64が表示出力されることとなる。
【0061】
また、オリジナルの提示動画像64に関する正像または左右反転画像を画像取得部77が取得するとは、提示動画像64と異なる動画像の電子ファイルを新たに作成する場合のほか、オリジナルの提示動画像64の座標を左右反転させて送受信部126にストリーミング配信することを含む。
【0062】
方法2−3を行う場合、行為支援装置100は、ユーザの利き手を示す利き手情報IUHを含むユーザ情報を、当該ユーザを識別する識別子と対応づけて記憶するユーザ情報記憶部35を備えていることが好ましい。この方法もまた、ユーザの利き手を示す利き手情報IUHが反転選択情報CMにあたる。そして、受信部78は、ネットワーク110を通じてユーザ(ユーザ端末120)から識別子を受信し(ステップS10)、画像取得部77は、ユーザ情報記憶部35および動画像記憶部33を参照して、行為提示者Sの利き手とユーザの利き手との一致または不一致を判定して反転選択情報CMを取得する。さらに、画像取得部77は、これらの利き手どうしが鏡像位置となるよう提示動画像64を必要に応じて反転させて、オリジナルの提示動画像64に関する正像または左右反転画像を取得し(ステップS40)、これをストリーミング配信する(ステップS50)。
【0063】
以上説明したように、本実施形態の行為支援装置100でユーザに提示される提示動画像64は行為提示者Sの視線追跡データ62が重畳された動画像であるため、行為提示者Sが動作中にどのように視点を推移させているかが目視的に観察される。かかる提示動画像64がユーザの鏡像に一致する向きで表示されるため、ユーザが鏡を見ながら当該動作を実践する際に、視点VPを利き手に対してどちらに遷移させればよいかを容易に理解することが可能である。
【0064】
そして、本実施形態の行為支援装置100は、ユーザの利き手を示す利き手情報IUHを反転選択情報CMとして取得し(ステップS10)、行為提示者Sの利き手がユーザの利き手の鏡像位置となるよう正像または左右反転画像を選択して提示動画像64をユーザ端末120に表示出力させる。
【0065】
これにより、ユーザは、行為提示者Sの利き手を対角線上ではなく自分の利き手の正面に捉えて提示動画像64を目視することができる。このため、行為提示者Sの動作が単純な直線的な動きのみならず、頭髪を巻き付けるような回転動作を伴う場合でも、ユーザは適切な動作の方向を直観的に把握することができる。これは、ヘアスタイルのセットに例示される美容行為は一般に鏡を見ながら行われるため、美容行為の動作を鏡像で目視することにユーザが慣れ親しんでいることが理由の一つである。他の理由として、「鏡式の模倣をしているときのミラーニューロンは、解剖学的に正しい(正像の)模倣をしているときに比べ四倍も活性化する」という知見(非特許文献1および非特許文献2を参照)に基づき、行為提示者Sの正像ではなく鏡像をユーザに模倣させることによりユーザの行為が好適に支援されることが挙げられる。すなわち、ユーザが美容専門家でない場合でも、自分(ユーザ)の鏡像と行為提示者Sの利き手の向きが一致した提示動画像64を目視することで、ミラーニューロンの特性が活用されて動作の模倣が容易となる。
【0066】
[第2実施形態]
したがって、上記第1実施形態に代えて、視線追跡データ62が重畳されていない動画像52の正像又は左右反転画像を表示出力する形態においても、これを目視するユーザのミラーニューロンの特性が活用されて行為提示者Sの動作を模倣することが容易となる。以下、視線追跡データ62が重畳されていない動画像52を表示出力する形態を第2実施形態として説明する。以下、第2実施形態について、第1実施形態と異なる内容を中心に説明し、第1実施形態と同様の内容については適宜省略する。
【0067】
第2実施形態にかかる行為支援装置100では、図1に示される第1実施形態における視線追跡データ62を得るための構成は省かれてもよい。第2実施形態にかかる行為支援装置100は、いわゆるコンピュータであればよく、例えば、バス80で相互に接続される、CPU70、メモリ、入出力インタフェース(I/F)72等を有していればよい。入出力I/F72は、入力部、出力部、ネットワーク(図示せず)を介して他のコンピュータと通信を行う通信装置等と接続される。入力部は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。出力部は、ディスプレイ装置やプリンタ等のようなユーザに情報を提供する装置である。
【0068】
図20は、第2実施形態における行為支援装置100を含む行為支援システム1000のブロック図である。第2実施形態における行為支援装置100では、第1実施形態の構成のうち、視線取得部20、画像蓄積部31、視線データ蓄積部32、生成部76が省かれている。また、第2実施形態では、画像取得部77が、手情報取得部91と出力処理部92とを有することが明記された。なお、図20は、第2実施形態にかかる行為支援装置100が、動画像52を自身で生成するために、動画像52を生成するための構成(光束分離部12及び撮像部14)を有する例を示すが、動画像52が外部から取得される場合には、動画像52を生成するための当該構成は省かれてもよい。なお、第2実施形態における行為支援装置100のハードウェア構成は制限されない。
【0069】
動画像記憶部33は、視線追跡データ62が重畳されていない行為提示者の動作を表す動画像52を格納する。行為支援装置100が撮像部14を有していない場合には、動画像記憶部33には、可搬型記録媒体、他のコンピュータ等から入出力I/F72を経由して取得された動画像52が格納される。
【0070】
画像取得部77は、動画像記憶部33から、視線追跡データ62が重畳されていない行為提示者の動作を表す動画像52を取得する。取得されるべき動画像52は、ユーザ端末120の入力部122が操作されて選択されてもよい。
【0071】
手情報取得部91は、動画像52の当該動作における行為提示者の手とユーザの手との間の対応関係を示す関係情報を取得する。例えば、当該関係情報は、行為提示者の右手とユーザの右手との対応関係を示す。当該関係情報は、行為提示者の利き手とユーザの利き手とを示す情報であってもよい。ここで、ユーザの利き手を示す情報には、第1実施形態で説明されたように、マウスなどの補助入力装置に関する設定データが利用されるようにしてもよい。また、当該関係情報は、動画像52に写る当該動作で1つの器具が用いられている場合には、その器具を扱う行為提示者の手(右手又は左手)と、ユーザがその器具を扱うことを望む方の手(右手又は左手)とを示す情報であってもよい。当該動作で2つの器具が用いられている場合には、当該関係情報は、各器具について、その器具を扱う行為提示者の手とユーザの手との関係をそれぞれ示す情報であってもよい。なお、本実施形態では、当該器具の種類を何ら制限しない。
【0072】
手情報取得部91は、ユーザ端末120の入力部122の操作により入力された当該関係情報を取得する。この場合、画像取得部77は、関係情報をユーザに入力させるための画面データをユーザ端末120に送るようにしてもよい。より具体的には、画像取得部77は、利用される器具毎に、その器具を扱いたい手(右手か左手)を入力可能な画面データをユーザ端末120に送るようにしてもよい。また、手情報取得部91は、ユーザの利き手情報をユーザ端末120の入力部122の操作により取得し、更に、行為提示者の利き手情報を動画像記憶部33から動画像52と共に取得するようにしてもよい。この場合、動画像記憶部33は、各動画像52について行為提示者の利き手情報をそれぞれ対応付けて格納する。
【0073】
出力処理部92は、手情報取得部91により取得された関係情報に基づいて、行為提示者とユーザとの間で対応付けられる手同士が鏡像位置となるように、画像取得部77により取得された動画像52の正像又は左右反転画像を表示出力させる。表示出力先は、ユーザ端末120の表示出力部128であってもよいし、行為支援装置100の表示出力部であってもよい。
【0074】
具体的には、関係情報により行為提示者の右手とユーザの右手とが対応付けられる場合、出力処理部92は、行為提示者の右手がユーザの右手の鏡像位置となるように動画像52の正像又は左右反転画像を表示出力させる。また、関係情報として、行為提示者の利き手が右手であり、ユーザの利き手が左手であることを示す情報を取得した場合には、出力処理部92は、行為提示者の右手(利き手)がユーザの左手(利き手)の鏡像位置となるように動画像52の正像又は左右反転画像を表示出力させる。また、動画像52において行為提示者が右手で化粧具を扱っており、ユーザがその化粧具を右手で扱いたいと望んでいることを示す関係情報を取得した場合には、出力処理部92は、行為提示者の右手がユーザの右手の鏡像位置となるように動画像52の正像又は左右反転画像を表示出力させる。
【0075】
動画像52内の行為提示者の右手及び左手の認識は、例えば、動画像記憶部33から動画像52と共に取得される行為提示者情報により行われる。例えば、行為提示者情報では、動画像52の左右両端と、行為提示者の左右の手との関係が示される。よって、例えば、当該行為提示者情報が、動画像52の左端が行為提示者の右手側であり、動画像52の右端が行為提示者の左手側であることを示す場合で、関係情報により行為提示者の右手とユーザの右手とが対応付けられる場合には、出力処理部92は、動画像52の左右反転画像を表示出力させる。
【0076】
ユーザ情報記憶部35は、各ユーザについて、上記関係情報とユーザ識別子とを対応付けてそれぞれ格納する。ユーザ情報記憶部35は、手情報取得部91により外部から取得された当該関係情報を逐次蓄積するようにしてもよい。これにより、手情報取得部91は、ユーザ識別子を取得し、この取得されたユーザ識別子に対応する関係情報をユーザ情報記憶部35から抽出するようにしてもよい。このようにすれば、同じ動画像52を視聴したい場合、ユーザは、一度、関係情報を入力すれば、次回以降、当該関係情報の入力操作をしないで済む。
【0077】
図21は、第2実施形態における行為支援方法を示すフローチャートである。
まず、行為支援装置100は、ユーザが希望する動画像52の選択命令を受け付ける(S211)。
【0078】
続いて、行為支援装置100は、その選択命令で指定された動画像52及びその動画像52に関する行為提示者情報を動画像記憶部33から取得する(S212)。
【0079】
更に、行為支援装置100は、動画像52に写る動作における行為提示者の手とユーザの手との間の対応関係を示す関係情報を取得する(S213)。この関係情報は、例えば、ユーザ端末120の入力部122の操作により入力される。また、関係情報は、ユーザ情報記憶部35から取得されてもよい。この場合、行為支援装置100は、上記選択命令と共に、ユーザ識別子を受け付けるようにすればよい。
【0080】
行為支援装置100は、行為提示者情報と関係情報とを参照して、動画像52の正像又は左右反転画像を表示出力させる(S214)。
【0081】
このように、第2実施形態によれば、視線追跡データ62は重畳されないものの、ユーザは、自身の各手と対応付けられる行為提示者の各手を対角線上ではなく、自身の各手の正面に捉えて動画像52を目視することができる。このため、ユーザは、動画像52に写る行為提示者の動作を見ることにより、適切な動作の方向を直観的に把握することができる。これは、上述したとおり、美容行為の動作を鏡像で目視することにユーザが慣れ親しんでいること、ミラーニューロンの特性が活用されること等を理由とする。従って、第2実施形態によれば、ユーザの行為を好適に支援することができる。
【0082】
更に、第2実施形態によれば、視線追跡データ62が動画像52に重畳されていないことで、行為提示者Sの動作全体に対する視認性も良好となる。
【0083】
[第2実施形態の変形例]
上述の第2実施形態では、動画像52とそれに写る行為提示者の手との関係が動画像52と共に動画像記憶部33に格納される行為提示者情報により取得される例が示されたが、当該行為提示者情報は、動画像52を画像解析することにより自動で取得されるようにしてもよい。
【0084】
図22は、第2実施形態の変形例としての行為支援装置100を含む行為支援システム1000のブロック図である。本変形例では、行為支援装置100の画像取得部77が方向判定部95を更に含むことが明記される。
【0085】
方向判定部95は、動画像52における行為提示者の撮像方向を判定する。言い換えれば、方向判定部95は、動画像52が、行為提示者をどの方向から撮像することで生成されたものであるかを判定する。この判定では、方向判定部95は、例えば、動画像52に写る行為提示者の目の検出を試行し、検出に成功した場合、前方からの撮像であると判定し、検出に失敗した場合、後方からの撮像であると判定する。動画像における目の検出方法については、以下の参考文献に開示される方法が利用されればよいため、ここでは説明を省略する。
参考文献:特開2010−15463号公報
【0086】
方向判定部95により判定された撮像方向によれば、その動画像52とそれに写る行為提示者の手との関係を自動で認識することができる。例えば、前方からの撮像と判定された動画像52においては、行為提示者の右手は、動画像52に向かって左側に位置し、行為提示者の左手は、動画像52に向かって右側に位置する。逆に、後方からの撮像と判定された動画像52においては、行為提示者の右手は、動画像52に向かって右側に位置し、行為提示者の左手は、動画像52に向かって左側に位置する。これにより、出力処理部92は、手情報取得部91により取得された関係情報と方向判定部95により判定された撮像方向とに基づいて、行為提示者とユーザとの間で対応付けられる手同士が鏡像位置となるように、画像取得部77により取得された動画像52の正像又は左右反転画像を表示出力させればよい。
【0087】
本変形例によれば、行為提示者情報を動画像52と共に格納しなくても済むため、管理情報を減らすことができる。
【0088】
[全体の変形例]
さらに、上述の第1実施形態及び第2実施形態の変形例として、視線追跡データ62が重畳された提示動画像64と、視線追跡データ62が重畳されていない提示動画像64(すなわち動画像52)と、をユーザが選択して表示出力できるようにしてもよい。具体的には、行為支援装置100の画像取得部77が、動画像52に対して視線追跡データ62を重畳して表示するか否かを選択する命令の入力をユーザ端末120の入力部122より受け付けてもよい。これにより、視線追跡データ62が重畳された提示動画像64をユーザ端末120でまず表示させてユーザは行為提示者Sの視点VPの推移を学び、その後に、視線追跡データ62が重畳されていない動画像52を表示させて行為提示者Sの動作の細部を改めて確認することもできる。
【0089】
以下に実施例を挙げ、上述の各実施形態を更に詳細に説明する。本発明は以下の実施例から何ら限定を受けない。
【実施例1】
【0090】
図5から図17は、実施例1にかかる提示動画像の各ステップを順に示すキャプチャー画像である。この提示動画像は、図1から図3に示した行為支援装置100を用いて作成されたものである。なお、行為提示者Sの目線にあたる領域は個人情報保護の観点から目隠し加工してある。
【0091】
本実施例の行為提示者Sは美容専門家であり、その動作は美容行為である。具体的には、本実施例の提示動画像64は、ウェーブスタイルのヘアスタイルを行為提示者Sが作成する動作を含むものである。
【0092】
[ステップ(1)・・・スタイリング剤(スプレー)の塗布]
図5に示すステップ(1)では、頭髪の全体にスタイリング剤をスプレー塗布する。同図で、行為提示者Sの視線が停止した位置が黒丸のスポットSPで示され、連続するスポットSPが細線LNで示されている。細線LNは行為提示者Sの視点の移動方向を示し、スポットSPは行為提示者Sが視点を置いている部位を示す。したがって、スポットSPが集中している領域は行為提示者Sが強く着目している部位を示す。図6から図17においては、同様の符号は適宜省略する。
【0093】
ステップ(1)では、スプレーする対象となる頭髪の位置(ターゲット)を決めたうえでスタイリング剤をスプレー塗布する。ただし、スプレーの広がりを予測して、剤が当たると予測される位置を、点ではなく範囲として目視確認していることが分かる。すなわち、最初のみスプレーを目視している視点(SP1)が頭髪にシフトし、その後は剤が当たっている点ではなく、それを囲む広い範囲に視点(SP2)を分散させていることが分かる。
【0094】
[ステップ(2)・・・髪止め(ダッカールまたはピン)]
図6および図7に示すステップ(2)では、髪止めBRを任意で頭髪に挿入する。ステップ(2)は、後記のステップ(3)で毛束を分け取るための準備工程である。具体的には、コメカミより上の髪が垂れないように髪止めBRで止める。髪止めBRにより略コメカミ位置で頭髪を上下に分け、先ずコメカミよりも下から生えている頭髪に対してウェーブをつける。
【0095】
図6は、髪止めをする前の状態を表している。止める必要のある髪の位置を広い範囲として視点を分散させて確認している。
【0096】
図7は、髪止めBRを頭髪に挿入している状態を表している。髪止めをする範囲(コメカミ下方)と、しない範囲(コメカミ上方)との境界が、ダッカールまたはピンの先端で境界線を引くように分けられている。このときは、髪止めBRに視点を集中させている。
【0097】
[ステップ(3)・・・アイロンカーラー]
図8から図14に示すステップ(3)では、アイロンカーラー(カーラー)を用いて頭髪にウェーブを形成する。
【0098】
・図8に示すステップ(3−1)では、カーラーCR(図9を参照)に巻きつけるための毛束を分け取る。手で分け取った毛束の表面がきれいに揃っているかを目視確認し、毛束の量は手と頭皮の感触で判断している。毛束の表面の揃いが悪いと、カーラーCRへの巻きつけが均一にならず、きれいなウェーブにならないためである。このとき、カーラーCRの全体に視点を配るとともに、毛先の移動先にあたる遠位まで視点(SP3)を分散させている。
【0099】
・図9に示すステップ(3−2)では、分け取った毛束をカーラーCRに巻きつける。このとき、巻きつけた毛束の表面がきれいに揃っているか、かつ毛先の方まで巻きつけられているかを目視確認している。カーラーCRによる巻きつけ方向は毛束の上方から下方に向かうため、この巻き付け位置の降下に合わせて視点を移動させる。
【0100】
・ステップ(3−3)では、カーラーCRに巻きつけた保持状態の頭髪を解くタイミングを判断する(図示せず)。特に目視で確認することはなく、視点を毛束の全体に分散させている。巻きつけた毛束の表面を指で触り、カーラーCRの熱が全体に伝わった時点で頭髪の保持を解いている。
【0101】
・図10に示すステップ(3−4)では、保持を解いた毛束のウェーブ状態の良否を見る。カーラーCRに巻いた範囲全体のウェーブの強さを目視で確認している。このとき、毛先にあたる遠位まで視点を広く分散させている。
【0102】
・図11に示すステップ(3−5)では、次にカーラーCRに巻きつける毛束を分け取る。ステップ(3−3)までで既にウェーブが形成された毛束を再び混ぜて分け取らないように、巻いたところと巻いていないところの境界線に視点(SP4)を集めている。
【0103】
・図12に示すステップ(3−6)では、髪止めBRを解いて、コメカミよりも上方の毛束を分け取っている。このとき、コメカミよりも下方(既に巻いたところ)と上方(未だ巻いていないところ)との境界線に視点(SP5)を集めている。
【0104】
ここで、図中左側の頭髪に関するウェーブ状態の仕上がりの良否を確認する(後記のステップ(3−7)を参照)。その後、図中右側の頭髪に対して、上記のステップ(2)から(3−6)を行う。
【0105】
・図13および図14に示すステップ(3−7)では、頭髪の仕上がりのウェーブ状態の良否を目視的に確認する。このとき、カーラーCRに巻いた範囲全体のウェーブの強さのみならず、毛束ごとのウェーブの形を交互に目視確認している。図13は、範囲全体を確認しており、図14は毛束ごとに局所的に確認している。
【0106】
[ステップ(4)・・・仕上げ剤(スプレー)の塗布]
図15に示すステップ(4)では、仕上げ剤を頭髪の全体にスプレー塗布する。頭髪の数カ所に対して、仕上げ剤をスプレーする位置(ターゲット)を決めたうえで塗布していく。このとき、スプレーの広がりを予測して、剤が当たると予想される位置を含む広い範囲に視点(SP6)を分散させるとともに、更に、ステップ(1)のスタイリング剤の場合とは異なり、実際に剤が当たった部位に関しても、狭い範囲に視点(SP7)を集めて目視確認していることが分かる。
【0107】
[ステップ(5)・・・仕上がり確認]
図16および図17に示すステップ(5)では、最後の仕上がりのウェーブスタイルの良否を目視確認する。具体的には、図16に示すように、ウェーブスタイル全体としてウェーブ範囲の自然な広がりを確認し、また、図17に示すように、毛束ごとのウェーブ方向の自然なバラツキを確認する。このように、全体的な確認と局所的な確認とを交互に行うとよいことが分かる。
【0108】
以上のステップ(1)からステップ(5)まで、美容専門家が自分の頭髪をウェーブスタイルとする動作と、その鏡像を目視する際の視点の推移がユーザに把握される。
【0109】
上記のように各ステップにおいて頭髪における所定の広い範囲に視点を分散させていることが理解される。本実施例の提示動画像64によれば、行為提示者Sの視点の推移をユーザが確認することができる。このとき、ユーザの利き手と行為提示者Sの利き手とが鏡像位置にあるように提示動画像64を適宜反転させて表示出力することにより、視点の推移と美容行為の動作とを対応づけて理解することがユーザにとって容易である。
【0110】
かかる本実施例の有効性を更に高めるため、上記各ステップにおいて視点の推移を強調表示する付加情報を提示動画像64に併せて出力するとよい。本変形例にいう付加情報とは、視線追跡データの表示態様を一部領域または一部時間において変化させるための情報である。言い換えると、付加情報は、視線追跡データに追加されることで当該視線追跡データの画像の一部が強調表示され、これによりユーザの視線を誘導するデータである。
【0111】
図18は、ステップ(3−2)の変形例を示す画像である。図9に示したキャプチャー画像とは、矢印で表される方向表示IDRが付加情報として視線追跡データに追加されている点で相違する。この付加情報は、方向表示IDRが指し示す方向に向かって視線を移動させることが特に有効であることをユーザに知得させるために視線追跡データ62に付与される情報である。本変形例では方向表示IDRとして矢印を例示する。この矢印は、指示方向に向かって長さが伸張するように変動表示されてもよい。この矢印の表示は、行為提示者Sの視点が移動するよりも0.1秒乃至数秒早いタイミングで行われるとよい。本変形例によれば、この矢印の向きによって、行為提示者Sの視点がその直後に推移していく推移先や推移方向を先回りして表示することができる。
【0112】
また、図19は、ステップ(3−6)の変形例を示す画像である。図12に示したキャプチャー画像とは、複数の指のアイコンで表される注目点表示IATが付加情報として視線追跡データに追加されている点で相違する。この付加情報は、注目点表示IATが指し示す部位に視点を留めることが特に有効であることをユーザに知得させるために視線追跡データ62に付与される情報である。この注目点表示IATは、行為提示者Sの視点が実際にその部位に移動する前に、予め強調表示が開始する。これにより、ユーザは、次に視点が移動する先の部位を先回りして知得することができるため、行為提示者Sの注目すべき動作と視点移動との関係を見落とすことがない。
【0113】
すなわち、これらの変形例の視線追跡データは、視点の推移を連続的に表示する画像データであり、提示動画像は、視点の推移先の位置または推移方向を予め表示するための付加情報を含んでいる。そして、視線追跡データの少なくとも一部は、動画像における動作の推移を先導しているといえる。
【0114】
以上、本変形例の提示動画像64は、視線追跡データ62の一部を強調して表示するための付加情報を含んでいる。これにより、ユーザが美容の素人であったとしても、行為提示者Sの動作を後追いするのではなく、むしろ先回りして確認することができるため、ユーザの行為の支援が好適に行われる。
【実施例2】
【0115】
実施例2では、上述の第2実施形態において表示出力される動画像による行為支援の効果を検証するための官能評価結果について説明する。実施例2では、動画像により支援される行為が、細かい注意が不要なものと(実験1と表記)、細かい注意が必要なものと(実験2と表記)、通常鏡を介さずに直視しながら行われるものと(実験3と表記)の3タイプに分けられ、3タイプの行為を対象に3つの実験が行われた。
【0116】
各実験では、同じ動画像の正像(A)と左右反転画像(B)とを刺激として用い、右利きの女性被験者5名、左利きの女性被験者3名に対して、次のようなアンケート調査が行われた。当然、スコアは、被験者には秘匿された。
『自分が同じ動作をすることを思ってAとBの動画を比較して見てください。その動作をしやすいと感じたのはどちらですか?以下の選択肢から結果を選んでください。』
(選択肢) スコア
・Aの方がBより動作がし易い +2
・Aの方がBよりやや動作がし易い +1
・どちらも同じ 0
・Bの方がAよりやや動作がし易い −1
・Bの方がAより動作がし易い −2
【0117】
〔実験1〕
実験1では、細かい注意が不要な行為として、ヘアカラー、ドライヤー、ファンデーションの3つの行為について、行為提示者の前方から撮像された3つの動画像が刺激に用いられたアンケート調査(実験1−1と表記)と、ヘアカラー、ドライヤーの2つの行為について、行為提示者の後方から撮像された2つの動画像が刺激に用いられたアンケート調査(実験1−2と表記)とが行われた。なお、実験1の刺激とされたヘアカラー及びファンデーションは、広いエリア(頭髪全体、頬)を対象とした行為である。
【0118】
図23は、実験1−1で刺激として用いられた3つの動画像を概念的に示す図であり、図24は、実験1−2で刺激として用いられた2つの動画像を概念的に示す図である。結果として、実験1−1及び1−2において各動画像を用いたアンケート調査で得られたスコアの平均値がそれぞれ算出された。図25は、実施例2における官能評価結果を示す図である。
【0119】
実験1−1では、動画A(正像)の行為提示者は、右手を主たる行為の主体として用いているため、右利きの被験者は、動画Aの行為提示者の右手の鏡像位置にある、利き手でない左手での動作をイメージしてしまい、不自然さを感じてしまう。一方で、動画B(左右反転画像)の行為提示者は、左手を主たる行為の主体として用いているため、右利きの被験者は、行為提示者の左手の鏡像位置にある、利き手(右手)での動作を即座にイメージでき、不自然さが解消され、動作をやり易く感じる。よって、図25に示されるように、右利きの被験者については、ヘアカラー、ドライヤー、ファンデーションの全ての行為に関し、マイナスのポイントが得られ、左利きの被験者については、逆に、全行為について、プラスのポイントが得られた。
【0120】
実験1−2では、行為提示者の後方から撮像された動画像が利用されたため、被験者の各手と動画像内の行為提示者の各手とはそれぞれ鏡像位置関係にある。従って、図25に示されるように、実験1−2の結果は、実験1−1とは逆の結果を示した。即ち、右利きの被験者については、全行為に関し、プラスのポイントが得られ、左利きの被験者については、全行為について、マイナスのポイントが得られた。
【0121】
〔実験2〕
実験2では、細かい注意が必要な行為として、アイメイク、ファンデーション、ヘアカラーの3つの行為について、行為提示者の前方から撮像された3つの動画像が刺激に用いられたアンケート調査が行われた。なお、実験2の刺激とされたファンデーション及びヘアカラーは、実験1よりも狭いエリアを対象とする行為である。図26Aは、実験2で刺激として用いられたアイメイクを表す動画像を概念的に示す図であり、図26Bは、実験2で刺激として用いられたファンデーション及びヘアカラーを表す動画像を概念的に示す図である。
【0122】
実験2では、動画A(正像)を見た右利きの被験者は、利き手でない左手での動作が困難であるため、利き手である右手で当該行為をイメージするが、動画A内の行為提示者の右手(主たる行為の主体)と自身の右手とが対角線上に位置することになるため、行為イメージを反転させなければならず、容易に行為をすることができない。これにより、行為自体が遅くなり、作業が粗くなってしまう。一方で、動画B(左右反転画像)を見た右利きの被験者は、自身の利き手(右手)の鏡像位置に、動画B内の行為提示者の主たる行為の主体(左手)がくるため、緻密な動きを直感的に短時間で再現でき、動作をやり易く感じた。よって、図25に示されるように、右利きの被験者については、全行為に関し、マイナスのポイントが得られ、左利きの被験者については、逆に、全行為について、プラスのポイントが得られた。
【0123】
〔実験3〕
実験3では、通常鏡を介さずに直視しながら行われる行為として、手のひらへの泡出しの行為について、行為提示者の視線方向(前方向)に撮像された1つの動画像が刺激に用いられたアンケート調査が行われ(実験3−1と表記)、当該行為として、腕へのクリーム出し及びクリーム取りの2つの行為について、行為提示者の前方から(視線方向とは逆方向に)撮像された2つの動画像が刺激に用いられたアンケート調査が行われた(実験3−2と表記)。図27は、実験3−1で刺激として用いられた動画像を概念的に示す図であり、図28は、実験3−2で刺激として用いられた2つの動画像を概念的に示す図である。
【0124】
実験3−1では、動画A(正像)を見た右利きの被験者は、動画Aの行為提示者の右手の鏡像位置にある利き手(右手)で泡出し動作をすることを即座にイメージすることができ、動作をやり易く感じる。一方で、動画B(左右反転画像)を見た右利きの被験者は、動画Bの行為提示者の左手の鏡像位置にある利き手でない左手で泡出し動作をすることをイメージしてしまい、不自然さを感じてしまう。よって、図25に示されるように、右利きの被験者については、当該行為に関し、プラスのポイントが得られ、左利きの被験者については、逆に、当該行為について、マイナスのポイントが得られた。
【0125】
実験3−2では、行為提示者の前方から撮像された動画が利用されているため、被験者の手と動画像内の行為提示者の手とは対角線上に位置する関係となる。従って、図25に示されるように、実験3−2の結果は、実験3−1の逆の結果を示した。即ち、右利きの被験者については、全行為に関し、マイナスのポイントが得られ、左利きの被験者については、全行為について、プラスのポイントが得られた。
【0126】
このように実施例2によれば、鏡を見ながら行う様々な行為に関して、上述の第2実施形態において表示出力される動画像の正像又は左右反対画像により、ユーザが、行為を直感的にイメージすることができ、行為を好適に支援し得ることが証明された。更に、実施例2によれば、このような効果は、鏡を見ながら行う行為のみならず、鏡を介さず直視しながら行う行為についても発揮されることが証明された。特に、実験1に対して、実験2における細かい注意が必要な行為のほうが、ポイントの絶対値(数値)が大きくなっており、本発明の効果が顕著であることがわかる。
【0127】
〔補足実験〕
補足実験として、更に、手グシで髪にドライヤーをかける場合に、どちらの手でドライヤーを持つかというアンケート調査が8名に対して行われた。この結果、8名全員が利き手で持つと回答した。結果、行為提示者が本補足実験の対象の上記行為をする場合、器具を扱う行為提示者の手とユーザの手との間の関係情報を用いず、利き手情報のみを用いて、行為提示者の利き手がユーザの利き手の鏡像位置となるように動画像の正像又は左右反転画像を表示出力させることにより、ドライヤーを持つ手同士、クシの役割を担う手同士をそれぞれ鏡像位置とすることができる。
【0128】
上記実施形態、実施例およびその変形例は、以下の技術思想を包含するものである。
(1)行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を、反転選択情報に基づいて正像または左右反転画像で表示出力させることを特徴とする行為支援方法;
(2)ユーザの利き手を示す利き手情報を前記反転選択情報として取得し、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるよう前記正像または前記左右反転画像を選択して前記提示動画像を表示出力させる上記(1)に記載の行為支援方法;
(3)前記提示動画像が、前記視線追跡データの一部を強調して表示するための付加情報を含む上記(1)または(2)に記載の行為支援方法;
(4)前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記提示動画像が前記視点の推移先の位置または推移方向を予め表示するための付加情報を含む上記(1)から(3)のいずれかに記載の行為支援方法;
(5)前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記視線追跡データの少なくとも一部が前記動画像における前記動作の推移を先導していることを特徴とする上記(1)から(4)のいずれかに記載の行為支援方法;
(6)前記行為提示者が美容専門家であり、前記動作が美容行為である上記(1)から(5)のいずれかに記載の行為支援方法;
(7)行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を記憶する動画像記憶手段と、反転選択情報を受信する受信手段と、受信した前記反転選択情報に基づいて前記提示動画像の正像または左右反転画像を取得する画像取得手段と、取得した前記正像または前記左右反転画像の前記提示動画像を送信する送信手段と、を含む行為支援装置;
(8)前記動画像記憶手段は、前記提示動画像と前記行為提示者の利き手を示す提示者情報とを対応づけて記憶する上記(7)に記載の行為支援装置;
(9)前記受信手段は、ユーザの利き手を示す利き手情報を前記反転選択情報として受信し、前記画像取得手段は、前記動画像記憶手段を参照し、受信した前記利き手情報に基づいて前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となる前記正像または前記左右反転画像を取得する上記(8)に記載の行為支援装置;
(10)前記受信手段は、補助入力装置に関する設定データを前記利き手情報として受信する上記(9)に記載の行為支援装置;
(11)ユーザの利き手を示す利き手情報を前記反転選択情報として含むユーザ情報を、当該ユーザを識別する識別子と対応づけて記憶するユーザ情報記憶手段をさらに備え、前記受信手段は、ネットワークを通じてユーザから前記識別子を受信し、前記画像取得手段は、前記ユーザ情報記憶手段および前記動画像記憶手段を参照して、前記行為提示者の利き手と前記ユーザの利き手との一致または不一致を判定し、これらの利き手どうしが鏡像位置となる前記正像または前記左右反転画像を取得する上記(8)に記載の行為支援装置;
(12)入射光の一部を透過して他の一部を反射する光束分離手段と、前記光束分離手段を透過した前記行為提示者の動画像を撮像する撮像手段と、前記光束分離手段で反射された前記行為提示者の鏡像を目視する当該行為提示者の視点の推移を示す視線追跡データを取得する視線取得手段と、前記動画像における前記行為提示者の動作と、前記視線追跡データが示す前記視点の推移と、の位置およびタイミングを対応づけて前記提示動画像を生成する動画像生成手段と、をさらに含む上記(7)から(11)のいずれかに記載の行為支援装置。
【符号の説明】
【0129】
10 筐体
12 光束分離部
14 撮像部
16 信号線
20 視線取得部
22 信号線
24 光ビーム
30 記憶部
31 画像蓄積部
32 視線データ蓄積部
33 動画像記憶部
35 ユーザ情報記憶部
50 鏡像
52 動画像
60 頭部
62 視線追跡データ
64 提示動画像
70 CPU
76 生成部
77 画像取得部
78 受信部
79 送信部
80 バス
91 手情報取得部
92 出力処理部
95 方向判定部
100 行為支援装置
110 ネットワーク
120 ユーザ端末
122 入力部
124 制御部
126 送受信部
128 表示出力部
1000 行為支援システム
BR 髪止め
C 反射面
CM 反転選択情報
CR カーラー
IAT 注目点表示
IDR 方向表示
IPH 提示者利き手情報
IUH 利き手情報
L 距離
LN 細線
LOS 視線
S 行為提示者
SP スポット
VP 視点

【特許請求の範囲】
【請求項1】
行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を、反転選択情報に基づいて正像または左右反転画像で表示出力させることを特徴とする行為支援方法。
【請求項2】
ユーザの利き手を示す利き手情報を前記反転選択情報として取得し、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるよう前記正像または前記左右反転画像を選択して前記提示動画像を表示出力させる請求項1に記載の行為支援方法。
【請求項3】
前記提示動画像が、前記視線追跡データの一部を強調して表示するための付加情報を含む請求項1または2に記載の行為支援方法。
【請求項4】
前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記提示動画像が前記視点の推移先の位置または推移方向を予め表示するための付加情報を含む請求項1から3のいずれか一項に記載の行為支援方法。
【請求項5】
前記視線追跡データは前記視点の推移を連続的に表示する画像データであり、前記視線追跡データの少なくとも一部が前記動画像における前記動作の推移を先導していることを特徴とする請求項1から4のいずれか一項に記載の行為支援方法。
【請求項6】
前記行為提示者が美容専門家であり、前記動作が美容行為である請求項1から5のいずれか一項に記載の行為支援方法。
【請求項7】
行為提示者の動作を表す動画像と、前記行為提示者の鏡像を目視している当該行為提示者の視点の推移を示す視線追跡データと、が互いに対応づけられて重畳された提示動画像を記憶する動画像記憶手段と、
反転選択情報を受信する受信手段と、
受信した前記反転選択情報に基づいて前記提示動画像の正像または左右反転画像を取得する画像取得手段と、
取得した前記正像または前記左右反転画像の前記提示動画像を送信する送信手段と、
を含む行為支援装置。
【請求項8】
前記動画像記憶手段は、前記提示動画像と前記行為提示者の利き手を示す提示者情報とを対応づけて記憶する請求項7に記載の行為支援装置。
【請求項9】
前記受信手段は、ユーザの利き手を示す利き手情報を前記反転選択情報として受信し、
前記画像取得手段は、前記動画像記憶手段を参照し、受信した前記利き手情報に基づいて前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となる前記正像または前記左右反転画像を取得する請求項8に記載の行為支援装置。
【請求項10】
前記受信手段は、補助入力装置に関する設定データを前記利き手情報として受信する請求項9に記載の行為支援装置。
【請求項11】
ユーザの利き手を示す利き手情報を前記反転選択情報として含むユーザ情報を、当該ユーザを識別する識別子と対応づけて記憶するユーザ情報記憶手段をさらに備え、
前記受信手段は、ネットワークを通じてユーザから前記識別子を受信し、
前記画像取得手段は、前記ユーザ情報記憶手段および前記動画像記憶手段を参照して、前記行為提示者の利き手と前記ユーザの利き手との一致または不一致を判定し、これらの利き手どうしが鏡像位置となる前記正像または前記左右反転画像を取得する請求項8に記載の行為支援装置。
【請求項12】
入射光の一部を透過して他の一部を反射する光束分離手段と、
前記光束分離手段を透過した前記行為提示者の動画像を撮像する撮像手段と、
前記光束分離手段で反射された前記行為提示者の鏡像を目視する当該行為提示者の視点の推移を示す視線追跡データを取得する視線取得手段と、
前記動画像における前記行為提示者の動作と、前記視線追跡データが示す前記視点の推移と、の位置およびタイミングを対応づけて前記提示動画像を生成する動画像生成手段と、をさらに含む請求項7から11のいずれか一項に記載の行為支援装置。
【請求項13】
行為提示者の動作を表す動画像を取得する画像取得工程と、
前記動作における前記行為提示者の手とユーザの手との間の対応関係を示す関係情報を取得する手情報取得工程と、
前記関係情報に基づいて前記行為提示者と前記ユーザとの間で対応付けられる手同士が鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる出力工程と、
を含む行為支援方法。
【請求項14】
前記動画像における前記行為提示者の撮像方向を判定する方向判定工程を更に含み、
前記出力工程は、前記判定された撮像方向及び前記関係情報に基づいて、前記正像を表示出力させるか又は前記左右反転画像を表示出力させるかを決定する、
請求項13に記載の行為支援方法。
【請求項15】
前記手情報取得工程は、前記関係情報として、前記行為提示者の利き手の情報と前記ユーザの利き手の情報とを取得し、
前記出力工程は、前記関係情報に基づいて、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項13又は14に記載の行為支援方法。
【請求項16】
前記手情報取得工程は、前記関係情報として、前記動作で用いられる器具と、該器具を扱う前記行為提示者の手と前記ユーザの手との間の関係情報とを取得し、
前記出力工程は、前記関係情報に基づいて、前記行為提示者及び前記ユーザにおける同じ器具を扱う手どうしが鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項13又は14に記載の行為支援方法。
【請求項17】
前記出力工程はユーザ端末の表示手段に前記正像又は前記左右反転画像を表示出力させ、
前記手情報取得工程は、前記ユーザ端末の補助入力装置に関する設定データを前記ユーザの利き手の情報として取得する請求項15に記載の行為支援方法。
【請求項18】
各ユーザについて、前記関係情報とユーザ識別子とを対応づけて記憶手段にそれぞれ蓄積する蓄積工程を更に含み、
前記手情報取得工程は、ユーザ識別子を取得し、取得されたユーザ識別子に対応する前記関係情報を前記記憶手段から抽出する、
請求項13から16のいずれか1項に記載の行為支援方法。
【請求項19】
行為提示者の動作を表す動画像を取得する画像取得手段と、
前記動作における前記行為提示者の手とユーザの手との間の関係情報を取得する手情報取得手段と、
前記関係情報に基づいて前記行為提示者と前記ユーザとの間で対応付けられる手同士が鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる出力処理手段と、
を備える行為支援装置。
【請求項20】
前記動画像における前記行為提示者の撮像方向を判定する方向判定手段を更に備え、
前記出力処理手段は、前記判定された撮像方向及び前記関係情報に基づいて、前記正像を表示出力させるか又は前記左右反転画像を表示出力させるかを決定する、
請求項19に記載の行為支援装置。
【請求項21】
前記手情報取得手段は、前記関係情報として、前記行為提示者の利き手の情報と前記ユーザの利き手の情報とを取得し、
前記出力処理手段は、前記関係情報に基づいて、前記行為提示者の利き手が前記ユーザの利き手の鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項19又は20に記載の行為支援装置。
【請求項22】
前記手情報取得手段は、前記関係情報として、前記動作で用いられる器具と、該器具を扱う前記行為提示者の手と前記ユーザの手との間の関係情報とを取得し、
前記出力処理手段は、前記関係情報に基づいて、前記行為提示者及び前記ユーザにおける同じ器具を扱う手どうしが鏡像位置となるように前記動画像の正像又は左右反転画像を表示出力させる、
請求項19又は20に記載の行為支援装置。
【請求項23】
前記出力処理手段はユーザ端末の表示手段に前記正像又は前記左右反転画像を表示出力させ、
前記手情報取得手段は、前記ユーザ端末の補助入力装置に関する設定データを前記ユーザの利き手の情報として取得する請求項21に記載の行為支援装置。
【請求項24】
各ユーザについて、前記関係情報とユーザ識別子とを対応づけてそれぞれ格納するユーザ情報格納手段を更に含み、
前記手情報取得手段は、ユーザ識別子を取得し、取得されたユーザ識別子に対応する前記関係情報を前記ユーザ情報格納手段から抽出する、
請求項19から22のいずれか1項に記載の行為支援装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26A】
image rotate

【図26B】
image rotate

【図27】
image rotate

【図28】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate


【公開番号】特開2012−223564(P2012−223564A)
【公開日】平成24年11月15日(2012.11.15)
【国際特許分類】
【出願番号】特願2012−86967(P2012−86967)
【出願日】平成24年4月6日(2012.4.6)
【出願人】(000000918)花王株式会社 (8,290)
【Fターム(参考)】