説明

表情測定方法、表情測定プログラムならびに表情測定装置

【課題】撮影された被検者の動画像から、被検者の顔面の左側の動きと右側の動きを高速で精度よく測定するとともに、両者の動きについての時間的差異もあわせて測定することができる技術を提供する。
【解決手段】被検者の顔の動画像を取得する手順と、動画像の各コマについて、被検者の表皮の位置の変化が小さい部位から不動特徴点を抽出する手順と、被検者の顔面の左(右)側にあって表皮の位置の変化が小さくない部位から左(右)側可動特徴点を抽出する手順と、不動特徴点および左(右)側可動特徴点の位置関係をもとに、被検者の顔面の左(右)側の特徴量を算出する手順によって、被検者の表情の左右の変化をそれぞれ測定する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理技術を用いて、被検者の顔面に現れる表情の変化を捉えるための技術に関する。
【背景技術】
【0002】
画像処理技術の発達に伴い、人の表情から精神状態や感情を推定するという試みが数多く行われている。しかし、そういった精神状態や感情を特定するための、画一的な基準やアルゴリズムが確立された訳ではなく、これらを特定するための様々な測定・解析方法が提案され、実験や臨床試験等が行われている。
【0003】
たとえば、特許文献1では、客観的に顔面運動を解析することを目的に、フレーム画像間の画素の移動を算出する画素移動算出手段と、画素移動算出手段により得られたフレーム画像間の各画素の移動量及び移動方向に基づき、顔面中の任意の領域の運動を解析する解析手段と、解析結果を出力する出力手段を備えた顔面運動解析装置に関する発明が開示されている。
この文献では、解析手段としてオプティカルフローを用いており、顔全体の中から変化の大きい部分を捉えることができるほか、画像中の任意の領域を指定して、その領域における移動量の平均値等を求めることができるようになっている。
【0004】
また、特許文献2では、人の表情から精神状態や感情を推定するために、人の特徴点を抽出し、表情の左右対称度、目の緊張度、頬の緊張度、口角の角度などをもとに、心因性疾病の度合いを判断するという技術が開示されている。
この文献では、左右対称となる部位を特徴点として定め、その対称となる特徴点どうしのX座標・Y座標の差を、それぞれ2乗した上で重みづけしたものを加算し、表情の左右対称度を表す診断データXを計算している。また、目のまわりにあって左右対称となる部位を特徴点として定め、その対称となる特徴点の間の寸法を、それぞれ重みづけして加算し、目の緊張度を表す診断データXを計算している。また、頬面の重心となる部位を特徴点として定め、その対称となる特徴点の間の寸法を、それぞれ重みづけして加算し、頬の緊張度を表す診断データXを計算している。また、左右口角の内側と外側となる部位を特徴点として定め、その対称となる特徴点の間の寸法を、それぞれ重みづけして加算し、口角の角度を表す診断データXを計算している。
【0005】
また、特許文献3では、非同期遠隔会議において、使用者の音声、表情・動作、生体情報のデータから抽出した多様な心理状態推定情報を遠隔地にて表示することを目的に、顔画像の複数の特徴点の相対的移動変化量から、心理状態を推定するという技術が開示されている。
この文献では、顔画像の唇の左右端2点、右眉の左右端2点、左眉の左右端2点の相対的移動変化量から、「驚き」、「面白さ」、「困惑」、「納得」、「面白さ」、などといった心理状態を推定している。また、移動変化量(位置変化率)として、各点のX座標、Y座標の変化をXY平面にプロットし、そのプロットされた点がどの領域に属するかで、心理状態を特定している。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2001−167283公報(おもに、明細書段落番号0008、0024〜0027、図5〜7)
【特許文献2】特開2006−305260公報(おもに、明細書段落番号0017〜0021、図3〜6)
【特許文献3】特開2006−262010公報(おもに、明細書段落番号0042〜0045、図8〜13)
【発明の概要】
【発明が解決しようとする課題】
【0007】
被検者の顔面に現れる表情の変化から、被検者の心理状況や病変を発見するためには、観察者の能力等に依存しない客観的な評価方法が望まれる。そのためには、統一化された測定方法と、その測定された結果に基づく定量的な分析方法が求められる。
また、精神疾患の症状の一つとして、被検者の顔面の左側の動きと右側の動きとの間に時間的なズレ(時間差)があることが知られている。したがって、そのような左側の動きと右側の動きとの間の時間差を求めるための技術が求められる。
【0008】
ところが、特許文献1によるオプティカルフローを用いる場合には、フレーム画像間の各画素を解析する必要があるため、解析そのものに時間を要する。また、オプティカルフローでは、各画素が被検者顔面のどの部位に対応しているかを特定することが難しく、とくに、外見上の特徴が少ない部位にあっては、その領域を各フレーム間で対応させることが困難であるといった問題がある。したがって、左側の動きと右側の動きとの間の時間的差異を高精度で求めることができない。
【0009】
また、特許文献2による特徴点抽出を用いる場合には、表情の左右対称度、眼の緊張度、頬の緊張度、口角の角度をもって心因性疾病の度合いを判断しているが、いずれの場合も、被検者顔面の左右の特徴点間の「相対的な」位置関係をもとに判断を行っており、左側の動きと右側の動きとの間の時間的差異を求めることできない。
【0010】
また、特許文献3による移動変化量を用いる場合には、移動変化量(位置変化率)を、各点のX座標、Y座標の変化としてXY平面にプロットさせ、そのプロットされた点がどの領域に属するかで、心理状態を特定しているので、左側の動きと右側の動きとの間の時間的差異を求めることできない。
【0011】
そこで、本件発明では、撮影された被検者の動画像から、被検者の顔面の左側の動きと右側の動きを高速で精度よく測定するとともに、両者の動きについての時間的差異もあわせて測定することができる技術を提供する。
【課題を解決するための手段】
【0012】
前述した課題を解決するため、本発明第1の構成による表情測定方法は、被検者の顔の動画像を取得する手順1と、前記動画像の各コマについて、前記被検者の顔面にあって前記被検者が表情を変えてもその表皮の位置の変化が小さい部位から1以上の特徴点を不動特徴点として抽出する手順2と、前記動画像の各コマについて、前記被検者の顔面の左側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を左側可動特徴点として抽出する手順3と、前記動画像の各コマについて、前記被検者の顔面の右側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を右側可動特徴点として抽出する手順4と、前記動画像の各コマについて、前記不動特徴点および前記左側可動特徴点の位置関係をもとに、前記被検者の顔面の左側の特徴量を左側特徴量として算出する手順5と、前記動画像の各コマについて、前記不動特徴点および前記右側可動特徴点の位置関係をもとに、前記被検者の顔面の右側の特徴量を右側特徴量として算出する手順6と、によって、前記被検者の表情の左右の変化をそれぞれ測定することを特徴としている。
また、本発明第7の構成による表情測定プログラムは、被検者の顔面の動画像を取得するステップS1と、前記動画像の各コマについて、前記被検者の顔面にあって前記被検者が表情を変えてもその表皮の位置の変化が小さい部位から1以上の特徴点を不動特徴点として抽出するステップS2と、前記動画像の各コマについて、前記被検者の顔面の左側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を左側可動特徴点として抽出するステップS3と、前記動画像の各コマについて、前記被検者の顔面の右側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を右側可動特徴点として抽出するステップS4と、前記動画像の各コマについて、前記不動特徴点および前記左側可動特徴点の位置関係をもとに、前記被検者の顔面の左側の特徴量を左側特徴量として算出するステップS5と、前記動画像の各コマについて、前記不動特徴点および前記右側可動特徴点の位置関係をもとに、前記被検者の顔面の右側の特徴量を右側特徴量として算出するステップS6と、によって、前記被検者の表情の左右の変化をそれぞれ測定することを特徴としている。
また、本発明第8の構成による表情測定装置は、被検者の顔面の動画像を撮影するカメラと、前記カメラの画像を取り込んで情報処理を行う情報処理装置を備え、前記情報処理装置は、前記カメラによって撮影された前記被検者の顔面の動画像を取得して、前記被検者の表情の左右の変化をそれぞれ測定するため、被検者の顔の動画像を取得する手順1と、前記動画像の各コマについて、前記被検者の顔面にあって前記被検者が表情を変えてもその表皮の位置の変化が小さい部位から1以上の特徴点を不動特徴点として抽出する手順2と、前記動画像の各コマについて、前記被検者の顔面の左側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を左側可動特徴点として抽出する手順3と、前記動画像の各コマについて、前記被検者の顔面の右側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を右側可動特徴点として抽出する手順4と、前記動画像の各コマについて、前記不動特徴点および前記左側可動特徴点の位置関係をもとに、前記被検者の顔面の左側の特徴量を左側特徴量として算出する手順5と、前記動画像の各コマについて、前記不動特徴点および前記右側可動特徴点の位置関係をもとに、前記被検者の顔面の右側の特徴量を右側特徴量として算出する手順6と、からなる表情測定プログラムを備えたことを特徴としている。
【0013】
また、本発明第2の構成による表情測定方法は、第1の発明の構成に加え、前記手順2では、前記被検者の目頭、鼻の位置あるいはこれらの部位に貼り付けたマーカの位置から不動特徴点を抽出し、前記手順3および手順4では、前記被検者の眉毛の両端、眼尻、頬、口角の位置あるいはこれらの部位に貼り付けたマーカの位置から左側可動特徴点および右側可動特徴点をそれぞれ抽出することを特徴としている。
【0014】
また、本発明第3の構成による表情測定方法は、第1または第2の発明の構成に加え、前記手順2では、前記不動特徴点を1以上抽出し、前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ1以上抽出し、前記手順5では、前記不動特徴点1つと前記左側可動特徴点1つとの間の距離を前記左側特徴量として算出し、前記手順6では、前記不動特徴点1つと前記右側可動特徴点1つとの間の距離を前記右側特徴量として算出することを特徴としている。
また、本発明第4の構成による表情測定方法は、第1または第2の発明の構成に加え、前記手順2では、前記不動特徴点を1以上抽出し、前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ2以上抽出し、前記手順5では、前記不動特徴点1つと前記左側可動特徴点2つの3点で定まる、角度、面積もしくは内積等の特徴量を前記左側特徴量として算出し、前記手順6では、前記不動特徴点1つと前記右側可動特徴点2つの3点で定まる、角度、面積もしくは内積等の特徴量を前記右側特徴量として算出することを特徴としている。
また、本発明第5の構成による表情測定方法は、第1または第2の発明の構成に加え、前記手順2では、前記不動特徴点を2以上抽出し、前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ1以上抽出し、前記手順5では、前記不動特徴点2つと前記左側可動特徴点1つの3点で定まる、角度、面積、内積もしくは前記不動特徴点を基準とした座標系における前記左側可動特徴点の座標等の特徴量を前記左側特徴量として算出し、前記手順6では、前記不動特徴点2つと前記右側可動特徴点1つの3点で定まる、角度、面積、内積もしくは前記不動特徴点を基準とした座標系における前記右側可動特徴点の座標等の特徴量を前記右側特徴量として算出することを特徴としている。
また、本発明第6の構成による表情測定方法は、第1または第2の発明の構成に加え、前記手順2では、前記不動特徴点を2以上抽出し、前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ2以上抽出し、前記手順5では、前記不動特徴点を基準とする座標系における前記不動特徴点2つと前記左側可動特徴点1つの3点または前記不動特徴点1つと前記左側可動特徴点2つの3点で定まる三角形の重心位置の座標等の特徴量を前記左側特徴量として算出し、前記手順6では、前記不動特徴点を基準とする座標系における前記不動特徴点2つと前記右側可動特徴点1つの3点または前記不動特徴点1つと前記右側可動特徴点2つの3点で定まる三角形の重心位置の座標等の特徴量を前記右側特徴量として算出することを特徴としている。
【発明の効果】
【0015】
本発明第1の構成による表情測定方法、第7の構成による表情測定プログラムならびに第8の構成による表情測定装置によれば、被検者が表情を変えてもその表皮の位置の変化が小さい部位から不動特徴点を抽出し、被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から左右の可動特徴点をそれぞれ抽出し、不動特徴点および可動特徴点の位置関係をもとに、被検者の顔面の左右の特徴量をそれぞれ算出するので、撮影された被検者の動画像から、被検者の顔面の左側の動きと右側の動きを高速で精度よく測定できるとともに、両者の動きについての時間的差異もあわせて観察することができる。
また、表情としての変化が僅かであっても、被検者の顔の左右の非対称性の要因を排除した定量的な指標により、被検者の表情の変化を捉え、かつ、その変化をきたした部分を被検者の左側の表情の状況と、右側の表情の状況とに分離して観察することが可能となる。
【0016】
また、本発明第2の構成による表情測定方法によれば、被検者の目頭、鼻の位置あるいはこれらの部位に貼り付けたマーカの位置から不動特徴点を抽出し、被検者の眉毛の両端、眼尻、頬、口角の位置あるいはこれらの部位に貼り付けたマーカの位置から可動特徴点を抽出するので、前述した効果がより顕著に現れる。
【0017】
本発明第3の構成による表情測定方法によれば、不動特徴点1つと可動特徴点1つの2点で定まる距離を用いて特徴量を算出しており、本発明第4の構成による表情測定方法によれば、不動特徴点1つと可動特徴点2つの3点で定まる角度、面積もしくは内積等を用いて特徴量を算出しており、本発明第5の構成による表情測定方法によれば、不動特徴点2つと可動特徴点1つの3点で定まる角度、面積、内積もしくは不動特徴点を基準とした座標系における可動特徴点の座標等を用いて特徴量を算出しており、本発明第6の構成による表情測定方法によれば、不動特徴点2つと可動特徴点2つの4点で定まる特定の座標系での三角形の重心位置の座標等を用いて特徴量を算出しているので、前述した効果に加え、被検者の顔面の左側の動きと右側の動きをより高速かつ高精度で測定することができる。
【図面の簡単な説明】
【0018】
【図1】表情測定装置の構成を示す説明図
【図2】表情測定プログラムの処理の流れを示すフロチャート
【図3】被検者の目頭、眼尻や顔面に貼り付けたマーカを示す説明図
【図4】左側特徴量および右側特徴量の算出パターン1を示す説明図
【図5】左側特徴量および右側特徴量の算出パターン2を示す説明図
【図6】左側特徴量および右側特徴量の算出パターン3を示す説明図
【図7】左側特徴量および右側特徴量の算出パターン3の別の形態を示す説明図
【図8】左側特徴量および右側特徴量の算出パターン4を示す説明図
【図9】被検者の顔面に貼り付けたマーカの位置を特定する方法を示す説明図
【図10】被検者の顔面を撮影した画像を微分したときの説明図
【図11】被検者の眼の領域を特定するための方法を示す説明図
【図12】テンプレート画像の一例を示す説明図
【発明を実施するための形態】
【0019】
本発明の実施形態を実施例1ないし実施例3にて説明する。
【実施例1】
【0020】
実施例1を図1〜図8に基づいて説明する。
図1は、実施例1にかかる表情測定装置の構成を示す説明図である。
図1において、表情測定装置10は、情報処理装置(計算機11)と、ビデオカメラ12を備える。計算機11は外部装置としてディスプレイ11fとキーボード11gを備えており、検査者2は、ディスプレイ11fとキーボード11gにより表情測定装置10を制御し、あるいは、表情測定結果の観察等を行う。
また、ビデオカメラ12は被検者1の顔部を撮影するものであり、計算機11の内部に備えるビデオキャプチャ11eによって映像を取得する。ビデオカメラ12のフレームレートは30〜60FPS(Frame Per Second)程度である。
計算機11は、このほか、CPU(中央演算処理装置)11aと、クロック11bと、ディスプレイ11fに画像信号を送信するグラフィックカード11cと、キーボード11gからの入力信号を受信する入力端子11dと、プログラム記憶領域14およびデータ記憶領域15の記憶領域が確保された記憶装置13と、メモリ16をその内部に備える。
メモリ16には、被検者1の表情を測定する過程で生成される各種のデータ(たとえば、不動特徴点座標16a、左側可動特徴点座標16b、右側可動特徴点座標16c、元画像データ16dなど)が一時的に記憶される。これらの各データの内容については、後で説明する。
【0021】
データ記憶領域15には、被検者1の表情測定結果である顔面の左側および右側の特徴量が、左側特徴量15aおよび右側特徴量15bの時系列データとして記録され、あわせて、画像データ15cが動画データとして記録される。
そして、プログラム記憶領域14には、ビデオキャプチャ11eによって取得された画像を元画像データ16dとして記録するビデオ画像取得プログラム14aと、元画像データ16dから被検者1の表情の左右の変化を測定する表情測定プログラム14bが記録されている。表情測定プログラム14bの処理内容については後で説明する。
【0022】
なお、表情測定装置10には、被検者1に赤外領域の光を照射する赤外照明17を備え、ビデオカメラ12は赤外領域の像を撮影する赤外カメラとすることが好ましい。具体的には、赤外照明17に特定領域の赤外光を通過させるIRフィルタ(たとえば、760nm以下の波長の光を遮断するようにしたものが好適である)を備えて、これを被検者1に向けて照射するとともに、ビデオカメラ12のレンズの手前に同様のIRフィルタ(たとえば、850nm以上の波長の光のみを透過するようにしたものが好適である)を備えて、被検者1の反射光を撮影するようにする。
【0023】
このように、被験者に赤外照明を照射して、その反射光を赤外カメラで撮影するので、外光(白熱電灯や自然光等)や設置環境の影響を受けずに被検者の表情の変化を的確にとらえることができるようになる。
【0024】
続いて、表情測定プログラム14bの処理の流れを図2のフロチャートに基づいて説明する。
ビデオ画像取得プログラム14aにより、被検者1の顔画像が元画像データ16dとして記録される度に、表情測定プログラム14bがステップS1〜ステップS7の処理を行う。すなわち、ビデオ画像取得プログラム14bは、ビデオカメラ12のフレームレートと同じ間隔で繰り返し処理を行うこととなる。
【0025】
表情測定プログラム14bが起動すると、被検者の顔の動画像の1フレーム分の画像を元画像データ16dから取得するステップS1の処理が行われる。
【0026】
続いて、ステップS2では、取得した元画像データ16dの1フレーム分の画像について、被検者1の顔面にあって被検者1が表情を変えてもその表皮の位置の変化が小さい部位から1以上の特徴点を不動特徴点として抽出する。
不動特徴点は、表情の変化が現れにくい、被検者1の目頭、鼻の位置から抽出し、あるいは、これらの部位に貼り付けたマーカの位置から抽出するとよい。
例えば、図3に示すように、被検者1の目頭31L、31Rのほか、鼻の部位に貼り付けたマーカ33の位置をこの画像データから算出し、その座標を不動特徴点座標16aとしてメモリ16に記録する。
具体的な抽出方法については、このあとの実施例2〜3で説明する。
【0027】
次に、ステップS3(S4)では、取得した元画像データ16dの1フレーム分の画像について、被検者1の顔面の左側(右側)にあって被検者1が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を左側可動特徴点(右側可動特徴点)として抽出する。
左側可動特徴点(右側可動特徴点)は、表情の変化が現れやすい、被検者1の眉毛の両端、眼尻、頬、口角の位置から抽出し、あるいは、これらの部位に貼り付けたマーカの位置から抽出するとよい。
例えば、図3に示すように、被検者1の眼尻32L、32Rのほか、頬の部位に貼り付けたマーカ35L、35R、口角の部位に貼り付けたマーカ36L、36Rの位置を画像データから算出し、その座標を左側可動特徴点座標16b(右側可動特徴点座標16c)としてメモリ16に記録する。
具体的な抽出方法については、このあとの実施例2〜3で説明する。
【0028】
次に、ステップS5(S6)では、取得した元画像データ16dの1フレーム分の画像について、不動特徴点および左側可動特徴点(右側可動特徴点)の位置関係をもとに、被検者1の顔面の左側(右側)の特徴量を左側特徴量(右側特徴量)として算出する。
なお、算出された特徴量は、左側特徴量15a(右側特徴量15b)としてデータ記憶領域15に記録する。
【0029】
なお、ステップS7として、元画像データ16dに、これらの特徴点(不動特徴点、左側可動特徴点、右側可動特徴点)を付加した画像を生成して、画像データ15cとして、データ記憶領域15に記録させる処理を加えることで、画像データと左右の特徴量を併せてディスプレイ11fに表示させることが可能となる。
【0030】
このように、被検者が表情を変えてもその表皮の位置の変化が小さい部位から不動特徴点を抽出し、被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から左右の可動特徴点をそれぞれ抽出し、不動特徴点および可動特徴点の位置関係をもとに、被検者の顔面の左右の特徴量をそれぞれ算出するので、撮影された被検者の動画像から、被検者の顔面の左側の動きと右側の動きを高速で精度よく測定できるとともに、両者の動きについての時間的差異もあわせて観察することができる。
また、表情としての変化が僅かであっても、被検者の顔の左右の非対称性の要因を排除した定量的な指標により、被検者の表情の変化を捉え、かつ、その変化をきたした部分を被検者の左側の表情の状況と、右側の表情の状況とに分離して観察することが可能となる。
また、被検者の目頭、鼻の位置あるいはこれらの部位に貼り付けたマーカの位置から不動特徴点を抽出し、被検者の眉毛の両端、眼尻、頬、口角の位置あるいはこれらの部位に貼り付けたマーカの位置から可動特徴点を抽出するので、前述した効果がより顕著に現れる。
【0031】
ここで、被検者1の表情を表す特徴量の算出については、次の4つのパターンが考えられる。
【0032】
すなわち、パターン1としては、ステップS2にて、不動特徴点を1以上抽出し、ステップS3(ステップS4)では、左側可動特徴点(右側可動特徴点)をそれぞれ1以上抽出し、ステップS5(ステップS6)では、不動特徴点1つと左側可動特徴点(右側可動特徴点)1つとの間の距離を、左側特徴量(右側特徴量)として算出するという方法がある。
図3の例でいえば、ステップS2にて鼻部分のマーカ33に対応する不動特徴点を抽出し、ステップS3(ステップS4)にて左口角(右口角)付近のマーカ36L(36R)に対応する左側可動特徴点(右側不動特徴点)を抽出する。
そして、図4(a)に示すように、ステップS5では、マーカ33に対応する不動特徴点と、マーカ36Lに対応する左側可動特徴点との間の距離Xを左側特徴量として算出し、ステップS6では、不動特徴点とマーカ36Rに対応する右側可動特徴点との間の距離Xを右側特徴量として算出する。
図4(b)は、距離Xおよび距離Xを表す時系列データであり、被検者1の頬の緊張度合いを左右それぞれについて観察することができる。
このように、不動特徴点1つと可動特徴点1つの2点で定まる距離を用いて特徴量を算出しているので、前述した効果に加え、被検者の顔面の左側の動きと右側の動きをより高速かつ高精度で測定することができる。
【0033】
また、パターン2としては、ステップS2にて、不動特徴点を1以上抽出し、ステップS3(ステップS4)では、左側可動特徴点(右側可動特徴点)をそれぞれ2以上抽出し、ステップS5(ステップS6)では、不動特徴点1つと左側可動特徴点(右側可動特徴点)2つの3点で定まる、角度、面積もしくは内積等の特徴量を左側特徴量(右側特徴量)として算出するという方法がある。
図3の例でいえば、ステップS2にて鼻部分のマーカ33に対応する不動特徴点を抽出し、ステップS3(ステップS4)にて左頬(右頬)部分のマーカ35L(35R)と、左口角(右口角)付近のマーカ36L(36R)に対応する左側可動特徴点(右側不動特徴点)を抽出する。
そして、図5(a)に示すように、ステップS5では、マーカ35Lおよびマーカ36Lに対応する左側可動特徴点と、マーカ33に対応する不動特徴点とを結んだ2直線のなす角度θを左側特徴量として算出し、ステップS6では、マーカ35Rおよびマーカ36Rに対応する右側可動特徴点と、マーカ33に対応する不動特徴点とを結んだ2直線のなす角度θを右側特徴量として算出する方法がある。
図5(b)は、角度θおよび角度θを表す時系列データであり、被検者1の頬の緊張度合いを左右それぞれについて観察することができる。
この実施例では、三点のなす角度を以って被検者の表情を定量化しているが、このほかにも、三点で定義される三角形の面積や、三点で作られる2つのベクトルで定義される内積の値を以って定量化する例が考えられる。
このように、不動特徴点1つと可動特徴点2つの3点で定まる角度、面積もしくは内積等を用いて特徴量を算出しているので、前述した効果に加え、被検者の顔面の左側の動きと右側の動きをより高速かつ高精度で測定することができる。
【0034】
また、パターン3としては、ステップS2にて、不動特徴点を2以上抽出し、ステップS3(ステップS4)では、左側可動特徴点(右側可動特徴点)をそれぞれ1以上抽出し、ステップS5(ステップS6)では、不動特徴点2つと左側可動特徴点(右側可動特徴点)1つの3点で定まる、角度、面積、内積もしくは不動特徴点を基準とした座標系における左側可動特徴点(右側可動特徴点)の座標等の特徴量を左側特徴量(右側特徴量)として算出するという方法がある。
図3の例でいえば、ステップS2にて両眼の目頭31Lおよび31Rに対応する不動特徴点を抽出し、ステップS3(ステップS4)にて左頬(右側)部分のマーカ35L(35R)に対応する左側可動特徴点(右側不動特徴点)を抽出する。
そして、図6(a)に示すように、ステップS5では、目頭31Rに対応する不動特徴点およびマーカ35Lに対応する左側可動特徴点と、目頭31Lに対応する不動特徴点とを結んだ2直線のなす角度θを左側特徴量として算出し、ステップS6では、目頭31Lに対応する不動特徴点およびマーカ35Rに対応する右側可動特徴点と、目頭31Rに対応する不動特徴点とを結んだ2直線のなす角度θを右側特徴量として算出する方法がある。
図6(b)は、角度θおよび角度θを表す時系列データであり、被検者1の頬の緊張度合いを左右それぞれについて観察することができる。
この実施例では、三点のなす角度を以って被検者の表情を定量化しているが、このほかにも、三点で定義される三角形の面積や、三点で作られる2つのベクトルで定義される内積の値を以って定量化する例が考えられる。
【0035】
また、パターン3の変形例として、被検者1の表情が変化しても、これら2つ不動特徴点の位置変化は小さいという性質を用いてもよい。すなわち、図7(a)に示すように、ステップS5では、左側可動特徴点の座標を不動特徴点基準の座標系に変換し、マーカ35Lに対応する左側可動特徴点の座標(X,Y)を左側特徴量として算出し、ステップS6では、右側可動特徴点の座標を不動特徴点基準の座標系に変換し、マーカ35Rに対応する右側可動特徴点の座標(X,Y)を右側特徴量として算出する方法がある。なお、図7(a)では、目頭31Lおよび31RをX軸方向上(横方向)におき、その中点を原点として不動特徴点基準の座標系を構築している。
図7(b)は、座標(X,Y)および座標(X,Y)を表す時系列データであり、被検者1の頬の緊張度合いを左右それぞれについて観察することができる。
このように、不動特徴点2つと可動特徴点1つの3点で定まる角度、面積、内積もしくは不動特徴点を基準とした座標系における可動特徴点の座標等を用いて特徴量を算出しているので、前述した効果に加え、被検者の顔面の左側の動きと右側の動きをより高速かつ高精度で測定することができる。
【0036】
また、パターン4としては、ステップS2にて、不動特徴点を2以上抽出し、ステップS3(ステップS4)では、左側可動特徴点(右側可動特徴点)をそれぞれ2以上抽出し、ステップS5(ステップS6)では、不動特徴点を基準とした座標系における不動特徴点2つと左側可動特徴点(右側可動特徴点)の座標等の特徴量を左側特徴量(右側特徴量)として算出するという方法がある。
図3の例でいえば、ステップS2にて両眼の目頭31Lおよび31Rに対応する不動特徴点を抽出し、ステップS3(ステップS4)にて左眼尻(右眼尻)部分32L(32R)と、左口角(右口角)付近のマーカ36L(36R)に対応する左側可動特徴点(右側不動特徴点)を抽出する。
そして、図8(a)に示すように、ステップS5では、左側可動特徴点の座標を不動特徴点基準の座標系に変換し、左眼尻32L、マーカ36Lおよび目頭31Lの三点で定義される三角形の重心位置座標(X,Y)を左側特徴量として算出し、ステップS6では、右側可動特徴点の座標を不動特徴点基準の座標系に変換し、右眼尻32R、マーカ36Rおよび目頭31Rの三点で定義される三角形の重心位置座標(X,Y)を左側特徴量として算出する方法がある。
図8(b)は、座標(X,Y)および座標(X,Y)を表す時系列データであり、被検者1の頬の緊張度合いを左右それぞれについて観察することができる。
このように、不動特徴点2つと可動特徴点2つの4点で定まる特定の座標系での三角形の重心位置の座標等を用いて特徴量を算出しているので、前述した効果に加え、被検者の顔面の左側の動きと右側の動きをより高速かつ高精度で測定することができる。
【0037】
なお、パターン3やパターン4のように、2つ不動特徴点を用いる場合には、ステップS7で画像データ15cを生成するにあたり、元画像データ16dの各画素を不動特徴点基準の座標系に変換しておくことが好ましい。元画像データ16dを不動特徴点の座標系に変換することで、被検者1の頭の動きといった外乱要素を取り除いた形で被検者1を観察することができる。
【実施例2】
【0038】
実施例2を図9に基づいて説明する。
実施例2は、被検者1の顔が撮影された元画像データ16dから、被検者1の顔面に貼り付けたマーカの位置を特定するための方法について説明している。
【0039】
前述した通り、実施例1の図3における元画像データ16dでは、被検者1の鼻の中央付近にマーカ33を貼り付け、左頬、右頬にそれぞれマーカ35L、35Rを貼り付け、左右それぞれの口角付近にマーカ36L、36Rを貼り付けた状態で撮影が行われている。
そして、マーカ33、35L、35R、36L、36Rは白と黒の2色で構成されており、元画像データ16dの各画素の明るさで閾値を定め、画像処理を行うことで、これらマーカを抜き出すことが可能である。すなわち、元画像データ16dの画素のうち、マーカの外輪を抽出するため、一定値以上の暗さとなる部分を図9(a)のように抜き出す。抜き出した画像には、マーカ35R、36R、33、36L、35Lに対応する領域91a〜95aのほか、マーカに対応しない領域96〜99が含まれることがある。したがって、抜き出した領域がマーカであることを確認するために、図9(a)の各領域91a〜95a、96〜99の中から、一定値以上の明るさとなる部分を図9(b)のように抜き出す。領域91b〜95bのように、白と黒の2色で構成される領域であれば、これらがマーカであると判断して、各領域91a〜95aの中心部分が不動特徴点、左側可動特徴点あるいは右側可動特徴点として特定される。
【実施例3】
【0040】
実施例3を図10〜図12に基づいて説明する。
実施例3は、被検者1の顔が撮影された元画像データ16dから、マーカを用いることなしに被検者1の眼の位置を、特定するための方法について説明している。
【0041】
眼の位置の抽出にあたっては、まず、元画像データ16dの各画素の濃度値を縦方向で微分して、その微分された画素によって構成される画像を生成し、その微分画像の画素値を横方向で積算して得られるヒストグラムを作成する。
図10において、101は元画像データ16dの微分画像であり、被検者1の瞼の淵部分などといった被検者の眼の特徴的部分が現れる。積算方向102に従って、各画素の明るさを積算してゆくと、その横方向ヒストグラムが103の通りとなり、ヒストグラムが最大値104を取るライン105上に瞼があると推測できる。
【0042】
その後、微分画像101から、ライン105の周囲の領域106を切り出すとともに、切り出した微分画像の画素値を縦方向で積算して得られるヒストグラムを作成する。
図11において、111はその切り出し画像であり、被験者のプルキンエ像を取る瞳孔の中心部分が現れる。積算方向112に従って各画素の明るさを積算してゆくと、そのヒストグラムが113の通りとなり、ヒストグラムが極大値114L、114Rを取る2つのライン115L、115R上に眼の中心があると推測できる。そして、3つのライン105、115L、115Rの交差する2点を基準として、被検者の左眼の領域116L、右眼の領域116Rを特定することができる。
【0043】
そして、あらかじめ図12に示すようなテンプレート画像を用意しておき、図11で特定した各領域116L、116Rの範囲内で、被検者1の目頭や眼尻の詳細な位置を特定する。特定にあたっては、テンプレートマッチング技術を適用し、相関の最も高い場所を眼尻や目頭を表す不動特徴点、左側可動特徴点あるいは右側可動特徴点として特定する。
【0044】
なお、眼部領域の推定やテンプレートマッチングにおいては、被検者1の瞬きや、元画像データ16dに含まれるノイズの影響もあり、眼尻や目頭の位置が推定できない場合や、推定した位置と実際の位置との差(誤差)が大きくなる場合が考えられる。
こういった問題を解消するため、ひとつ前のコマにて撮影したフレーム画像で特定された眼尻や目頭の位置の情報を活用しながら、あるいは、別の画像処理技術を活用しながら、眼尻や目頭の位置を特定することが好ましい。
【産業上の利用可能性】
【0045】
本発明は、人の表情から精神状態や感情を推定するために用いられ、特に、撮影された被検者の動画像から、被検者の顔面の左側の動きと右側の動きを高速で精度よく測定するとともに、両者の動きについての時間的差異もあわせて測定することができる。
【符号の説明】
【0046】
1 被検者
2 検査者
10 表情測定装置
11 計算機
11a CPU
11b クロック
11c グラフィックカード
11d 入力端子
11e ビデオキャプチャ
11f ディスプレイ
11g キーボード
12 ビデオカメラ
13 記憶装置
14 プログラム記憶領域
14a ビデオ画像取得プログラム
14b 表情測定プログラム
15 データ記憶領域
15a 左側特徴量
15b 右側特徴量
15c 画像データ
16 メモリ
16a 不動特徴点座標
16b 左側可動特徴点座標
16c 右側可動特徴点座標
16d 元画像データ
17 赤外照明
33、35L、35R、36L、36R マーカ
31L、31R 目頭
32L、32R 眼尻
91a〜95a、91b〜95b、96〜99 領域
101 微分画像
102、112 積算方向
103 横方向ヒストグラム
104 最大値
105 横方向ライン
106 切り出し領域
111 切り出し画像
113 縦方向ヒストグラム
114L、114R 極大値
115L、115R 縦方向ライン
116L 左眼領域
116R 右眼領域

【特許請求の範囲】
【請求項1】
被検者の顔の動画像を取得する手順1と、
前記動画像の各コマについて、前記被検者の顔面にあって前記被検者が表情を変えてもその表皮の位置の変化が小さい部位から1以上の特徴点を不動特徴点として抽出する手順2と、
前記動画像の各コマについて、前記被検者の顔面の左側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を左側可動特徴点として抽出する手順3と、
前記動画像の各コマについて、前記被検者の顔面の右側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を右側可動特徴点として抽出する手順4と、
前記動画像の各コマについて、前記不動特徴点および前記左側可動特徴点の位置関係をもとに、前記被検者の顔面の左側の特徴量を左側特徴量として算出する手順5と、
前記動画像の各コマについて、前記不動特徴点および前記右側可動特徴点の位置関係をもとに、前記被検者の顔面の右側の特徴量を右側特徴量として算出する手順6と、
によって、前記被検者の表情の左右の変化をそれぞれ測定する表情測定方法。
【請求項2】
前記手順2では、前記被検者の目頭、鼻の位置あるいはこれらの部位に貼り付けたマーカの位置から不動特徴点を抽出し、
前記手順3および手順4では、前記被検者の眉毛の両端、眼尻、頬、口角の位置あるいはこれらの部位に貼り付けたマーカの位置から左側可動特徴点および右側可動特徴点をそれぞれ抽出する
ことを特徴とする請求項1に記載の表情測定方法。
【請求項3】
前記手順2では、前記不動特徴点を1以上抽出し、
前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ1以上抽出し、
前記手順5では、前記不動特徴点1つと前記左側可動特徴点1つとの間の距離を前記左側特徴量として算出し、
前記手順6では、前記不動特徴点1つと前記右側可動特徴点1つとの間の距離を前記右側特徴量として算出する
ことを特徴とする請求項1または請求項2に記載の表情測定方法。
【請求項4】
前記手順2では、前記不動特徴点を1以上抽出し、
前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ2以上抽出し、
前記手順5では、前記不動特徴点1つと前記左側可動特徴点2つの3点で定まる、角度、面積もしくは内積等の特徴量を前記左側特徴量として算出し、
前記手順6では、前記不動特徴点1つと前記右側可動特徴点2つの3点で定まる、角度、面積もしくは内積等の特徴量を前記右側特徴量として算出する
ことを特徴とする請求項1または請求項2に記載の表情測定方法。
【請求項5】
前記手順2では、前記不動特徴点を2以上抽出し、
前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ1以上抽出し、
前記手順5では、前記不動特徴点2つと前記左側可動特徴点1つの3点で定まる、角度、面積、内積もしくは前記不動特徴点を基準とした座標系における前記左側可動特徴点の座標等の特徴量を前記左側特徴量として算出し、
前記手順6では、前記不動特徴点2つと前記右側可動特徴点1つの3点で定まる、角度、面積、内積もしくは前記不動特徴点を基準とした座標系における前記右側可動特徴点の座標等の特徴量を前記右側特徴量として算出する
ことを特徴とする請求項1または請求項2に記載の表情測定方法。
【請求項6】
前記手順2では、前記不動特徴点を2以上抽出し、
前記手順3および前記手順4では、前記左側可動特徴点および前記右側可動特徴点をそれぞれ2以上抽出し、
前記手順5では、前記不動特徴点を基準とする座標系における前記不動特徴点2つと前記左側可動特徴点1つの3点または前記不動特徴点1つと前記左側可動特徴点2つの3点で定まる三角形の重心位置の座標等の特徴量を前記左側特徴量として算出し、
前記手順6では、前記不動特徴点を基準とする座標系における前記不動特徴点2つと前記右側可動特徴点1つの3点または前記不動特徴点1つと前記右側可動特徴点2つの3点で定まる三角形の重心位置の座標等の特徴量を前記右側特徴量として算出する
ことを特徴とする請求項1または請求項2に記載の表情測定方法。
【請求項7】
被検者の顔面の動画像を取得するステップS1と、
前記動画像の各コマについて、前記被検者の顔面にあって前記被検者が表情を変えてもその表皮の位置の変化が小さい部位から1以上の特徴点を不動特徴点として抽出するステップS2と、
前記動画像の各コマについて、前記被検者の顔面の左側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を左側可動特徴点として抽出するステップS3と、
前記動画像の各コマについて、前記被検者の顔面の右側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を右側可動特徴点として抽出するステップS4と、
前記動画像の各コマについて、前記不動特徴点および前記左側可動特徴点の位置関係をもとに、前記被検者の顔面の左側の特徴量を左側特徴量として算出するステップS5と、
前記動画像の各コマについて、前記不動特徴点および前記右側可動特徴点の位置関係をもとに、前記被検者の顔面の右側の特徴量を右側特徴量として算出するステップS6と、
によって、前記被検者の表情の左右の変化をそれぞれ測定する表情測定プログラム。
【請求項8】
被検者の顔面の動画像を撮影するカメラと、前記カメラの画像を取り込んで情報処理を行う情報処理装置を備え、
前記情報処理装置は、前記カメラによって撮影された前記被検者の顔面の動画像を取得して、前記被検者の表情の左右の変化をそれぞれ測定するため、
被検者の顔の動画像を取得する手順1と、
前記動画像の各コマについて、前記被検者の顔面にあって前記被検者が表情を変えてもその表皮の位置の変化が小さい部位から1以上の特徴点を不動特徴点として抽出する手順2と、
前記動画像の各コマについて、前記被検者の顔面の左側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を左側可動特徴点として抽出する手順3と、
前記動画像の各コマについて、前記被検者の顔面の右側にあって前記被検者が表情を変えたときにその表皮の位置の変化が小さくない部位から1以上の特徴点を右側可動特徴点として抽出する手順4と、
前記動画像の各コマについて、前記不動特徴点および前記左側可動特徴点の位置関係をもとに、前記被検者の顔面の左側の特徴量を左側特徴量として算出する手順5と、
前記動画像の各コマについて、前記不動特徴点および前記右側可動特徴点の位置関係をもとに、前記被検者の顔面の右側の特徴量を右側特徴量として算出する手順6と、
からなる表情測定プログラムを備えた表情測定装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate


【公開番号】特開2010−166939(P2010−166939A)
【公開日】平成22年8月5日(2010.8.5)
【国際特許分類】
【出願番号】特願2009−9462(P2009−9462)
【出願日】平成21年1月20日(2009.1.20)
【出願人】(399076312)安川情報システム株式会社 (77)
【出願人】(000000376)オリンパス株式会社 (11,466)
【Fターム(参考)】