説明

情報処理装置、情報処理方法、情報処理システムおよびプログラム

【課題】化粧支援技術を向上させる情報処理装置、情報処理方法、情報処理システムおよびプログラムを提供する。
【解決手段】画像を撮像する撮像部と、前記撮像部から順次画像を取得し、前記取得した画像内の顔パーツを認識する画像認識部と、前記画像認識部から出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示する表示制御部と、を備える、情報処理装置。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法、情報処理システムおよびプログラムに関する。
【背景技術】
【0002】
化粧を支援する技術として、化粧完成後の状態をシミュレーションする化粧シミュレーションが様々提案されている。
【0003】
例えば、特許文献1では、ユーザの肌画像において小じわや毛穴等の肌の表面凹凸状態を変化させたシミュレーション画像を表示する方法が提案されている。これにより、特定の化粧品を使用することにより改善される小じわや毛穴の目立ち具合を提示することができる。また、特許文献2では、屋内の人工光下と屋外の自然光下では化粧の印象が異なることを考慮し、様々な光の状態の下で化粧の印象を映像化する補助装置が提案されている。これによりユーザは任意のイベントに最適な化粧を選ぶことができる。
【0004】
さらに、特許文献3では、被写体の二次元の顔画像を取得し、標準塗布形状を被写体の顔画像に変形合成することにより、所望する化粧品を塗布した状態を生成する化粧シミュレーション装置が提案されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2006−133856号公報
【特許文献2】特開2001−186923号公報
【特許文献3】特開2009−53981号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかし、上記化粧シミュレーションにより生成される合成画像は、顔正面からの静止画像であるため、リアルタイムに様々な角度からの化粧シミュレーションを確認することが出来ないという問題があった。また、化粧完成後の状態を確認できても、実際にユーザ自ら化粧を実践してシミュレーションされた状態にすることは困難であった。したがって、化粧シミュレーションなどの化粧支援技術をさらに向上することが求められる。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、化粧支援技術を向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法、情報処理システムおよびプログラムを提供することにある。
【課題を解決するための手段】
【0007】
上記課題を解決するために、本発明のある観点によれば、画像を撮像する撮像部と、前記撮像部から順次画像を取得し、前記取得した画像内の顔パーツを認識する画像認識部と、前記画像認識部から出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示する表示制御部と、を備える情報処理装置が提供される。
【0008】
また、前記表示制御部は、前記仮想的な化粧画像として化粧完成画像を表示してもよい。
【0009】
また、前記表示制御部は、前記仮想的な化粧画像として化粧動作画像を表示してもよい。
【0010】
また、前記情報処理装置は、前記仮想的な化粧画像を、化粧技術情報に基づいて生成する画像生成部をさらに備えてもよい。
【0011】
また、前記情報処理装置は、前記画像認識部から出力される認識結果に基づいて、顔情報を分析する分析部と、前記分析部から出力される分析結果に応じて、推薦する化粧パターンを判断する推薦化粧パターン判断部と、をさらに備え、前記化粧パターンは、前記化粧技術情報から構成され、前記画像生成部は、前記推薦化粧パターン判断部により推薦化粧パターンと判断された化粧パターンの化粧技術情報に基づいて前記仮想的な化粧画像を生成してもよい。
【0012】
また、前記情報処理装置は、前記撮像部で撮像された画像と予め生成された化粧完成画像とを比較することにより、化粧の進行度を判断する化粧進行度判断部をさらに備え、前記表示制御部は、前記化粧進行度判断部による判断結果に応じて変化する化粧動作画像を前記画像に順次重畳表示してもよい。
【0013】
また、前記表示制御部により順次表示される化粧動作画像の順序は、ユーザの操作に応じて変更されてもよい。
【0014】
また、上記課題を解決するために、本発明の別の観点によれば、画像を撮像するステップと、前記撮像するステップにより順次画像を取得し、前記取得した画像内の顔パーツを認識するステップと、前記認識するステップにより出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示するステップと、を含む情報処理方法が提供される。
【0015】
また、上記課題を解決するために、本発明の別の観点によれば、画像を撮像する撮像部と、前記撮像部から順次画像を取得し、前記取得した画像内の顔パーツを認識する画像認識部と、前記画像認識部から出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示する表示制御部と、を備える、情報処理装置と;前記画像認識部から出力される認識結果に基づいて、顔情報を分析する分析部と、前記分析部から出力される分析結果に応じて、推薦する化粧パターンを判断する推薦化粧パターン判断部と、を備える、サーバと;を備え、前記情報処理装置は、前記サーバから取得した推薦化粧パターンの化粧技術情報に基づいて前記仮想的な化粧画像を生成する情報処理システムが提供される。
【0016】
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、画像を撮像する撮像部と、前記撮像部から順次画像を取得し、前記取得した画像内の顔パーツを認識する画像認識部と、前記画像認識部から出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示する表示制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。
【発明の効果】
【0017】
以上説明したように本発明によれば、化粧支援技術を向上させることが可能である。
【図面の簡単な説明】
【0018】
【図1】第1の実施形態に係る化粧支援装置の概要を示す図である。
【図2】第1の実施形態に係る化粧支援装置の構成の一例を示すブロック図である。
【図3】第1の実施形態に係る化粧支援装置により実行される化粧支援処理を示すフローチャートである。
【図4】図3に示すシミュレーション提示処理について説明するためのフローチャートである。
【図5】第1の実施形態に係る化粧支援装置の表示制御の一例を説明するための図である。
【図6】第1の実施形態に係る化粧支援装置とユーザとの位置関係を示す図である。
【図7】化粧技術情報の一例を示す図である。
【図8】第1の実施形態に係る化粧支援装置の表示制御の一例を説明するための図である。
【図9】変形例1の化粧支援装置の構成の一例を示すブロック図である。
【図10】変形例2の化粧支援装置の表示画面を示す図である。
【図11】第2の実施形態に係る化粧支援システムの概要を示す図である。
【図12】第2の実施形態に係る化粧支援装置の構成の一例を示す図である。
【図13】第3の実施形態に係る化粧支援システムの概要を示す図である。
【図14】第3の実施形態に係る化粧支援装置の構成の一例を示す図である。
【図15】第4の実施形態に係る化粧支援システムの概要を示す図である。
【図16】第4の実施形態に係る化粧支援装置の構成の一例を示す図である。
【発明を実施するための形態】
【0019】
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0020】
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
(1−1)化粧支援装置の概要
(1−2)化粧支援装置の構成例
(1−3)処理の流れの例
(1−4)AR画像の例
(1−5)変形例
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.第5の実施の形態
6.第6の実施の形態
7.まとめ
【0021】
近年、実世界に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、テキスト、アイコン又はアニメーションなどの様々な形態の仮想的なオブジェクトを用いて可視化され得る。AR技術の主要な適用分野の1つは、実世界でのユーザ活動の支援である。以下では、このAR技術を化粧支援技術に適用する。これによれば、ユーザの化粧技術を向上させることができる。
【0022】
AR技術を利用した化粧支援技術は、化粧完成後の状態をシミュレーションしてユーザに示す化粧支援のためのシステムに適用可能である。また、前記システムでは、実際にシミュレーション通りに化粧を行うことは一般のユーザにとって困難であることを考慮して、AR技術を利用した化粧支援技術は、化粧完成後だけでなく化粧途中の手順を表示し、これにより、化粧支援技術をさらに向上させることが可能である。
【0023】
以下の<1.第1の実施形態>〜<6.第6の実施形態>の説明では、情報処理装置の一例である化粧支援装置を用いて、化粧技術を向上させるシステムについて説明する。
【0024】
<1.第1の実施形態>
(1−1)化粧支援装置の概要
まず、第1実施形態に係る化粧支援装置1の概要を、図1を参照しながら説明する。図1に示すように、本実施形態に係る化粧支援装置1は、タッチパネルディスプレイを備えたタブレット型の端末である。よって、表示部18は、表示機能だけでなく、ユーザからの操作入力を受け付ける操作部19としても機能する。図1に示す例では、化粧支援装置1に設けられるカメラ10によりユーザの顔画像を撮像する。表示部18には当該顔画像に仮想的な化粧画像が重畳されたAR画像が表示される。ここでは、ユーザの顔画像が実空間の映像であり、化粧画像が、実空間の映像に重畳される仮想的なオブジェクトである。
【0025】
仮想的な化粧画像とは、例えば化粧完成の状態を示す化粧完成画像や、化粧の途中において化粧の手順や仕方を示すために使用される化粧動作画像を含む。ユーザは、自分の顔画像に化粧完成画像が重畳されたAR画像を見ることで、事前に化粧完成後の状態を確認することができる。特に、化粧動作画像は、化粧の手順や仕方を静的又は動的に表示するために、化粧の途中においてユーザの実際の顔パーツに重畳して表示される。化粧の手順を、ユーザの顔パーツに重畳して動的に表示することにより、ユーザは化粧の際の手の動きを知ることができる。よって、ユーザは、自分の顔画像に化粧動作画像が重畳されたAR画像を見ながら、化粧動作画像と同様に手を動かすだけで容易に自ら化粧を行うことができる。これにより、言語での化粧アドバイスに比べて、ユーザの化粧技術がより向上する。ここで、表示部18には、カメラ10で撮像した画像の左右が反転して表示される。これにより、ユーザは自分の顔を化粧鏡で写したように見える。なお、表示部18に表示されるAR画像については、後述する「(1−4)AR画像の例」において図6〜図8を参照して詳細に説明する。
【0026】
(1−2)化粧支援装置の構成例
次に、図2を参照して、本実施形態に係る化粧支援装置1の構成の一例について説明する。図2に示すように、化粧支援装置1は、カメラ10、画像認識部11、ユーザ顔情報分析部12、推薦化粧パターン判断部13、化粧技術DB14、化粧画像生成部15、表示制御部17、表示部18および操作部19を有する。画像認識部11は、顔・パーツ認識部110とSLAM処理部111を有する。
【0027】
カメラ10は、実空間を撮像することにより画像(映像)を取得する撮像部の一例である。カメラ10は、ユーザの顔画像を撮像する。ユーザは、化粧支援装置1を利用して化粧を行う際、化粧支援装置1に顔を向ける。よって、化粧支援装置1に設けられたカメラ10は、ユーザの顔を撮像することになる。カメラ10は、撮像した画像を画像認識部11へ出力する。例えばユーザの顔を撮像した画像の一例として、図5の左図に示した画像(映像)181を画像認識部11へ出力する。
【0028】
画像認識部11は、カメラ10から取得した撮像画像に対して画像認識処理を実行する。具体的には、画像認識部11の顔・パーツ認識部110により、まず撮像画像内の顔を認識し、顔を認識できた場合は、次いで、顔パーツを認識する。顔・パーツ認識部110は、パターン認識などの公知の画像認識手法を用いて顔および顔パーツを認識してもよい。顔・パーツ認識部110は、認識結果(顔パーツ、顔パーツ位置情報)をユーザ顔情報分析部12に出力する。なお、顔・パーツ認識部110は、撮像画像内にユーザの顔の一部や肩や首、頭、髪等が存在することを認識した場合にも、撮像画像内の顔を認識したと判断することができる。
【0029】
また、画像認識部11のSLAM処理部111により、例えば、Andrew J.Davisonによる“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されているSLAM(Simultaneous Localization and Mapping)技術の原理に従って、顔・顔パーツの3次元位置、姿勢や、カメラ10の3次元位置、姿勢が認識される。これにより、ユーザが自ら化粧を行う間、目や口などの顔パーツが手で隠れたり、顔の向きを変えたりした場合でも、SLAM処理部111は、最初やその後に認識された目や口などの顔パーツが、次の画像でどこに移動したかをトラッキングすることにより、顔の動きに追従して顔パーツの位置を認識することができる。
【0030】
ユーザ顔情報分析部12は、顔・パーツ認識部110から出力された認識結果(顔パーツ情報)に基づいて、顔情報を分析する。具体的には、顔パーツ情報に含まれる顔パーツ位置および顔パーツ画像から、肌の質、肌理および髪質などの質感に関する情報や、輪郭、パーツの配置および髪型などの形状に関する情報を分析する。ユーザ顔情報分析部12は、分析した顔情報を推薦化粧パターン判断部13に出力する。
【0031】
化粧技術DB14には、パターン毎に化粧技術情報が格納されている。推薦化粧パターン判断部13は、化粧技術DB(データベース)14に格納されている化粧技術情報に基づいて、ユーザ顔情報分析部12から取得した顔情報に対して推薦する化粧パターンを判断する。
【0032】
推薦する化粧パターンは、一般的な流行だけでなく、地域的、年代的など、ユーザの所属する小規模なコミュニティにふさわしい化粧パターンを推薦することも可能である。ユーザが所属する地域、年代等はユーザ自らユーザ情報として入力する。また、性別を入力し、男性に適した化粧パターンを推薦することも可能である。
【0033】
図3は、化粧技術情報の一例を示す図である。化粧技術情報は、図3に示すように、Pattern ID:化粧パターンのID、Context ID:Usual、Party、Outdoorなど化粧目的や環境などのID、Process:手順の番号、Item ID: 化粧品(商品)のID、Tool ID:パフ、筆のような道具のID、Action ID:道具につける、描く、はたく、押しつけるなどの動作ID、Parts ID:目、眉毛など、顔上にあるパーツのID、Pressure:道具への圧力、Direction:道具の動作方向、Motion:道具の動き、Distance:基準となる顔パーツからのズレ、Length:化粧品を付ける長さ(距離)のデータを有する。
【0034】
Context IDは、ユーザが予め化粧目的や環境を設定するモード設定を行った場合に利用される情報であり、推薦化粧パターン判断部13は、顔情報に加えて設定されたモードを参照して推薦化粧パターンを判断する。なお、推薦化粧パターンの判断は、推薦の順序を決める判断でもよい。この場合、例えば上位3つの化粧パターンを推薦化粧パターンとしてユーザに提示し、ユーザがいずれの化粧パターンも選択しなかった場合にさらに次の3つの化粧パターンを推薦化粧パターンとして提示する。
【0035】
図3に示す化粧技術情報は化粧の仕方(動作)を示す情報であるが、これらは化粧完成画像の生成にも利用され得る。推薦化粧パターン判断部13は、推薦化粧パターンの化粧技術情報を画像生成部15に出力する。若しくは、推薦化粧パターンのIDを出力し、画像生成部15が当該IDに基づいて化粧技術DBから推薦化粧パターンの化粧技術情報を取得してもよい。
【0036】
画像生成部15は、推薦化粧パターンの化粧技術情報に基づいて撮像画像に重畳する仮想情報である化粧画像を描画し、SLAM処理部111の認識結果(3次元位置・姿勢)に含まれる顔パーツの位置、姿勢に対応させて化粧画像を変形させる。また、画像生成部15は、顔・パーツ認識部110から出力される認識結果(顔パーツ情報)を利用して化粧画像を変形させてもよい。画像生成部15が生成する化粧画像については、「(1−4)AR画像の例」で詳述する。画像生成部15は、生成した化粧画像を表示制御部17に出力する。
【0037】
表示制御部17は、実空間を撮像した画像に、仮想的な化粧画像を重畳したAR画像を表示部18に表示させる。これにより、ユーザは表示部18に表示される自分の顔画像に対して行われる化粧の動作や、化粧後の自分の顔を見ることができる。
【0038】
(1−3)処理の流れの例
次に、図4および図5のフローチャートを用いて、第1実施形態に係る化粧支援装置1における処理の流れを説明する。
【0039】
まず、ステップS62において、カメラ10によりユーザの顔を撮像した画像(撮像画像)が入力される。次いで、ステップS64において、撮像画像が表示部18に表示される。次いで、ステップS65において、ユーザによるモード設定を行ってもよい。モード設定により、Usual、Party、Outdoor、Dateなど化粧目的や環境などの情報を入力することで(ステップS66)、ユーザの所望するモードに適した化粧パターンが推薦されるよう設定する。
【0040】
一方、ユーザによるモード設定が行われなかった場合は(ステップS65/No)、ステップS67において、画像認識部11により撮像画像から顔パーツが認識される。続いて、ステップS68において、ユーザ顔情報分析部12は、画像認識部11で認識された顔パーツから顔情報を分析する。
【0041】
次に、ステップS70において、推薦化粧パターン判断部13により推薦する化粧パターンを判断し、ユーザの顔に重畳して提示する。推薦化粧パターン判断部13は、ユーザ顔情報分析部12から出力された顔情報、又はユーザによりモード設定が行われた場合は設定されたモードを考慮し、化粧技術DB14に格納される各化粧パターンからユーザに適する化粧パターンを推薦化粧パターンとして判断する。推薦化粧パターンは、表示部18に表示されることによりユーザに提示される。ここで、表示部18に提示される化粧推薦パターンは、図6に示す見本画像182a〜cのように、予め生成されたモデルの顔に化粧が施された画像でもよい。
【0042】
ステップS72で複数の推薦化粧パターンが提示された場合は(ステップS72/Yes)、ステップS74においてユーザにより任意の推薦化粧パターンが選択される。
【0043】
次に、ステップS76において、化粧支援装置1は、推薦化粧パターンから生成される仮想的な化粧画像を実空間の顔を撮像した画像に重畳したAR画像を表示部18に表示させる処理を行う(図6に示すAR画像183参照)。かかるシミュレーション提示処理(AR画像表示処理)については、図5のフローチャートを用いて後述する。
【0044】
次に、ステップS78において、シミュレーション提示された推薦化粧パターンの決定確認がユーザによりOKされると、ステップS80において、決定された化粧パターンの化粧動作画像が提示される。化粧動作画像については図8を参照して後述する。
【0045】
一方、提示された推薦化粧パターン中に好みの化粧パターンが無かった場合は(ステップS78/No)、次の推薦化粧パターンが提示される(ステップS70)。例えば推薦化粧パターン判断部13により推薦リストが生成されている場合は、リストの上位から順に推薦化粧パターンとして提示される。ステップS70〜S78は、好みの化粧パターンが選択されるまで繰り返し処理される。なお、ステップS66におけるモード設定からやりなおしてもよい。
【0046】
以上、本実施形態に係る化粧支援装置1における処理について説明した。続いて、上述したステップS76に示すシミュレーション提示処理について図5を参照して説明する。
【0047】
まず、図5に示すように、ステップS84において、顔・パーツ認識部110により撮像画像から顔パーツ位置を認識する処理が行われる。顔パーツ位置が認識された場合は(ステップS86/Yes)、ステップS88において、顔特徴点の属性が更新される。顔特徴点とは、SLAM処理で3次元認識のために追跡する画像中の認識対象であるオブジェクト(本実施形態では、顔・顔パーツ)上のランドマークである。
【0048】
さらに、ステップS90において、SLAM処理部111により撮像画像中の認識対象である顔パーツの3次元位置、姿勢を認識する処理を行う。
【0049】
上記各認識処理によって撮像画像中の顔パーツの位置が認識出来ると(ステップS92/Yes)、続いてステップS94において、化粧画像生成部15により仮想的な化粧画像を生成する。次いで、ステップS96において、実空間の撮像画像であるユーザの顔に仮想情報である化粧画像を重畳させたAR画像を表示する。
【0050】
以上、本実施形態に係る化粧支援装置1におけるシミュレーション提示処理について説明した。次に、本実施形態に係る化粧支援装置1の表示部18に表示されるAR画像の例について図面を参照して説明する。
【0051】
(1−4)AR画像の例
本実施形態に係るAR画像は、実空間を撮像した撮像画像に仮想的な化粧画像を重畳させた画像である。重畳させる化粧画像は、化粧パターンの化粧技術情報に基づいて生成される化粧完成画像でもよい。例えば、図6のAR画像183のように、仮想的な化粧完成画像185がユーザの顔画像181に重畳される。これにより、ユーザは推薦化粧パターンで化粧を行った場合の完成状態を事前に確認することができる。
【0052】
さらに、ユーザは様々な角度からAR画像を確認することが可能である。以下、図6および図7を参照して説明する。
【0053】
ユーザは、図6のAR画像183で顔正面からの化粧状態を確認した後、次に横顔の化粧状態を確認したい場合は、例えば図7に示すように横を向く。これにより、カメラ10で撮像する画像中のユーザの顔の位置、姿勢が変化する。ここで、図4に示すシミュレーション提示処理は繰り返し行われているため、画像内のユーザの顔の位置、姿勢が変化した場合には、その変化をリアルタイムにトラッキングすることができ、これにより、画像内のユーザの変化に伴って仮想情報である化粧画像を重畳する位置や形状を変化させることができる。したがって図6のAR画像184に示すように、仮想的な化粧完成画像は、認識される顔パーツの位置をトラッキングして形状を変化させながら表示される。よって、ユーザはリアルタイムに様々な角度からAR画像を確認することができる。
【0054】
また、重畳させる仮想的な化粧画像は、化粧パターンの化粧技術情報に基づいて生成される化粧動作画像でもよい。例えば図3に示す化粧技術情報のパターンID「P−00001」の化粧パターンの場合は、プロセス001;T−221の道具に、20の圧で、I−201の化粧品を付け、次に、プロセス002;P−002の顔パーツ(例えば頬)に、ズレなしで(Distance=0)、12の圧力で、直線(Motion=2)で、長さ(Length)21でI−201の化粧品を塗る手順を示す化粧動作画像が重畳表示される。重畳表示される化粧動作画像は上記プロセスの番号順に表示されるが、次の手順の化粧動作画像を表示するタイミングについては後述する変形例で一例を説明する。
【0055】
化粧動作画像は、図6を用いて説明した化粧完成画像と同様に、画像内のユーザの顔パーツの位置、姿勢の変化に応じて重畳位置が変化する(トラッキング表示)。したがって、例えば図8に示すように、アイブローペンシルを持った手が点線で示された化粧領域に沿って動く化粧動作画像187aは、画像内のユーザの顔パーツの位置、姿勢の変化に応じて、化粧動作画像187bに変化する。すなわち、化粧動作画像は顔パーツにトラッキングする。よって、ユーザはリアルタイムに様々な角度から化粧手本とする化粧動作画像を確認することができ、より忠実に化粧を行うことができる。
【0056】
以上、AR画像の例について説明した。なお、仮想的な化粧画像は2次元情報でもよいし、3次元情報でもよい。
【0057】
(1−5)変形例
次に、上述した第1の実施形態に係る化粧支援装置1の変形例について図9を参照して説明する。図9は、本変形例に係る化粧支援装置の構成を示すブロック図である。本変形例に係る化粧支援装置は、図9に示すように、カメラ10、画像認識部11、ユーザ顔情報分析部12、推薦化粧パターン判断部13、化粧技術DB14、化粧画像生成部15、化粧進行度判断部16、表示制御部17、表示部18および操作部19を有する。画像認識部11は、顔・パーツ認識部110とSLAM処理部111を有する。
【0058】
化粧進行度判断部16は、画像認識部11から出力された認識結果と、予め生成された化粧完成画像とを比較することにより、ユーザによる現実の化粧進行度を判断する。化粧画像生成部15は、化粧進行度判断部16から出力された進行度に応じて、重畳表示する化粧動作画像を変化させる。その他の構成は前述と同様であるため、詳細な説明は省略する。
【0059】
上記構成により、例えば、ユーザが行っている化粧が完成に近付くほど、化粧動作画像を透明化させることができる。これにより、ユーザは現在行っている化粧がどの程度完成に近付いているか視覚的に確認することができる。また、次の手順の化粧動作画像を表示するタイミングを、ユーザが行った化粧の進行度に応じて決定してもよい。これにより、示した手順による化粧が完成すると自動的に次の手順の化粧動作画像が表示される。
【0060】
上述した次の手順の化粧動作画像を表示するタイミングは、ユーザの操作をトリガとしてもよい。例えば、次の手順の表示が指示された場合は、強制的に次の手順の化粧動作画像を表示する。また、ユーザの操作により手順をスキップすることも可能である。さらに、ユーザの手が近付いた顔パーツの化粧動作画像を表示してもよい。なお、化粧手順的に手順を変更することが好ましくない場合は、その旨の警告を表示してもよい。
【0061】
また、図10に示すように、化粧動作画像を重畳させたAR画像190に加えて、化粧完成画像を重畳した画像191を表示していてもよい。これにより、ユーザは化粧完成状態も確認しながら化粧を行うことができる。
【0062】
<2.第2の実施形態>
次に、本発明の第2の実施形態による化粧支援システムについて図11および図12を参照して説明する。本実施形態により、所望するメークアップアーティストの化粧サービスを受けることができる。
【0063】
図11は、本実施形態による化粧支援システムの概要を示す図である。図11に示すように、本実施形態による化粧支援システムは、化粧支援装置1、サーバ30および化粧技術取得装置4がネットワーク6を介して接続されて構成される。
【0064】
化粧技術取得装置4は、カメラ40、モーションセンサ41および圧力センサ42などの各種情報取得部を有する。かかる化粧技術取得装置4により、メークアップアーティストの化粧技術を取得し、サーバ30が有する化粧技術DB302に格納する。具体的には、メークアップアーティストの腕や手指に各種センサを付けて、化粧道具を化粧品に付ける時の圧力、顔に化粧を施すときの圧力、軌跡などの情報を取得する。また、カメラ40で化粧手順を撮像する。さらに、化粧品や化粧道具、マネキンに各種センサを付けて、メークアップアーティストの化粧技術情報を取得してもよい。また、使用する化粧品IDや、複数の化粧品を混合して使う場合はその旨も入力する。
【0065】
サーバ30は、技術解析部301と化粧技術DB302を有する。技術解析部301は、化粧技術取得装置4で取得した各種情報から化粧技術を解析し、一般化した顔画像を基準として化粧技術を数値化する。化粧技術DB302は、技術解析部301で解析された化粧技術情報を格納する。
【0066】
次に、本実施形態による化粧支援装置1の構成を図12に示す。図12に示すように、本実施形態による化粧支援装置1は、カメラ10、画像認識部11、ユーザ顔情報分析部12、推薦化粧パターン判断部13、化粧画像生成部15、表示制御部17、表示部18、操作部19および通信部20を有する。画像認識部11は、顔・パーツ認識部110とSLAM処理部111を有する。
【0067】
通信部20はサーバ30と通信接続を確立する。通信部20による通信は、有線でも無線でもよいが、通常は無線LANやBluetooth(登録商標)等の無線通信によりサーバ30との間で情報をやり取りする。これにより、ユーザが所望するメークアップアーティストによる化粧サービスを受けるための通信が可能となる。具体的には、通信部20は、サーバ30から化粧技術情報を受信する。その他の構成の説明は上記第1の実施形態による化粧支援装置1の構成と同様であるため省略する。
【0068】
上述したように、サーバ30の化粧技術DB302には、各メークアップアーティストから取得した化粧技術情報が格納されている。一方、化粧支援装置1では、図11に示すように、選択可能なメークアップアーティストのリストを表示部18に表示し、ユーザに選択されたアーティストの化粧技術情報をサーバ30から取得する。したがって、化粧支援装置1の推薦化粧パターン判断部は、ユーザが所望するメークアップアーティストの化粧技術情報に基づいた化粧パターンからユーザに適した化粧パターンを判断することができる。
【0069】
なお、本実施形態では少なくとも化粧技術DBにメークアップアーティストから取得した化粧技術情報が格納されていればよいため、図11に示す化粧技術取得装置4は必ずしも必須の構成ではない。
【0070】
<3.第3の実施形態>
次に、本発明の第3の実施形態による化粧支援システムについて図13および図14を参照して説明する。本実施形態により、ユーザ間で化粧技術情報を交換することができる。
【0071】
図13は、本実施形態による化粧支援システムの概要を示す図である。図13に示すように、本実施形態による化粧支援システムは、各ユーザの化粧支援装置1A〜1Dおよびサーバ31がネットワーク6を介して接続されて構成される。
【0072】
本実施形態による化粧支援装置1の構成を図14に示す。図14に示すように、本実施形態による化粧支援装置1は、カメラ10、画像認識部11、ユーザ顔情報分析部12、推薦化粧パターン判断部13、化粧画像生成部15、表示制御部17、表示部18、操作部19および通信部20を有する。画像認識部11は、顔・パーツ認識部110とSLAM処理部111を有する。
【0073】
カメラ10は、ユーザが自ら化粧を行っている画像を取得し通信部20に出力する。通信部20はサーバ30と通信接続を確立し、カメラ10から出力された撮像画像をサーバ30に送信する。さらに通信部20は、サーバ30の化粧技術DB312から他ユーザの化粧技術情報を受信する。これにより、他ユーザと化粧技術情報を交換することができる。推薦化粧パターン判断部13は、通信部20が取得した他ユーザの化粧技術情報に基づいた化粧パターンからユーザに適した化粧パターンを判断する。その他の構成の説明は上記第1の実施形態による化粧支援装置1の構成と同様であるため省略する。
【0074】
サーバ31は、技術解析部311と化粧技術DB312を有する。技術解析部311は、各化粧支援装置1から送信されたユーザの化粧動作を撮像した撮像画像から化粧技術を解析し、一般化した顔画像を基準として化粧技術を数値化する。技術解析部311は、例えばプロの化粧動作画像や基準とする化粧動作画像とユーザの化粧動作画像を比較することにより、その差分を算出して化粧技術を数値化する。化粧技術DB312は、技術解析部311で解析された化粧技術情報を格納する。
【0075】
なお、化粧支援装置1が、モーションセンサ、圧力センサなどの各種センサを備え、ユーザが自ら化粧を行った際に各種センサで取得した情報をサーバ31に送信してもよい。この場合、技術解析部311は、化粧支援装置1から送信された各種情報から化粧技術を解析し、一般化した顔画像を基準として化粧技術を数値化する。
【0076】
上述したように、サーバ31の化粧技術DB312には、各ユーザから取得した化粧技術情報が格納されている。一方、化粧支援装置1Aでは、図13に示すように、選択可能な他ユーザのリストを表示部18に表示し、ユーザに選択された他のユーザの化粧技術情報をサーバ31から取得する。したがって、化粧支援装置1の推薦化粧パターン判断部は、ユーザの友人など他ユーザの化粧技術情報に基づいた化粧パターンからユーザに適した化粧パターンを判断することができる。これにより、友人と化粧技術を切磋琢磨したり、他ユーザの化粧技術を真似したり、プロでなくともアマチュア間で有名になれるなど、化粧支援システムをより活用することができる。
【0077】
<4.第4の実施形態>
次に、本発明の第4の実施形態による化粧支援システムについて図15および図16を参照して説明する。本実施形態により、適切な化粧品の情報と化粧品の販売サービスを提供することができる。
【0078】
図15は、本実施形態による化粧支援システムの概要を示す図である。図15に示すように、本実施形態による化粧支援システムは、化粧支援装置1、サーバ32および各化粧品販売店の売買管理装置5が、ネットワーク6を介して接続されて構成される。
【0079】
本実施形態による化粧支援装置1の構成を図16に示す。図16に示すように、本実施形態による化粧支援装置1は、カメラ10、画像認識部11、ユーザ顔情報分析部12、推薦化粧パターン判断部13、化粧画像生成部15、表示制御部17、表示部18、操作部19、通信部20および化粧品情報提供部21を有する。画像認識部11は、顔・パーツ認識部110とSLAM処理部111を有する。
【0080】
通信部20はサーバ32と通信接続を確立し、サーバ32との間で情報をやり取りする。具体的には、化粧技術情報の受信、化粧IDの送信および化粧品情報の受信をサーバ32との間で行う。
【0081】
推薦化粧パターン判断部13は、通信部20が受信した化粧技術情報に基づいて推薦化粧パターンを判断する。また、推薦化粧パターン判断部13は、推薦化粧パターンと判断した化粧パターンの化粧品ID(図7参照)を、通信部20を介してサーバ32に出力する。
【0082】
化粧品情報提供部21は、化粧推薦パターン判断部13から出力された化粧品IDに応じてサーバ32から送信された化粧品情報をユーザに提供する。例えば、図15に示すように、表示部18に化粧品情報として、メーカ、ブランド名、商品名、価格、商品説明などを表示する。これにより、推薦化粧パターンによる化粧をユーザが実施する際に使用すべき適切な化粧品の情報が提供される。さらに、図15に示すように、表示部18に化粧品情報と共に購入ボタン192を表示することで、ユーザは容易に適切な化粧品の購入手続きを行なうことができる。
【0083】
なお、本実施形態に係る化粧支援装置1のその他の構成の説明は上記第1の実施形態による化粧支援装置1の構成と同様であるため省略する。
【0084】
サーバ32は、化粧技術DB322と化粧品情報DB323を有する。化粧技術DB322は、上記各実施形態における化粧技術DBと同様に化粧技術情報を格納する。化粧情報DB323は、化粧技術DB322に格納される化粧技術情報に含まれる化粧品ID毎の化粧品情報を格納する。
【0085】
売買管理装置5は、化粧支援装置1からの化粧品購入要求に応じて商品売買の管理を行う。売買管理装置5は各化粧品販売店が有してもいてもよい。なお、通常のネット販売システム(オンラインショッピング)を利用してもよい。
【0086】
以上説明したように、本実施形態による化粧支援装置1は、ユーザが推薦化粧パターンを実施するのに必要な化粧品を販売することで化粧支援を行う。
【0087】
<5.第5の実施形態>
次に、本発明の第5の実施形態による化粧支援システムについて説明する。本実施形態による化粧支援装置1は、化粧による肌への影響を考慮して推薦化粧パターンが判断される。
【0088】
具体的には、5年後、10年後等に理想とする肌の質感、肌理等を設定し(将来の顔画像予測値)、現在の顔情報から予想される5年後、10年後等の肌の質感、肌理等(現状のままによる顔画像予測値)を算出し、その差分を埋められる化粧パターンを推薦化粧パターンとして判断する。なお、現在の顔情報の他、年齢、性別、人種、生活パターンなど肌に影響のある情報をユーザ自ら入力してもよい。
【0089】
これにより、長期的な視野に立ち、肌の経年変化を考慮した化粧パターンを推薦することができる。
【0090】
<6.第6の実施形態>
次に、本発明の第6の実施形態による化粧支援システムについて説明する。本実施形態による化粧支援装置1は、ユーザがタレントの顔写真などユーザの好む顔画像を入力し、かかる顔画像の分析結果と、ユーザの顔情報から、ユーザの顔がなるべくユーザの好む顔に近付く化粧パターンを推薦化粧パターンと判断する。
【0091】
これにより、ユーザの好む顔に近付く化粧パターンを推薦することができる。
【0092】
<7.まとめ>
以上説明したように、本発明の実施形態による化粧支援装置1は、AR技術を利用し、化粧完成後の状態のシミュレーションを行うことにより、化粧支援技術を向上させる。また、AR技術を利用し、化粧途中の手順を表示することで化粧支援技術をさらに向上させる。
【0093】
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
【0094】
例えば、上記各実施形態では、化粧支援装置1においてすべての処理を実行することとしたが、本発明はかかる例に限定されない。例えば、化粧支援装置1において実行される処理のうち、負荷の高い処理をネットワークで接続されたサーバで実行するようにしてもよい。例えば、カメラ10で撮像された撮像画像を化粧支援装置1からサーバへ送信して、サーバにより撮像画像のユーザ顔情報分析を行い、推薦化粧パターン判断を行うようにしてもよい。この場合、サーバは、化粧支援装置1から送信された撮像画像から、推薦化粧パターンと判断された化粧パターンの化粧技術情報を化粧支援装置1に送信する。また、サーバで推薦化粧パターンから化粧画像を生成して化粧支援装置1に送信してもよい。また、化粧技術情報を記憶する化粧技術DB14をサーバに配置してもよい。
【0095】
このように、負荷の高い処理をサーバで実行することにより、化粧支援装置1の消費電力を削減することができ、化粧支援装置1で必要となるハードウェア資源を圧縮することができる。また、化粧技術を記憶する化粧技術DB14をサーバに配置した場合には、化粧支援装置1の記憶容量を圧縮できるとともに、化粧支援装置間で同一の化粧技術情報を利用したり管理したりすることが容易になる。
【符号の説明】
【0096】
1 化粧支援装置
10 カメラ
11 画像認識部
12 ユーザ顔情報分析部
13 推薦化粧パターン判断部
14 化粧技術DB
15 化粧画像生成部
16 化粧進行度判断部
17 表示制御部
18 表示部
19 操作部
20 通信部
21 化粧品情報提供部
30、31、32 サーバ
301、311 技術解析部
302、312、322 化粧技術DB
323 化粧品技術DB
4 化粧技術取得装置
40 カメラ
41 モーションセンサ
42 圧力センサ
5 売買管理装置
6 ネットワーク

【特許請求の範囲】
【請求項1】
画像を撮像する撮像部と、
前記撮像部から順次画像を取得し、前記取得した画像内の顔パーツを認識する画像認識部と、
前記画像認識部から出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示する表示制御部と、
を備える、情報処理装置。
【請求項2】
前記表示制御部は、前記仮想的な化粧画像として化粧完成画像を表示する、請求項1記載の情報処理装置。
【請求項3】
前記表示制御部は、前記仮想的な化粧画像として化粧動作画像を表示する、請求項1記載の情報処理装置。
【請求項4】
前記情報処理装置は、
前記仮想的な化粧画像を、化粧技術情報に基づいて生成する画像生成部をさらに備える、請求項1記載の情報処理装置。
【請求項5】
前記情報処理装置は、
前記画像認識部から出力される認識結果に基づいて、顔情報を分析する分析部と、
前記分析部から出力される分析結果に応じて、推薦する化粧パターンを判断する推薦化粧パターン判断部と、
をさらに備え、
前記化粧パターンは、前記化粧技術情報から構成され、
前記画像生成部は、前記推薦化粧パターン判断部により推薦化粧パターンと判断された化粧パターンの化粧技術情報に基づいて前記仮想的な化粧画像を生成する、請求項4記載の情報処理装置。
【請求項6】
前記情報処理装置は、
前記撮像部で撮像された画像と予め生成された化粧完成画像とを比較することにより、化粧の進行度を判断する化粧進行度判断部をさらに備え、
前記表示制御部は、前記化粧進行度判断部による判断結果に応じて変化する化粧動作画像を前記画像に順次重畳表示する、請求項4記載の情報処理装置。
【請求項7】
前記表示制御部により順次表示される化粧動作画像の順序は、ユーザの操作に応じて変更される、請求項6記載の情報処理装置。
【請求項8】
画像を撮像するステップと、
前記撮像するステップにより順次画像を取得し、前記取得した画像内の顔パーツを認識するステップと、
前記認識するステップにより出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示するステップと、
を含む、情報処理方法。
【請求項9】
画像を撮像する撮像部と、
前記撮像部から順次画像を取得し、前記取得した画像内の顔パーツを認識する画像認識部と、
前記画像認識部から出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示する表示制御部と、を備える、情報処理装置と;
前記画像認識部から出力される認識結果に基づいて、顔情報を分析する分析部と、
前記分析部から出力される分析結果に応じて、推薦する化粧パターンを判断する推薦化粧パターン判断部と、を備える、サーバと;
を備え、
前記情報処理装置は、前記サーバから取得した推薦化粧パターンの化粧技術情報に基づいて前記仮想的な化粧画像を生成する、情報処理システム。
【請求項10】
コンピュータを、
画像を撮像する撮像部と、
前記撮像部から順次画像を取得し、前記取得した画像内の顔パーツを認識する画像認識部と、
前記画像認識部から出力される認識結果に含まれる前記顔パーツの位置に基づいて、前記画像内の顔にトラッキングする仮想的な化粧画像を、前記画像に重畳させて表示する表示制御部と、を備える、情報処理装置として機能させるためのプログラム。


【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate


【公開番号】特開2012−181688(P2012−181688A)
【公開日】平成24年9月20日(2012.9.20)
【国際特許分類】
【出願番号】特願2011−44274(P2011−44274)
【出願日】平成23年3月1日(2011.3.1)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】