説明

モデル画像作成装置、およびモデル画像作成装置のモデル画像作成プログラム

【課題】人物の服飾のみをモデル化したモデル画像を作成できるモデル画像作成装置、およびモデル画像作成装置のモデル画像作成プログラムを提供する。
【解決手段】全身画像データから人物の部位が抽出される(S15)。抽出された人物の部位に基づき、人物画像データが抜き出される(S20)。人物画像データから服飾データが切り出され、服飾テンプレートとのマッチングが行われる。近似するテンプレートの形状が人物画像データから切り出され、テンプレートと合成した服飾合成データが作成される。服飾合成データの輝度パターンに基づき、服飾アバターデータが作成される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、モデル画像作成装置、およびモデル画像作成装置のモデル画像作成プログラムに関する。
【背景技術】
【0002】
従来、ネットゲームやカラオケ等の様々な場面でアバターと呼ばれる自分自身を反映させたモデル画像を提供するサービスが利用されている。ユーザは、アバターを動かしたり、服装及び装飾品(以下、服飾という)などを変更する等、自分自身で自由に操作できる。このようなアバターを利用することで、ネットワーク上のコミュニケーションが豊かになる。ところが、アバターの服飾は、予め企業が提供しているパーツの中から選択し、それらを組み合わせたものを利用するのみで、ユーザが編集できるわけではなかった。よって、人物から服飾のみを抽出してモデル化し、そのデータを編集できるような技術が求められていた。
【0003】
例えば、特許文献1では、撮像された複数の写真のみから画像処理を用いて形質的個人特徴量となる人体部位のサイズを抽出することで、各個体の形態的特徴を反映した立体人体モデルを生成する自動人体コピーモデル作成装置が提案されている。この自動人体コピーモデル作成装置は、抽出された人体部位のサイズをもとに、人体の標準的なサイズを参照して変形パラメータを求める。そして、与えられた任意の基本モデルを変形することで、全体として統一した形質を保ちながら各個体の形態的特徴を反映した立体人体モデルが生成される。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2001−312743号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載の自動人体コピーモデル作成装置では、服飾のみならず、頭および手足等の余分な部分までモデル化されてしまうので、服飾のみをモデル化できないという問題点があった。
【0006】
本発明は、上記課題を解決するためになされたものであり、人物の服飾のみをモデル化したモデル画像を作成できるモデル画像作成装置、およびモデル画像作成装置のモデル画像作成プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の第1実施態様に係るモデル画像作成装置は、人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置であって、人物の服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段と、人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付け手段と、当該ブロック対応付け手段によって対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出手段と、当該服飾データ抽出手段によって抽出された前記服飾データと、前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定手段と、当該服飾形状特定手段によって特定された服飾の形状に基づき、前記人物の服飾のモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成手段と、当該服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力手段とを備えている。
【0008】
本発明の第1実施態様では、撮像手段によって人物が撮像される。服飾画像パターン記憶手段には、服飾の形状の種類毎の画像パターンである服飾画像パターンが記憶されている。ブロック対応付け手段は、撮像手段によって撮像された人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付ける。服飾データ抽出手段は、そのブロック対応付け手段によって対応付けされた部分ブロックから服飾部分のデータである服飾データを抽出する。服飾形状特定手段は、服飾データ抽出手段によって抽出された服飾データと、服飾画像パターン記憶手段に記憶された服飾画像パターンとを比較することで、服飾データに近似する服飾画像パターンを決定し、服飾画像パターンに基づき、人物の服飾の形状を特定する。服飾モデル画像データ作成手段は、服飾形状特定手段によって特定された服飾の形状に基づき、人物の服飾のモデル画像のデータである服飾モデル画像データを作成する。服飾モデル画像データ出力手段は、服飾モデル画像データ作成手段によって作成された服飾モデル画像データを出力する。これにより、自分の服飾をそのままモデル画像の服飾として反映させることができる。さらに、モデル画像の服飾のパターンが豊富になるので、バラエティに富んだモデル画像を作成できる。
【0009】
また、第1実施態様では、前記人物の撮像データにおいて、前記服飾形状特定手段によって特定された前記服飾の形状に対応する部分から、服飾の模様を含むデザインを抽出するデザイン抽出手段を備え、前記服飾モデル画像データ作成手段は、前記服飾形状特定手段によって特定された服飾の形状と、前記デザイン抽出手段によって抽出されたデザインとを合成することによって、前記服飾モデル画像データ作成するようにしてもよい。デザイン抽出手段は、人物の撮像データにおいて、服飾形状特定手段によって特定された服飾の形状に対応する部分から、服飾の模様を含むデザインを抽出する。服飾モデル画像データ作成手段は、服飾形状特定手段によって特定された服飾の形状と、デザイン抽出手段によって抽出されたデザインとを合成することで、服飾モデル画像データを作成する。従って、実際の服飾のデザインを、服飾の形状に反映させることができる。
【0010】
また、第1実施態様では、前記服飾データ抽出手段は、前記ブロック対応付け手段によって対応付けされた前記部分ブロック内において、肌色領域を特定する肌色領域特定手段を備え、前記肌色領域特定手段によって特定された前記肌色領域を前記部分ブロック内から除いた領域を前記服飾データとして抽出するようにしてもよい。肌色領域特定手段は、ブロック対応付け手段によって対応付けされた部分ブロック内において、肌色領域を特定する。肌色領域は、人物画像のうち服飾以外の部分である頭、手足等の部分である。このような領域を、撮像手段によって撮像された人物の撮像データに対応付けされた部分ブロックから除くことによって服飾データのみを抽出できる。
【0011】
また、第1実施態様では、前記肌色領域特定手段は、前記ブロック対応付け手段によって前記撮像データに対応付けされた前記部分ブロックのうち、前記人物の顔部分に対応する部分ブロックから前記肌色領域を特定するための基準値を取得し、前記基準値に基づいて、前記肌色領域を特定するようにしてもよい。人物の撮像データにおいて顔部分が最も外部に露出する部分である。その顔部分に対応する部分ブロックにおいて基準値を取得し、その基準値で肌色領域を特定することによって、服飾部分を確実に抽出できる。
【0012】
また、第1実施態様では、前記服飾形状特定手段は、前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンの形状を、前記服飾データ抽出手段によって抽出された前記服飾データの形状に沿って変更する形状変更手段を備え、前記服飾データ抽出手段によって抽出された前記服飾データと、前記形状変更手段によって形状が変更された前記服飾画像パターンとを比較するようにしてもよい。服飾データの形状は、人物の撮像データにおける人物のポーズによって一定ではない。そこで、形状変更手段は、服飾画像パターン記憶手段に記憶された服飾画像パターンの形状を、服飾データ抽出手段によって抽出された服飾データの形状に沿って変更する。これにより、服飾形状特定手段は、服飾データと、服飾画像パターンとを比較できるので、服飾形状を容易に特定できる。
【0013】
また、第1実施態様では、前記服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データに対応する服飾モデル画像の形状及びデザインを変更する服飾モデル画像データ変更手段を備えていてもよい。服飾モデル画像データ変更手段は、服飾モデル画像データ作成手段によって作成された服飾モデル画像データに対応する服飾モデル画像の形状及びデザインを変更できる。従って、自分の好みに合わせて、服飾モデル画像を自由自在に変更できる。また、服飾モデル画像の不鮮明な部分について修正することも可能である。
【0014】
また、第1実施態様では、前記ブロック対応付け手段によって対応付けされた前記部分ブロックの位置を変更するブロック位置変更手段を備えていてもよい。ブロック対応付け手段によって対応付けされた部分ブロックの位置が適切でなかった場合は、ブロック位置変更手段で、ブロック対応付け手段によって対応付けされた部分ブロックの位置を変更することができる。これにより、部分ブロックから服飾データを確実に抽出できる。
【0015】
本発明の第2実施態様に係るモデル画像作成装置のモデル画像作成プログラムは、人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置を機能させるモデル画像作成装置のモデル画像作成プログラムであって、人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付けステップと、当該ブロック対応付けステップにおいて対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出ステップと、当該服飾データ抽出ステップにおいて抽出された前記服飾データと、服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定ステップと、当該服飾形状特定ステップにおいて特定された服飾の形状に基づき、前記人物の服飾をモデルしたモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成ステップと、当該服飾モデル画像データ作成ステップにおいて作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力ステップとを備えている。
【0016】
本発明の第2実施態様では、まず、ブロック対応付けステップにおいて、人物を撮像する撮像手段によって撮像された人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付ける。次いで、服飾データ抽出ステップにおいて、そのブロック対応付けステップにおいて対応付けされた部分ブロックから服飾部分のデータである服飾データを抽出する。さらに、服飾形状特定ステップにおいて、服飾データ抽出ステップにおいて抽出された服飾データと、服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段に記憶された服飾画像パターンとを比較することで、服飾データに近似する服飾画像パターンを決定し、服飾画像パターンに基づき、人物の服飾の形状を特定する。次に、服飾モデル画像データ作成ステップにおいて、その服飾形状特定ステップにおいて特定された服飾の形状に基づき、人物の服飾をモデルしたモデル画像のデータである服飾モデル画像データを作成する。そして、服飾モデル画像データ出力ステップにおいて、その服飾モデル画像データ作成ステップにおいて作成された服飾モデル画像データを出力する。これにより、自分の服飾をそのままモデル画像の服飾として反映させることができる。さらに、モデル画像の服飾のパターンが豊富になるので、バラエティに富んだモデル画像を作成できる。
【図面の簡単な説明】
【0017】
【図1】WEB提供システム1の構成図である。
【図2】人物の服飾を反映させたアバター画像が作成されるまでの過程を示す図である。
【図3】端末装置3の電気的構成を示すブロック図である。
【図4】RAM23の各種記憶領域を示す概念図である。
【図5】フラッシュメモリ24の各種記憶領域を示す概念図である。
【図6】服飾アバター作成処理のフローチャートである。
【図7】図6のフローの続きを示すフローチャートである。
【図8】人物部位抽出処理のフローチャートである。
【図9】服切り出し処理のフローチャートである。
【図10】服補正処理のフローチャートである。
【図11】図10の続きを示すフローチャートである。
【図12】人体ブロックの配置の一例を示す図である。
【図13】服飾テンプレート記憶エリア242に記憶された服飾テンプレートの一例である。
【図14】無地のシャツの輝度パターンを示す図である。
【図15】格子状の柄のシャツの輝度パターンを示す図である。
【図16】胸もとにマークを有するシャツの輝度パターンを示す図である。
【図17】フロント点に基づいてマークデータを作成する過程を示す図である。
【発明を実施するための形態】
【0018】
以下、本発明の一実施形態である端末装置3について、図面を参照して説明する。これらの図面は、本発明が採用しうる技術的特徴を説明するために用いられるものである。即ち、記載されている装置の構成、各種処理のフローチャートなどは、特定的な記載がない限り、それのみに限定する趣旨ではなく、単なる説明例である。なお、アバター(本発明の「モデル画像」に相当)とは、ホームページ、ネットゲーム、チャットなどのコミュニケーションツールで、自分の分身として画面上に登場させるキャラクタのことである。
【0019】
はじめに、端末装置3を構成として備えるWEB提供システム1について、図1を参照して説明する。WEB提供システム1は、インターネット等のネットワーク4に接続可能な携帯型の端末装置3と、WEBサーバ5と、据置型PCなどの端末装置6とを備えている。WEBサーバ5は、WEBサービスとして、通常のコミュニケーションサービス(メールサービス等)、ネットゲームサービスの他に、これらのサービスと連動させたアバターサービスを提供する。なお、端末装置3,6は、携帯型および据置型の何れでもよく、説明の便宜上、一例として設定したものである。
【0020】
WEBサーバ5は、インターネット上に仮想空間を提供し、該仮想空間にユーザ自身の分身として登場させるアバターを提供する(図2参照)。WEBサーバ5は、端末装置3,6からの操作指示に応じてアバターと仮想空間上に配置されるオブジェクトとを制御する制御部(図示外)と、アバターとオブジェクトとを関連付けたアバター情報を格納するアバター情報データベース(図示外)とを備えている。WEBサーバ5は、端末装置3,6からの処理要求に応じて、ユーザのアバター情報を端末装置3,6に送信する。
【0021】
なお、アバターとともに仮想空間に配置されるオブジェクトは、例えば、ユーザ自身の分身であるアバターに付加される髪型、服飾などの仮想空間内のアバターアイテム(表示アイテム)である。ユーザは、端末装置3,6から仮想空間内で入手したアバターアイテムを自身のアバターに装着・装備させることができる。オブジェクトとしてのアバターアイテムもアバターとともに仮想空間内に配置される。当該仮想空間内においてユーザは、複数のアバターアイテムを所持できる。
【0022】
アバターにオブジェクトを装着させるための実際の処理は、仮想空間上にアバター画像にオブジェクト画像を重ね合わせたり、アバター画像とオブジェクト画像とを合成することにより行われる。仮想空間は、2次元又は3次元空間でもよく、アバター及びオブジェクトも、アバターに2次元又は3次元表示に合せて2次元又は3次元の表示画像とすることもできる。本実施例では3次元のアバターを想定するが、2次元でもよい。
【0023】
図1に示すように、端末装置3は、ディスプレイ31と、カメラ32とを備えている。ディスプレイ31には、タッチパネル33(図3参照)が設けられ、ディスプレイ31でのタッチ操作で、各種操作が可能である。カメラ32の撮像データは、フラッシュメモリ24(図3参照)内に記憶され、ディスプレイ31上に表示させることができる。端末装置3は、ネットワーク4に接続することによって、インターネット上のホームページ、ネットゲーム、チャット等を利用でき、サーバ5及び端末装置6との通信が可能である。また、端末装置3は、携帯用の電話回線を通じて他の端末(図示外)との通話も可能である。
【0024】
本実施形態では、図2に示すように、端末装置3は、カメラ32で撮像したユーザの全身画像データから、服飾のみを抽出する。そして、端末装置3は、その抽出された服飾の色、柄、マーク等を反映した服飾アバターデータを作成できる。服飾アバターデータとは、アバターに着用させる服飾(シャツ、ズボン、スカート等)の画像データのことである。作成された服飾アバターデータは、WEBサーバ5に送信され、アバターアイテムとして、アバター情報データベースに保存される。アバター情報データベースに保存された服飾アバターデータは、ネットワーク4経由で、端末装置3のみなならず、端末装置6でも取得可能である。これにより、端末装置3,6では、仮想空間において、WEBサーバ5から取得した服飾アバターデータを、自己のアバターに反映させることができる。
【0025】
次に、端末装置3の電気的構成について、図3を参照して説明する。端末装置3には、端末装置3の制御を司るコントローラとしてのCPU21が設けられている。CPU21には、BIOS、メインプログラム等を記憶したROM22と、各種データを一時的に記憶するRAM23と、フラッシュメモリ24と、ディスプレイ31と、カメラ32と、タッチパネル33と、通信インタフェイス35(以下、通信I/F35)とが接続されている。通信I/F35は、ネットワーク4と通信するためのものである。
【0026】
次に、RAM23の各種記憶エリアについて、図4を参照して説明する。RAM23には、ブロック配置記憶エリア231と、肌色基準値記憶エリア232と、輝度パターン記憶エリア233と、基本色記憶エリア234と、柄データ記憶エリア235と、マークデータ記憶エリア236と、フロント点記憶エリア237と、全身画像データ記憶エリア238とが少なくとも設けられている。
【0027】
ブロック配置記憶エリア231には、後述する全身画像データに配置される人体ブロック(本発明の「部分ブロック」に相当)A〜F3(図12参照)の位置が記憶される。肌色基準値記憶エリア232には、後述する人物画像データの顔位置で検出された色が肌色基準値として記憶される。輝度パターン記憶エリア233には、後述する服飾合成データの輝度を分析した際の輝度分布である輝度パターンが記憶される。基本色記憶エリア234には、後述する輝度パターンで最も頻度の高い輝度に対応する色が基本色として記憶される。柄データ記憶エリア235には、輝度パターン等に基づいて作成された柄データが記憶される。マークデータ記憶エリア236には、輝度パターン等に基づいて作成されたマークデータが記憶される。フロント点記憶エリア237には、輝度パターンの変化が所定値以上である後述するフロント点(F)の位置が記憶される。全身画像データ記憶エリア238には、カメラ32で撮像された全身画像データが記憶される。
【0028】
次に、フラッシュメモリ24の各種記憶エリアについて、図5を参照して説明する。フラッシュメモリ24には、プログラム記憶エリア241と、服飾テンプレート記憶エリア242と、服飾アバターデータ記憶エリア243と、3D用テンプレート記憶エリア244とが少なくとも設けられている。プログラム記憶エリア241には、本発明の服飾アバターデータ作成プログラムと、作成された服飾アバターデータを編集するための編集プログラム等が記憶されている。服飾テンプレート記憶エリア242には、服飾のテンプレートがカテゴリ(シャツ、ズボン、スカート等)毎にそれぞれ記憶されている。服飾アバターデータ記憶エリア243には、服飾アバターデータ作成処理で作成された服飾アバターデータが記憶されている。3D用テンプレート記憶エリア244には、3D用テンプレートが記憶されている。
【0029】
なお、3D用テンプレートは、表側の服飾アバタデータと、裏側の服飾アバタデータとで構成される。サーバ5では、人物のアバターデータと、これら2つの服飾アバターデータとが合成されることによって、3D用のアバター情報が作成される。例えば、人物のアバターデータは、(x,y,z)の三次元情報で構成される。服飾アバターデータは、(X,Y)の二次元情報で構成される。人物のアバターデータを正面と背面とに向けた状態で、表側の服飾アバタデータと、裏側の服飾アバタデータとが重ねられる。そして、x=X,y=Yとなる位置のz座標を、服飾テンプレートのZ座標として定義する。これにより、(X,Y,Z)の3次元座標を有する3D用アバター情報が作成される。3D用のアバター情報を受信した端末装置3,6では、インターネットの仮想空間上で例えば、アバターを回転させて表示できる。
【0030】
次に、服飾テンプレート記憶エリア242に記憶されている服飾テンプレートについて説明する。フラッシュメモリ24の服飾テンプレート記憶エリア242には、シャツ、ズボン等の画像データである複数の服飾テンプレートがカテゴリ毎に記憶されている。例えば、図13に示すように、「シャツ」のカテゴリ内には、長袖、半袖、襟無し、襟有り、タートルネック等の形状が異なるシャツA〜Fの服飾テンプレートが記憶されている。「ズボン」のカテゴリ内には、長ズボン、半ズボン、膝丈のズボン、ブーツカット、バギータイプ、レギンス等の形状がズボンA〜Fの服飾テンプレートが記憶されている。これらテンプレートは、後述する服飾アバター作成処理において、人物の全身画像から切り取られた服飾データがどのカテゴリのどのタイプの服飾であるかを特定するために使用される。
【0031】
次に、CPU21によって実行される服飾アバター作成処理について、図6乃至図11のフローチャートを参照して説明する。本処理は、ディスプレイ31に表示されたメニュー画面から「服飾アバター作成アプリ」が選択されると、フラッシュメモリ24のプログラム記憶エリア241(図5参照)から本発明の「服飾アバター作成プログラム」が読み出されて実行される。
【0032】
図6に示すように、まず、ディスプレイ31に「全身画像を撮影してください。」の撮影指示メッセージが表示される(S10)。これを見たユーザは、端末装置3の指示に基づき、端末装置3のカメラ32で人物の全身を撮像する。そして、端末装置3のシャッター(図示外)が押下されたか否かが判断される(S11)。シャッター(図示外)が押下されない間は(S11:NO)、S11に戻って、待機状態となる。シャッターが押下された場合(S11:YES)、ディスプレイ31に全身画像データが表示されると共に、その下側に「YES」「NO」の確認ボタン(図示外)が表示される(S12)。
【0033】
次いで、「YES」が選択されたか否かが判断される(S13)。ユーザがディスプレイ31に表示された全身画像データに納得せず、「NO」が選択された場合(S13:NO)、S10に戻り、撮影指示メッセージが表示されて、ユーザに再度の撮影を促す。そして、「YES」が選択された場合(S13:YES)、RAM23の全身画像データ記憶エリア238(図4参照)に記憶される(S14)。このとき、ディスプレイ15に全身画像データが表示される。次いで、その全身画像データについて、人物部位抽出処理が実行される(S15)。
【0034】
なお、本実施例では、3D用の服飾アバターデータを作成するために、人物の表側と裏側の全身画像データが用いられる。よって、2つの全身画像データが揃った場合に、人物部位抽出処理が実行される(S15)。そして、以下の処理についても2つの全身画像データについてそれぞれ行われる処理であるが、説明の便宜上、表側の全身画像データを処理する流れを中心に説明する。
【0035】
次に、人物部位抽出処理について説明する。図8に示すように、人物部位抽出処理では、まず、全身画像から領域抽出手法を用いて、検出すべき部位であると思われる領域が部位候補領域として抽出される(S35)。次に、抽出された部位候補領域に対し、連結関係や隣接関係といったトポロジ情報に基づいて部位候補領域の部位が特定される(S36)。本実施例では、例えば、頭部、胴部、右上腕部、右前腕部、左上腕部、左前腕部、右大腿部、右下腿部、右足、左大腿部、左下腿部、左足の計12個の部位が特定される。
【0036】
そして、図12に示すように、ディスプレイ31に表示された全身画像の特定された各部位に対して、12個の長方形状の人体ブロックA〜G3がそれぞれ配置される(S37)。例えば、頭部にブロックA、胴部にブロックB、右上腕部にブロックC1、右前腕部にブロックC2、左上腕部にブロックD1、左前腕部にブロックD2、腰部にブロックE、右大腿部にブロックF1、右下腿部にブロックF2、右足にブロックF3、左大腿部にブロックG1、左下腿部にブロックG2、左足にブロックG3が、人体の各パーツの形状に沿って各々配置される。
【0037】
続いて、図6のフローに戻り、ディスプレイ31の下側に「人体ブロックの配置はこれでよいですか?」の確認メッセージと、「YES」「NO」の確認ボタン(図示外)とが表示される(S16)。これを見たユーザは、ディスプレイ31に表示された人体ブロックの配置を見て、人体ブロックが適切な位置に各々配置されているか否かを確認する。そして、「YES」が選択されたか否かが判断される(S17)。
【0038】
ここで、位置がずれている人体ブロックがあり、ユーザによって「NO」が選択された場合(S17:NO)、「手動モード」が設定される(S18)。手動モードでは、人体ブロックの位置を手動で調整できる。図12に示すように、ユーザは、ディスプレイ31に表示された人体ブロックを指で接触させながら動かす。この指の動きはタッチパネル33(図3参照)によって検出され、その検出結果に従って人体ブロックの位置が変更される。例えば、ブロックC1の位置が右上腕部に対してずれていた場合、ブロックC1に指を接触させながらブロックC1の位置および角度を調整する。これにより、右上腕部の位置にブロックC1を正確に合わせることができる。
【0039】
ディスプレイ31の下側には、人体ブロックの配置について決定するための「OK」の決定ボタンが表示される。次いで、「OK」が選択されたか否かが判断される(S19)。決定ボタンが選択されるまでは(S19:NO)、S18に戻り、手動モードが維持される。このように、CPU21によって自動的に配置される人体ブロックの配置を手動で調整できるので、CPU21による自動配置にずれがあった場合でも正確な位置に調整できる。
【0040】
そして、決定ボタンが選択された場合(S19:YES)、それらブロック配置が、RAM23のブロック配置記憶エリア231(図4参照)に記憶されると共に、人体ブロック周辺のエッジが検出され、全身画像データから背景を除去した人物画像データが抜き出される(S20)。なお、ディスプレイ31に表示された人体ブロックの配置が良好で、「YES」が選択された場合は(S17:YES)、S20に進み、上記と同様に人物画像データが抜き出される(S20)。さらに、抜き出された人物画像データと、「OK」「NO」の確認ボタンとがディスプレイ31に表示される(S21)。次いで、「OK」の確認ボタンが選択されたか否か判断される(S22)。
【0041】
例えば、背景が十分に除去されておらず、人物のエッジが不鮮明であった場合、ユーザは「NO」の確認ボタンを選択する。この場合(S22:NO)、S18に戻り、手動モードが再設定される。ユーザに人体ブロックの位置調整をさせ、人物画像データを再度抜き出す処理を実行させることで、エッジが明確である人物画像データを作成できる。そして、「OK」が選択された場合(S22:YES)、全身画像データから人物のみを抽出できたので、図7のフローに進み、抽出された人物画像データに基づき、服飾のみを切り出す「服切り出し処理」が実行される(S25)。
【0042】
次に、服切り出し処理について説明する。図9に示すように、まず、人物画像データについて、顔の位置が認識される(S41)。顔認識の方法については、従来周知の様々な方法が使用可能である。例えば、顔の特徴点を抽出するために、HarrisオペレータやSIFT(Scale Invariant Feature Transform)などのアルゴリズムが使用可能である。本実施例では、ブロックAから目、鼻、口の特徴点が検出されることによって頭部における顔の位置が認識される。次いで、顔の位置が正確に認識されたか否かが判断される(S42)。
【0043】
顔の位置が認識された場合(S42:YES)、認識された顔の位置から色が抽出される(S43)。具体的には、特徴点が検出された目、鼻、口によって形成される領域から色が抽出される。顔は、外部に露出する部分であって、その人物の肌色を表す最も基準的な部分である。また、目、鼻、口によって形成される領域から色を抽出することで、髪の毛などの色に左右されず、正確に肌色が抽出される。このような部分の色が肌色の基準値として、RAM23の肌色基準値記憶エリア232(図4参照)に記憶される(S45)。
【0044】
一方、ブロックAから目、鼻、口の特徴点が正確に検出されず、顔の位置が正確に認識されなかった場合(S42:NO)、色抽出位置の受付処理が実行される(S44)。この受付処理では、肌色の基準とする位置をユーザに特定させる。ディスプレイ31には、肌色基準マーク(図示外)と、「OK」の決定ボタンとが表示される。肌色基準マークは、タッチパネル33で移動可能である。ユーザによって「OK」の決定ボタンが選択された場合、その肌色基準マークの位置の色が肌色基準値として、RAM23の肌色基準値記憶エリア232(図4参照)に記憶される(S45)。
【0045】
次いで、頭部のブロックAを除く各人体ブロックB〜G3(図12参照)について、各ブロック内の画素の色データが1つずつ取得される(S46)。さらに、取得された画素の色データと肌色基準値記憶エリア232に記憶された肌色基準値とを比較することで、取得された画素の色データが肌色か否かが判断される(S47)。画素の色データが肌色である場合は(S47:YES)、人物画像データのうち服飾ではない領域であるので、人物画像データからその画素が削除される(S48)。
【0046】
一方、画素の色データが肌色でない場合は(S47:NO)、服飾の領域であるので、人体画像データから削除せず、全ての画素について比較が完了したか否かが判断される。(S49)。全ての画素についてまだ完了していない場合は(S49:NO)、次の画素が取得され(S51)、S46に戻って、同様の処理が行われる(S47、S48)。そして、全ての画素について比較が終了するまで(S49:NO)、処理が繰り返される。全ての画素について比較が終了した場合(S49:YES)、人物画像データから肌色領域が削除されている。削除されずに残った領域が「服飾データ」となる。
【0047】
次に、RAM23のブロック配置記憶エリア231に記憶されたブロック配置に基づき、服飾データが上半身の部分と下半身の部分とに分割される(S50)。図12に示す例では、ブロックB、C1、C2、D1、D2に対応する部分が上半身の部分として、ブロックE、F1〜3、G1〜3に対応する部分が下半身の部分として2つの領域に分割される。これにより、シャツの服飾データと、ズボン(又はスカート等)の服飾データとにそれぞれ分けることができる。例えば、シャツの服飾アバターデータのみを作成する場合は、下半身の部分であるブロックE、F1〜3、G1〜3に対応する部分は削除してもよい。そして、図7のフローに戻り、服補正処理が実行される(S26)。
【0048】
服補正処理について説明する。なお、本実施例では、説明の便宜上、シャツの服飾データについてのみ説明する。図10に示すように、まず、服飾データの二値化処理が実行される(S52)。これは、服飾の形状を明確にするためである。次いで、人物画像データに配置された人体ブロックの配置にならって、フラッシュメモリ24の服飾テンプレート記憶エリア242(図5参照)に記憶された服飾テンプレートの形状が服飾データに沿って変更される(S53)。図13に示す例では、服飾データのシャツの左袖が上に上がっている。よって、全てのシャツの服飾テンプレートの左袖の位置を上げる変更が行われる。そして、形状が変更されたテンプレートと服飾データとのマッチング処理が実行される(S54)。これにより、カメラ32で撮像した人物の姿勢が直立状態でなくても、その人物の姿勢に応じて服飾テンプレートの形状を変更できるので、マッチング処理を正確に行うことができる。
【0049】
図13に示す例では、服飾データと最も相関の高い服飾テンプレートはシャツDであるので、S20で全身画像データから背景を除去した人物画像データから、シャツDの形状に沿った領域が切り出される(S55)。さらに、切り出された領域の人物画像データが、シャツDの服飾テンプレートに合成される(S56)。このようにして、人物画像データから、シャツの部分の服飾合成データが抽出される。そして、ディスプレイ31に、抽出結果である服飾合成データと、「YES」「NO」の確認ボタン(図示外)とが表示される(S57)。
【0050】
次いで、「YES」が選択されたか否かが判断される(S58)。「YES」が選択されたと判断された場合(S58:YES)、服飾合成データのポスタリゼーション処理が実行される(S59)。ポスタリゼーション処理では、グラフィックの階調が変更される。通常のフルカラーグラフィックはRGBそれぞれ256階調で表現されている。この階調を変えることで、例えば、複数の色が絡み合っている不鮮明な部分を、少ない色で表現できるので、色の配置を明確にできる。つまり、シャツの色、模様等を明確にすることができる。
【0051】
一方、ユーザがディスプレイ31に表示された服飾合成データに納得せず、「NO」が選択されたと判断された場合(S58:NO)、2、3番目まで相関の高かった服飾テンプレートとの合成処理が実行される(S62)。さらに、合成された2つの服飾合成データと、確認ボタンとがディスプレイ31に表示される(S63)。ユーザはその中で気に入ったものを指で触れて選択し、「OK」の確認ボタンを選択する。次いで、服飾合成データが選択されたか否かが判断される(S64)。「OK」が選択されて、服飾合成データが選択された場合は(S64:YES)、ポスタリゼーション処理が実行される(S59)。
【0052】
また、それでも、ユーザが服飾合成データを選択できず、「NO」が選択されたと判断された場合(S64:NO)、S53に戻り、服飾テンプレートとのマッチング処理が再度実行され、服飾合成データの抽出が行われる(S54〜S57)。
【0053】
次いで、服飾合成データの輝度が分析される(S60)。ここでは、服飾合成データが上から順に所定間隔毎に横方向に走査され、輝度の変化が測定される。輝度は、服飾の色、柄、マーク等によって変化する。例えば、図14に示す無地のシャツの輝度パターンは、一色のみであるので輝度が変化せず、横ばいの直線状となる。図15に示す格子状の柄を有するシャツの輝度パターンは、有色と無色とが交互になっているので輝度が所定間隔毎に上下に変化し、歯形に波を打った形状となる。図16に示す胸もとに円形状のワンポイントのマークを有するシャツの輝度パターンは、マークに該当する位置で輝度が急激に低下するので、中央が凹んだ形状となる。
【0054】
このように分析された輝度パターンは、RAM23の輝度パターン記憶エリア233(図4参照)に記憶され、輝度パターンの変化が所定値以上である点が、柄、マーク等の境界を示すフロント点(F)として、RAM23のフロント点記憶エリア237(図4参照)にそれぞれ記憶される(S61)。
【0055】
次に、図11のフローに進み、RAM23の輝度パターン記憶エリア233に記憶された輝度パターンについて、輝度パターンが一定でないか否かが判断される(S72)。図15,図16に示す輝度パターンのように、輝度パターンが一定ではない場合(S72:YES)、最も頻度の高い輝度が、服飾(本実施例ではシャツ)の基本色として抽出される(S73)。最も頻度の高い輝度の部分は、服飾合成データにおいて全体を占める割合が最も大きい色である。そのような色を服飾アバターの基本色にすることで、実際の人物の服飾の基本色を反映させることができる。抽出された基本色は、RAM23の基本色記憶エリア234(図4参照)に記憶される。
【0056】
次いで、輝度パターンに周期があるか否かが判断される(S74)。例えば、図15に示す輝度パターンのように周期がある場合(S74:YES)、その周期と、RAM23のフロント点記憶エリア237(図4参照)に記憶されたフロント点の位置とに基づき、柄データが作成される。この柄データは、RAM23の柄データ記憶エリア235(図4参照)に記憶される(S75)。その後、S76に進む。
【0057】
一方、輝度パターンに周期がない場合(S74:NO)、続いて、輝度パターンが局地的に変化しているか否かが判断される(S76)。例えば、図16示す輝度パターンのように局地的に変化している場合(S76:YES)、その局地的に変化した部分の輝度と、RAM23のフロント点記憶エリア237(図4参照)に記憶されたフロント点の位置とに基づき、マークデータが作成される。例えば、図17に示すように、シャツの胸元にあるワンポイントのマークを走査した場合、複数のフロント点が検出されて記憶される。フロント点だけを抽出すると、マークの境界に沿ってフロント点が並んで位置する。
【0058】
そこで、互いに近接しており、かつその位置の服飾データの輝度が同じであるフロント点とフロント点とをベジェ曲線で結ぶことによって、円形のマークを実物に近い形状で表現できる。ここで、フロント点を走査する方向が1方向だけの場合、その走査線にほぼ平行であるマークの境界を検出することが難しくなる可能性がある。そこで、走査方向を上下及び左右の2方向とすることで、格子状にフロント点を検出しても良い。格子状にフロント点を検出することで、近接している距離をその格子の対角線の距離以内に制限できる。このように作成されたマークデータが、RAM23のマークデータ記憶エリア236(図4参照)に記憶される(S77)。なお、輝度パターンが局地的に変化していない場合(S76:NO)、マークではないので、そのままS78に進む。
【0059】
また、輝度パターンに周期があり、かつ局地的に変化する部分がある場合(S74:YES、S76:YES)、柄データとマークデータとが作成され、RAM23の柄データ記憶エリア235と、マークデータ記憶エリア236とにそれぞれ記憶される(S75、S77)。また、図14に示す輝度パターンのように一定である場合(S72:NO)、輝度の平均値が算出され、その算出された値が服飾の基本色として抽出され、RAM23の基本色記憶エリア234(図4参照)に記憶される(S82)。
【0060】
次いで、S65で作成された服飾合成データに対して、RAM23の柄データ記憶エリア235に記憶された柄データと、マークデータ記憶エリア236に記憶されたマークデータと、基本色記憶エリア234に記憶された基本色とが合成され、服飾アバターデータが作成される(S78)。
【0061】
続いて、作成した服飾アバターデータがディスプレイ31に表示されると共に、その服飾アバターデータを編集するか否かの確認メッセージと、「YES」「NO」の確認ボタンとがディスプレイ31の下側に表示される(S79)。そして、「YES」の確認ボタンが選択されたか否かが判断される(S80)。「YES」が選択された場合(S80:YES)、編集アプリが起動し(S81)、編集画面が表示される。編集画面では、服飾アバターデータの拡大・縮小、回転、描画、配色等が選択可能であり、選択された処理に応じて、服飾アバターデータが編集される。従って、自分の好みに合わせて、服飾アバターデータを自由自在に変更できる。また、服飾アバターデータの不鮮明な部分について修正することも可能である。
【0062】
一方、「NO」の確認ボタンが選択された場合(S80:NO)、図7のフローに戻る。なお、ここまでの処理は、人物の表の全身画像に加え、人物の裏の全身画像についても同様に実行される。従って、服飾アバターデータは、表のデータと、裏のデータとがそれぞれ作成される。次いで、これらの服飾アバターデータが、フラッシュメモリ24の3D用テンプレート記憶エリア244に記憶された3D用テンプレートに貼り付けられる(S27)。
【0063】
続いて、ディスプレイ31に、「服飾アバターデータを保存しますか?」の確認メッセージと、「YES」「NO」の確認ボタンとが表示され、ユーザの確認ボタンの選択に基づき、服飾アバターデータを保存するか否かが判断される(S28)。「YES」が選択された場合(S28:YES)、作成された服飾アバターデータがフラッシュメモリ24の服飾アバターデータ記憶エリア243に記憶される(S29)。「NO」が選択された場合(S28:NO)、ディスプレイ31に、「服飾アバターデータをサーバに送信しますか?」の確認メッセージと、「YES」「NO」の確認ボタンとが表示され、ユーザの確認ボタンの選択に基づき、服飾アバターデータを送信するか否かが判断される(S30)。
【0064】
そして、「YES」が選択された場合(S30:YES)、服飾アバターデータがネットワーク4を介してサーバ5に送信され(S31)、処理が終了する。NOの確認ボタンが選択された場合(S30:NO)、そのまま処理が終了する。サーバ5では、受信した服飾アバターデータは、オブジェクトとしてのアバターアイテムとして記憶される。そして、端末装置3,6の要求に応じて、アバターとオブジェクトとを関連付けたアバター情報を端末装置3,6に送信する。従って、例えば、端末装置3で作成した服飾アバターデータをサーバ5に送信し、サーバ5で記憶することによって、端末装置6からサーバ5にアクセスすることによって、インターネットの仮想空間において、服飾アバターデータを反映させたアバターを登場させることができる。
【0065】
なお、上記説明において、図1,図3に示すカメラ32が本発明の「撮像手段」に相当し、図5に示すフラッシュメモリ24の服飾テンプレート記憶エリア242が本発明の「服飾画像パターン記憶手段」に相当する。また、図6のS15の処理を実行するCPU21が本発明の「人物部位抽出処理」に相当し、図7のS25の処理を実行するCPU21が本発明の「服切り出し処理」に相当し、図10のS54の処理を実行するCPU21が本発明の「服飾形状特定手段」に相当し、図11のS78の処理を実行するCPU21が本発明の「服飾モデル画像データ作成手段」に相当し、S7のS31の処理を実行するCPU21が本発明の「服飾モデル画像データ出力手段」に相当する。
【0066】
また、図10、図11のS60、61、72、73、74、75、76、77の処理を実行するCPU21が本発明の「デザイン抽出手段」に相当する。また、図9のS46の処理を実行するCPU21が本発明の「肌色領域特定手段」に相当する。また、図1のS62の処理を実行するCPU21が本発明の「形状変更手段」に相当する。また、図11のS80の処理を実行するCPU21が本発明の「服飾モデル画像データ変更手段」に相当する。また、図6のS18の処理を実行するCPU21が本発明の「ブロック位置変更手段」に相当する。
【0067】
以上説明したように、本実施形態の端末装置3では、カメラ32で撮像した人物の全身画像データを元に、人物の服飾のみをモデル化した服飾アバターデータを作成できる。CPU21による服飾アバター作成処理では、全身画像データから人物の部位を抽出する人物部位抽出処理が実行される。次いで、抽出された人物の部位に基づき、全身画像データから人物画像データが抜き出される。さらに、人物画像データから肌色の領域を削除して、服飾の部分を切り出す服切り出し処理が実行される。次に、服飾のカテゴリを特定するために、服切り出し処理によって作成された服飾データについて、フラッシュメモリ24に記憶された複数の服飾のテンプレートとのマッチング処理が実行される。
【0068】
そして、最も相関の高かったテンプレートのカテゴリの形状が、人物画像データから切り出され、テンプレートと合成されて服飾合成データが作成される。続いて、服飾合成データについて、輝度パターンと輝度の変化が所定値以上であるフロント点とが分析され、それらの分析情報を元に、服飾アバターデータが作成される。服飾アバターデータは、ユーザの選択によってサーバ5に送信される。
【0069】
サーバ5では、送信された服飾アバターデータが、オブジェクトとしてのアバターアイテムとして記憶される。そして、端末装置3,6の要求に応じて、アバターとオブジェクトとを関連付けたアバター情報を端末装置3,6に送信する。これにより、インターネットの仮想空間において、服飾アバターデータを反映させたアバターを登場させることができる。さらに、アバター画像の服飾のパターンが豊富になるので、バラエティに富んだアバター画像を作成でき、コミュニケーションツールとしてのアバターの機能をより一層向上できる。
【0070】
なお、本発明は、上記実施形態に限定されることなく、種々の変更が可能である。例えば、上記実施形態では、3D用の服飾アバターデータを作成するために、カメラ32で人物の表と裏についての全身画像データを撮像したが、表だけ(裏だけ)の服飾アバターデータを作成する場合は、全身画像データは表又は裏だけでよい。
【0071】
また、例えば、人物の表側の全身画像データのみを用いて3D用の服飾アバターデータが作成されても差し支えない。表側の全身画像データのみが用いられる場合、例えばマークデータ(図11のS77参照)を除いた表側の全身画像データが、裏側の全身画像データの代わりに用いられる。
【0072】
また、上記実施形態では、服飾のカテゴリとして、シャツ、ズボン、スカート等を例に挙げたが、靴、手袋、装飾品(ネックレス、ブレスレット等)についても同様に、服飾アバターデータを作成してもよい。
【0073】
また、上記実施形態では、端末装置3を携帯端末として説明したが、据置型、ノート型のPCであってもよく、端末の形状については限定されない。
【0074】
また、上記実施形態では、端末装置3で服飾アバターデータを作成し、サーバ5に送信するWEB提供システム1を説明したが、例えば、サーバ5で服飾アバターデータを作成するようにしてもよい。この場合、端末装置3で撮像した全身画像データをサーバ5に送信し、その全身画像データに基づいて、上記実施形態と同様に、サーバ5で服飾アバターデータを作成するようにすればよい。
【0075】
また、上記実施形態では、サーバ5に服飾アバターデータを送信するCPU21が本発明の「服飾モデル画像データ出力手段」に相当するものとして説明したが、例えば、ディスプレイ31に服飾アバターデータを表示するCPU21であってもよい。
【符号の説明】
【0076】
3 端末装置
21 CPU
23 RAM
24 フラッシュメモリ
31 ディスプレイ
32 カメラ
231 ブロック配置記憶エリア
232 肌色基準値記憶エリア
233 輝度パターン記憶エリア
234 基本色記憶エリア
235 柄データ記憶エリア
236 マークデータ記憶エリア
237 フロント点記憶エリア
241 プログラム記憶エリア
242 服飾テンプレート記憶エリア
243 服飾アバターデータ記憶エリア

【特許請求の範囲】
【請求項1】
人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置であって、
人物の服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段と、
人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付け手段と、
当該ブロック対応付け手段によって対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出手段と、
当該服飾データ抽出手段によって抽出された前記服飾データと、前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定手段と、
当該服飾形状特定手段によって特定された服飾の形状に基づき、前記人物の服飾のモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成手段と、
当該服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力手段と
を備えたことを特徴とするモデル画像作成装置。
【請求項2】
前記人物の撮像データにおいて、前記服飾形状特定手段によって特定された前記服飾の形状に対応する部分から、服飾の模様を含むデザインを抽出するデザイン抽出手段を備え、
前記服飾モデル画像データ作成手段は、
前記服飾形状特定手段によって特定された服飾の形状と、前記デザイン抽出手段によって抽出されたデザインとを合成することによって、前記服飾モデル画像データ作成することを特徴とする請求項1に記載のモデル画像作成装置。
【請求項3】
前記服飾データ抽出手段は、
前記ブロック対応付け手段によって対応付けされた前記部分ブロック内において、肌色領域を特定する肌色領域特定手段を備え、
前記肌色領域特定手段によって特定された前記肌色領域を前記部分ブロック内から除いた領域を前記服飾データとして抽出することを特徴とする請求項1又は2に記載のモデル画像作成装置。
【請求項4】
前記肌色領域特定手段は、前記ブロック対応付け手段によって前記撮像データに対応付けされた前記部分ブロックのうち、前記人物の顔部分に対応する部分ブロックから前記肌色領域を特定するための基準値を取得し、前記基準値に基づいて、前記肌色領域を特定することを特徴とする請求項3に記載のモデル画像作成装置。
【請求項5】
前記服飾形状特定手段は、
前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンの形状を、前記服飾データ抽出手段によって抽出された前記服飾データの形状に沿って変更する形状変更手段を備え、
前記服飾データ抽出手段によって抽出された前記服飾データと、前記形状変更手段によって形状が変更された前記服飾画像パターンとを比較することを特徴とする請求項1乃至4の何れかに記載のモデル画像作成装置。
【請求項6】
前記服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データに対応する服飾モデル画像の形状及びデザインを変更する服飾モデル画像データ変更手段を備えたことを特徴とする請求項1乃至5の何れかに記載のモデル画像作成装置。
【請求項7】
前記ブロック対応付け手段によって対応付けされた前記部分ブロックの位置を変更するブロック位置変更手段を備えたことを特徴とする請求項1乃至6の何れかに記載のモデル画像作成装置。
【請求項8】
人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置を機能させるモデル画像作成装置のモデル画像作成プログラムであって、
人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付けステップと、
当該ブロック対応付けステップにおいて対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出ステップと、
当該服飾データ抽出ステップにおいて抽出された前記服飾データと、服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定ステップと、
当該服飾形状特定ステップにおいて特定された服飾の形状に基づき、前記人物の服飾をモデルしたモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成ステップと、
当該服飾モデル画像データ作成ステップにおいて作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力ステップと
を備えたことを特徴とするモデル画像作成装置のモデル画像作成プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate


【公開番号】特開2011−170761(P2011−170761A)
【公開日】平成23年9月1日(2011.9.1)
【国際特許分類】
【出願番号】特願2010−36075(P2010−36075)
【出願日】平成22年2月22日(2010.2.22)
【出願人】(000005267)ブラザー工業株式会社 (13,856)
【Fターム(参考)】