説明

画像処理装置および画像処理方法

【課題】ユーザが感覚的に理解可能なユーザインタフェース技術を提供する。
【解決手段】携帯型ゲーム装置100は、双方向カメラ214により据置モニタ202とユーザ218を撮像する。携帯モニタ212には据置モニタ202を撮像した画像のうちキャラクタ216の頭部がユーザ218の頭部に入れ替わった合成画像を表示させる。携帯型ゲーム装置100は双方向カメラ214を介してユーザの表情を検出し、ユーザの表情に対応づけられている各種の処理を実行する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、表情認識に基づくユーザインタフェースを提供するための技術、に関する。
【背景技術】
【0002】
近年、携帯型ゲーム端末や携帯電話をはじめとしてさまざまな携帯型の情報端末(以下、単に「携帯機器」とよぶ)が普及している。これらの携帯機器の中には、ゲームの他にもテレビ放送を受信する機能、音楽や映像を再生する機能などのさまざまな機能を備えたものも多い。携帯機器の高機能化により、ユーザはさまざまなデジタルコンテンツを場所を選ばずに楽めるようになってきた。
【特許文献1】特開2005−216061号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
その一方、携帯機器の操作は、高機能化にともなって複雑化しがちである。特に、コンピュータゲームにとって操作性は重要なポイントであり、ユーザが感覚的に理解可能な「買ってすぐ使える」ユーザインタフェースであることが望ましい。
【0004】
本発明は、このような課題に鑑みてなされたものであり、その主たる目的は、ユーザが映像コンテンツに没入しやすい感覚的なユーザインタフェースを実現することである。
【課題を解決するための手段】
【0005】
本発明のある態様は、携帯機器をはじめとする情報処理装置において実行可能な画像処理プログラムである。
この画像処理プログラムは、ユーザ以外の他人が撮像された画像において他人の頭部にあたる領域をユーザの頭部画像と入れ替えることにより、他人の頭部をユーザの頭部に入れ替えた合成画像を生成して画面に表示させる。そして、ユーザの表情に応じてさまざまな処理を実行する。
【0006】
たとえば、ユーザの表情が「怒りの表情」であるときにはシーンAを表示させ、「悲しみの表情」であるときにはシーンBを表示させるといった具合である。ここでいう「他人」とは映画やドラマ、コンピュータゲーム、写真などのさまざまな映像コンテンツに登場する人物であってもよい。ユーザは、合成画像にて「他人」と入れ替わることにより映像コンテンツの一部となることができる。表情認識に基づく直感的な入力とユーザ自身を含む合成画像の出力により、映像コンテンツに対するユーザの没入感・一体感をいっそう向上させることができる。
【0007】
なお、本発明を方法、装置、システム、記録媒体により表現したものもまた、本発明の態様として有効である。
【発明の効果】
【0008】
本発明によれば、映像コンテンツに没入しやすいユーザインタフェースを提供できる。
【発明を実施するための最良の形態】
【0009】
図1は、本実施例における映像コンテンツのユーザインタフェースを説明するための模式図である。
携帯型ゲーム装置100は、ユーザ218によって持ち運び可能な装置である。据置モニタ202は一般的なテレビモニタである。同図においては、据置モニタ202にテレビ番組が表示されており、キャラクタ216が映し出されている。キャラクタ216は、テレビ番組に登場している俳優など通常の人物画像である。
【0010】
携帯型ゲーム装置100は、双方向カメラ214を備える。双方向カメラ214は、携帯型ゲーム装置100の前面側と背面側を同時に撮像可能なカメラである。ユーザ218が携帯型ゲーム装置100を据置モニタ202に向けてかざすことにより、双方向カメラ214は据置モニタ202に映し出されている画像とユーザ218自身の画像を同時に撮像する。双方向カメラ214は、動画像としてそれぞれの画像を撮像することもできる。双方向カメラ214は、2つのカメラが一体形成されたものであってもよいし、ハーフミラーにより1つのカメラで2つの画像を同時に取得できるよう形成されてもよい。
【0011】
携帯型ゲーム装置100は、据置モニタ202の撮像画像のうち、キャラクタヘッド204をユーザヘッド208に入れ替えて携帯モニタ212に表示させる。キャラクタヘッド204は、据置モニタ202の撮像画像からキャラクタ216の頭部にあたる画像領域を抽出した画像である。ユーザヘッド208は、ユーザ218の撮像画像からユーザ218の頭部にあたる画像領域を抽出した画像である。こうして、携帯型ゲーム装置100の携帯モニタ212には、テレビ番組の画像をベースとしつつも、キャラクタ216の顔だけがユーザ218の顔に入れ替わった画像(以下、このような画像のことを「合成画像」とよぶ)が表示される。以下、据置モニタ202の画像のように、ユーザ218が入れ替わる対象となる画像のことを「ベース画像」、ベース画像のうちキャラクタ216のようにユーザ218が入れ替わりの対象となるキャラクタのことを「ベースキャラクタ」、ユーザ218自身を撮像した画像のことを「ユーザ画像」とよぶことにする。ベース画像においてベースキャラクタの頭部にあたる画像領域を、ユーザ画像においてユーザ218の頭部にあたる画像領域と入れ替えることにより、合成画像が生成されることになる。
【0012】
双方向カメラ214は、所定の時間間隔、たとえば、30分の1秒から60分の1秒間隔で据置モニタ202とユーザ218を定期的に撮像する。これにあわせて合成画像も定期的に生成されるので、合成画像を動画像として生成することもできる。据置モニタ202の表示内容が変化しても、携帯モニタ212にはその変化に対応した合成画像が動画表示される。更に詳しくは図3に関連して後述する。据置モニタ202で映画が表示されている場合、俳優をベースキャラクタとすれば、ユーザ218は携帯モニタ212にてあたかも自分が出演しているかのように映画を楽しむことができる。
【0013】
ベース画像となり得るのは、実写のドラマや映画、スポーツのような映像コンテンツに限らない。たとえば、アニメ番組に登場するキャラクタをベースキャラクタとしてもよい。また、ベースキャラクタは必ずしも人間である必要はなく、擬人化された動物やモノをベースキャラクタとしてもよい。携帯型ゲーム装置100自体が映像コンテンツを再生してもよい。この場合、携帯型ゲーム装置100はユーザ画像のみ撮像する。携帯型ゲーム装置100は映像コンテンツの再生画像を毎フレームサンプリングすることにより定期的にベース画像を取得できるので、合成画像を生成する基本的な原理は同様である。
【0014】
ベース画像は、コンピュータゲームの画像であってもよい。携帯型ゲーム装置100が実行するコンピュータゲーム、たとえば、CG(Computer Graphics)がふんだんに盛り込まれたロールプレイングゲームやアドベンチャーゲームからベース画像を取得してもよい。据置型ゲーム装置200がコンピュータゲームを実行し、そのゲーム画像が据置モニタ202に表示されるときには、携帯型ゲーム装置100は双方向カメラ214によりベース画像となるゲーム画面を撮像してもよい。
主人公に対するユーザの愛着を増すために、ユーザが主人公の名前や姿を設定できるコンピュータゲームは一般的である。本実施例に示す携帯型ゲーム装置100によれば主人公の顔をユーザ218の顔と入れ替えることができるため、ユーザのゲームキャラクタに対する一体感をいっそう高めることができる。
【0015】
ベース画像は、写真のような静止画であってもよい。たとえば、アイドルの写真を撮像することによりベース画像を取得し、アイドルの顔とユーザ218の顔を入れ替えて合成画像を生成することもできる。動画あるいは静止画として生成された合成画像を記録することにより、既存の映像コンテンツから自分参加型の映像コンテンツを簡単に作ることができる。
なお、上記したような機能を携帯型ゲーム装置100ではなく据置型ゲーム装置200において実現するという方法も考えられる。たとえば、ユーザ218を撮像するためのカメラを据置モニタ202の上に設置し、据置型ゲーム装置200はこのカメラにユーザ画像を撮像させ、合成画像を生成し、据置モニタ202に表示させてもよい。本実施例においては、ユーザ画像とベース画像から合成画像を生成する処理(以下、単に「合成処理」とよぶ)は、もっぱら携帯型ゲーム装置100単体の機能として実現されるものとして説明する。
以下、携帯型ゲーム装置100の具体的な機能を説明した後、携帯型ゲーム装置100のさまざまな使用例を説明する。
【0016】
図2は、携帯型ゲーム装置100の機能ブロック図である。
ここに示す各ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
ここでは、主として各ブロックの発揮すべき機能について、その具体的な作用については、図3以降に関連して説明する。
【0017】
携帯型ゲーム装置100は、ユーザインタフェース処理部110、通信部130、データ処理部140およびデータ保持部160を含む。
ユーザインタフェース処理部110は、携帯型ゲーム装置100のユーザからの入力処理やユーザに対する情報表示のようにユーザインタフェース全般に関する処理を担当する。通信部130は、据置型ゲーム装置200やコンテンツサーバ(図示せず)など、外部装置との通信処理を担当する。コンテンツサーバとは、コンテンツIDとよばれるID情報と映像や音楽などのデジタルコンテンツを対応づけて保持する1以上のサーバ装置のことである。コンテンツIDやコンテンツサーバ、および、これらに関連する処理の詳細については図9に関連して後述する。
【0018】
データ処理部140は、ユーザインタフェース処理部110を介した入力操作や通信部130から取得されたデータを元にして各種のデータ処理を実行する。データ処理部140は、ユーザインタフェース処理部110、通信部130およびデータ保持部160の間のインタフェースの役割も果たす。
データ保持部160は、あらかじめ用意された各種データや、データ処理部140から受け取ったデータをはじめとするさまざまなデータを格納する。
【0019】
ユーザインタフェース処理部110は、入力部112と表示部120を含む。入力部112はユーザからの操作入力を受け付ける。表示部120は携帯モニタ212を介してユーザにさまざまな情報を表示する。入力部112は双方向カメラ214などにより画像を取得する画像取得部114を含む。画像取得部114は、ユーザ画像取得部116によりユーザ画像を取得し、ベース画像取得部118によりベース画像を取得する。このほかにもユーザインタフェース処理部110は音声入力や音声出力、ボタンインタフェースを介した入力、内蔵バイブレータの制御なども携帯型ゲーム装置100のユーザインタフェースの一種として提供する。
通信部130は、コンテンツサーバからデジタルコンテンツを取得するコンテンツ取得部132を含む。
【0020】
データ処理部140は、画像処理部142と処理実行部156を含む。画像処理部142は、合成処理をはじめとする画像処理全般を担当する。処理実行部156は、画像処理部142の処理結果に応じて携帯型ゲーム装置100全体を統括的に制御する。処理実行部156の処理内容については、図3以降に関連して詳述する。
【0021】
画像処理部142は、ID抽出部144、頭部特定部146、合成部148、キャラクタ選択部158、表情処理部150を含む。ID抽出部144はベース画像から図9に関連して詳述するコンテンツIDを抽出する。頭部特定部146は、ベース画像におけるベースキャラクタの頭部にあたる画像領域、ユーザ画像におけるユーザの頭部にあたる画像領域を特定する。以下、ベース画像やユーザ画像において頭部にあたる画像領域のことを単に「頭部領域」とよぶことにする。頭部領域の特定については既存の技術を応用すればよい。たとえば、数十から数百種類の顔画像を合成した基準画像をあらかじめ用意しておく。頭部特定部146はベース画像中に矩形領域を設定し、基準画像と矩形領域の画像を比較して画像としての類似度を数値化する。ベース画像中にさまざまな矩形領域を設定しながら類似度を適宜算出することにより、ベース画像中において「顔らしい」領域を頭部領域として特定する。ユーザ画像からユーザの頭部領域を特定する処理についても同様である。
【0022】
合成部148は、ベース画像とユーザ画像から合成画像を生成する。この合成画像は表示部120により携帯モニタ212に表示される。表情処理部150は、ユーザ画像やベースキャラクタやユーザの表情に基づく各種処理を担当する。表情処理部150は、表情判定部152と適否判定部154を含む。表情判定部152は、ユーザやベースキャラクタの表情を検出する。データ保持部160の表情パターン保持部164には、「怒りの表情」、「悲しみの表情」、「笑いの表情」、「困惑の表情」、「嫌悪の表情」・・・のようにさまざまな人間の表情に対応した画像が保持されている。これらの画像のことを「表情パターン」とよぶことにする。表情判定部152は、ユーザの頭部領域と各表情パターンの画像としての類似度(以下、「表情類似度」とよぶ)を計算することにより、ユーザの表情に適合する表情パターンを特定する。ベースキャラクタの表情の特定についても同様である。表情類似度の計算方法については、既存の画像マッチングに関する技術を応用すればよい。適否判定部154は、ユーザの表情が所定の表情パターンに適合しているかを判定する。たとえば、ベースキャラクタの表情パターンとユーザの表情パターンが一致しているかを判定する。
【0023】
なお、表情パターンは上述のように各表情について類型化された画像であってもよいが、各表情ごとの特徴を示すデータ(以下、このようなデータのことを「表情特徴情報」とよぶ)であってもよい。たとえば、「怒りの表情」であれば眉間にシワができるという特徴があるかもしれないし、「笑いの表情」であれば目尻が下がるという特徴を見いだせるかもしれない。このように、表情特徴情報は、眉の角度、目尻の角度、口のかたちなどさまざまな項目について指標化した数値情報である。キャラクタ選択部158は、複数のベースキャラクタがベース画像に表示されているときに、入れ替わり対象となるベースキャラクタ(以下、特に「対象ベースキャラクタ」とよぶ)を選択する。選択方法については後述する。
また、頭部領域の検出と表情の検出はいずれが先ということはなく、実質的に同時実行されてもよい。この場合、表情処理部150は、表情判定部152に加えて頭部特定部146の機能を備えてもよい。表情処理部150は、パターンマッチングの手法により、撮像画像中から、ある表情パターンにマッチする「顔のような」画像領域を特定する。この画像領域が頭部領域として特定される。更に、さまざまな表情パターンのうち、もっともマッチした表情パターンによりベースキャラクタやユーザの表情が特定される。このような処理方法によれば、頭部領域の検出と表情の検出を実質的に同時実行できる。
【0024】
データ保持部160は、ユーザ画像保持部162、表情パターン保持部164およびゲームデータ保持部166を含む。ユーザ画像保持部162は、ユーザのさまざまな表情に対応して複数種類のユーザ画像を保持する。ユーザは、双方向カメラ214を使って、あらかじめさまざまな表情にてユーザ画像を撮像しておき、ユーザ画像保持部162に格納しておく。双方向カメラ214を介してリアルタイムで取得されるユーザ画像ではなく、ユーザ画像保持部162の中からユーザが選択するユーザ画像を対象として合成画像を生成することもできる。
【0025】
表情パターン保持部164は、さまざまな表情についての表情パターンを保持する。ゲームデータ保持部166は、携帯型ゲーム装置100上で実行されるゲームソフトウェアのデータを保持する。
【0026】
図3は、合成画像の生成過程を示すフローチャートである。
同図は、据置モニタ202に映し出されているベース画像を対象として合成画像を生成する場合におけるフローチャートである。ベース画像には1人しかベースキャラクタが映し出されていないものとする。
まず、ベース画像取得部118は双方向カメラ214を介して据置モニタ202を撮像することによりベース画像を取得する(S10)。頭部特定部146は、ベース画像からベースキャラクタの頭部領域を特定する(S12)。次に、ユーザ画像取得部116は双方向カメラ214を介してユーザを撮像することによりユーザ画像を取得する(S14)。頭部特定部146は、ユーザ画像からユーザの頭部領域を特定する(S16)。合成部148は、ベース画像におけるベースキャラクタの頭部領域をユーザの頭部領域の画像と差し替えることにより合成画像を生成する(S18)。表示部120は、合成画像を携帯モニタ212に表示させる(S20)。ベース画像が動画である場合には、S10からS20までの処理は所定の時間間隔にて繰り返し処理され、動画として合成画像が生成される。
【0027】
なお、ベース画像は、あらかじめデータ保持部160に保持されている任意の画像であってもよい。同様に、ユーザ画像はユーザ画像保持部162に保持されているユーザ画像の中から任意に選択された画像であってもよい。
【0028】
携帯モニタ212に加えて、あるいは、携帯モニタ212の代わりに据置モニタ202に合成画像を表示させてもよい。この場合、合成部148が生成した合成画像は通信部130によって据置型ゲーム装置200に送信され、据置型ゲーム装置200は据置モニタ202に合成画像を表示させる。携帯モニタ212や据置モニタ202には、ユーザの顔をベースキャラクタの顔に入れ替えた合成画像(以下、「逆合成画像」とよぶ)が表示されてもよい。逆合成画像の生成方法は合成画像の生成方法と同等である。すなわち、ユーザ画像におけるユーザの頭部領域をベース画像におけるベースキャラクタの頭部領域の画像に置き換えることにより生成できる。
次に、携帯型ゲーム装置100の特徴的なユーザインタフェースを用いるさまざまな場面について実施例1から4に分けて説明する。
【0029】
実施例1:
ベース画像、あるいは、ベースキャラクタの表情にあわせてユーザが表情を変化させることにより、携帯モニタ212の表示態様が変化するコンピュータゲームAに関する。コンピュータゲームAはゲームデータ保持部166に格納され、処理実行部156により実行制御される。コンピュータゲームAが実行開始されると「悲しい表情に対応する悲しいシーン」、「笑いの表情に対応する楽しいシーン」のように、携帯モニタ212にはさまざまなシーンが所定のタイミングにて動的に切り換え表示される。ユーザはシーンが切り替わるごとにシーンにあった表情をする必要がある。シーンに合った表情であれば適合ポイントとよばれる点数が1点加算され、シーンに合った表情ができなければ適合ポイントが1点減算される。適合ポイントは50点から開始され、0点になるとゲームオーバーとなる。
【0030】
図4(a)は、実施例1のコンピュータゲームAの実行中においてユーザの表情がシーンに合っているときの画面図である。
各シーンにおいてはベースキャラクタが1人登場するが、携帯モニタ212にはベースキャラクタの頭部はユーザの頭部に入れ替わった合成画像が表示される。シーンが切り替わると、切り替わってから所定時間後、たとえば、3秒後にベース画像取得部118はユーザ画像を取得し、表情判定部152はユーザの表情を特定する。適否判定部154は、ユーザの表情がシーンに合っているかを判定し、合っていれば適合ポイントを1点加算する。逆に合っていなければ適合ポイントを1点減算する。適合ポイントが50点以上のときには、処理実行部156は「星」を携帯モニタ212に表示させる。処理実行部156は、適合ポイントが高いほど表示部120にたくさんの星を表示させる。処理実行部156は、適合ポイントが高いほど携帯モニタ212を明るく表示させてもよい。
【0031】
図4(b)は、実施例1のコンピュータゲームAの実行中においてユーザの表情がシーンに合っていないときの画面図である。
楽しいシーンでユーザが悲しい表情をしたり、悲しいシーンでユーザが笑顔を作ると、適合ポイントが減算されていく。適合ポイントが50点未満となると、処理実行部156は携帯モニタ212から星を消去し、代わりに画面全体を暗くしていく。更に適合ポイントが低くなると、携帯モニタ212も更に暗くなり、0点になると携帯モニタ212は真っ暗となってゲームオーバーとなる。
【0032】
なお、適合ポイントはそのままゲームのスコアとなってもよい。処理実行部156は、ゲームが進行するについれてシーンの切換頻度を高くしたり、シーンの種類を増やしていくことによって徐々にゲームの難易度が向上するように制御する。
【0033】
このほかにも、処理実行部156は、適合ポイントが所定値以上となると、所定の特典画像を表示させる。このような特典画像を表示させることにより、ユーザのゲームに対する継続意欲を喚起しやすくなる。処理実行部156は、適合ポイントに応じて、BGMも変化させる。処理実行部156は、適合ポイントが高いときにはアップテンポの曲を流し、適合ポイントが低いときにはスローテンポの曲を流す。適合ポイントが所定値、たとえば、15点以下となると、処理実行部156は内蔵バイブレータを振動させることによりユーザの危機感をあおってもよい。このように、ユーザは表情を変化させるだけでコンピュータゲームAを楽しむことができる。表情という直感的なユーザインタフェースであるため、ボタン操作に苦手意識を持つユーザであっても、買ってすぐにゲームを楽しむことが可能となる。
【0034】
図5は、実施例1におけるユーザの表情の適合判定処理を示すフローチャートである。
このフローチャートは、コンピュータゲームAが実行中であってシーンが切り替わってから3秒後のタイミングで実行されるフローチャートであるとして説明する。図3のS10からS20までの処理が実行され、ユーザの表情の特定から合成画像の生成・表示までがなされているとする。
適否判定部154はベース画像に設定されているシーンとユーザの表情が合っているかを判定する(S30)。シーンには、シーンに合った表情を示すシーン情報が含まれている。たとえば、シーンAには「怒りの表情」、シーンBには「悲しみの表情」のようにシーン情報が設定されている。適否判定部154は、切り替わったシーンのシーン情報とユーザの表情を比較することによりS30の判定を行う。
【0035】
ユーザの表情がシーンに合っていれば(S32のY)、適否判定部154は適合ポイントを加算する(S34)。合っていなければ(S32のN)、適否判定部154は適合ポイントを減算する(S36)。適合ポイントが0点となると(S37のY)、処理実行部156はゲームを終了させる(S38)。0点でなければ(S37のN)、処理実行部156は適合ポイントに応じた演出内容を決定し、表示部120は決定された演出表示を行う(S39)。このような処理をシーンが切り替わるごとに実行することにより、適合ポイントが加減算され、それにあわせて携帯モニタ212の表示態様も変化する。
また、シーンが切り替わってから3秒後のような所定時間経過後の表情ではなく、所定期間内において継続する表情、あるいは、所定期間内における表情の変化に応じて適否を判定してもよい。たとえば、「怒りの表情」に対応するシーンが所定時間、たとえば、1分間継続するとき、ユーザは「怒りの表情」を1分間継続させる。ユーザが怒りの表情を継続できた時間の長いほど多くの適合ポイントが加算される。
各シーンにおいては、明示的に表情を指定する情報を表示させてもよい。たとえば、シーンが切り替わったときに「怒れ」とか「悲しめ」といった文字情報が表示されてもよい。あるいは、シーンに登場するキャラクタや背景色などによってシーンに対応する表情を示唆してもよい。たとえば、背景が無彩色のシーンでは「悲しみの表情」、背景が赤色のシーンでは「怒りの表情」といった具合である。
また、映像コンテンツのストーリー展開に応じて、シーンに適合する表情が変化してもよい。たとえば、「死」や「敗北」、「失望」などが表現される場面や、「勝利」、「誕生」、「達成」などが表現される場面に応じて、ユーザはシーンに合った表情を作る。ユーザが考えるシーンに適合する表情と、実際にそのシーンに対応づけられている表情がマッチしていれば、ユーザは適合ポイントを取得できる。
更に、ユーザは映像コンテンツのストーリー展開を予測して、その予測に基づいて表情を変化させ、その表情がシーンにマッチしたときに適合ポイントが加算されるとしてもよい。たとえば、映像コンテンツの動画再生時において、ユーザは悲しいシーンへの展開が予想されるときには悲しい表情を作る。実際に悲しいシーンにストーリー展開すれば適合ポイントが加算される。このような処理方法によれば、映像コンテンツのストーリー展開の予測というゲーム性を実現できる。
【0036】
適否判定部154は、ベースキャラクタの表情とユーザの表情が合っているかを判定してもよい。たとえば、ベースキャラクタが笑っているときにユーザも笑えば適合ポイントが加算される。一方、ベースキャラクタが笑っているのにユーザが笑っていなければ適合ポイントが減算される。この場合、表情判定部152はベースキャラクタの表情を検出し、ベースキャラクタの表情に合う表情パターンを特定する。適否判定部154は、S30においてベースキャラクタの表情とユーザの表情が同じ表情パターンであるかを判定する。
【0037】
実施例1は、コンピュータゲームに限らず、既存の映像コンテンツにシーン情報を付加することでも実現できる。たとえば、既存の映像コンテンツを、笑うべきタイミングが発生してから所定時間以内に笑顔を作れれば適合ポイントが加算され、笑うタイミングがずれると適合ポイントが減算されるという映像コンテンツに改変してもよい。このように、既存の映像コンテンツに簡単にゲーム性を付与できることも実施例1に関連したメリットの一つである。
【0038】
実施例2:
ユーザが表情を変化させることにより、ゲーム展開が変化するコンピュータゲームBに関する。このコンピュータゲームBはゲームデータ保持部166に格納され、処理実行部156により実行制御される。コンピュータゲームBは、ユーザにさまざまな判断を要求し、ユーザの判断に応じてゲーム展開が変化する。このような操作方法はロールプレイングゲームやアドベンチャーゲームにおいてはごく一般的であるが、実施例2のコンピュータゲームBはこの選択をユーザの表情によって行っている点に特徴がある。
【0039】
図6は、実施例2のコンピュータゲームBがユーザの判断を要求するときの画面図である。
ベースキャラクタは同図向かって右側のキャラクタであり、ユーザヘッド208はユーザの頭部画像と入れ替わっている。一方、同図向かって左側のサブキャラクタ220は、ベースキャラクタの仲間のキャラクタである。サブキャラクタ220は入れ替わりの対象とならないキャラクタであり、ベースキャラクタではない。コンピュータゲームBにおいては、ユーザがさまざまな状況に直面し、適宜判断を下すことによりストーリーが展開する。同図は、サブキャラクタ220とベースキャラクタが敵キャラクタ(図示せず)を倒し、サブキャラクタ220がユーザに敵キャラクタを「許す」か、「許さない」かについて2者択一の判断を求めている場面を示している。
【0040】
ユーザが笑いの表情を作ると「許す」というコマンドが選択され、怒りの表情を作ると「許さない」というコマンドが選択される。いずれのコマンドが選択されるかに応じて、その後のゲーム展開が変化する。「許す」というコマンドが選択されたときには、第1のシナリオに移行し、「許さない」というコマンドが選択されたときには、第2のシナリオに移行する。第1のシナリオが実行されると敵キャラクタが新たな味方となり、第2のシナリオが実行されると敵キャラクタが反撃するため戦闘シーンに移行する。
【0041】
同図に示す場面において、表情判定部152はユーザの表情を特定する。コンピュータゲームBにおいては「笑う=許す=シナリオ1のプログラム実行」、「怒る=許さない=シナリオ2のプログラム実行」として表情とコマンド、更にその実行内容が対応づけられている。処理実行部156は、ユーザの表情に応じたコマンドを選択し、該当シナリオのプログラムを実行する。ユーザは、表情を変えるだけでゲーム展開を制御できるので、スピーディーなゲーム展開が可能となる。ここでは、明示的にユーザにコマンド選択を要求する場合について示したが、暗黙的な所定タイミングにてユーザの表情を検出し、その表情に応じてゲーム展開を変化させてもよい。ゲーム中にユーザが思わずしてしまった表情によってゲームの展開が変化していくとすれば、ユーザに「入力」という感覚すら持たせることなくゲームを実行することもできる。
【0042】
実施例3:
ベース画像に複数のベースキャラクタが表示されているときに、対象ベースキャラクタを選択できる映像コンテンツに関する。ドラマや映画などの映像コンテンツを再生する場合、複数の登場人物がベース画像上にあらわれる。実施例3においては、これら複数の登場人物の中から入れ替わり対象となる対象ベースキャラクタが選択される。ここでは、主役であるベースキャラクタAと脇役であるベースキャラクタBが登場するドラマを題材として説明する。
【0043】
図7(a)は、実施例3においてユーザが主役と入れ替わるときの画面図である。
同図向かって右側のキャラクタが主役のベースキャラクタA、同図向かって左側のキャラクタが脇役のベースキャラクタBである。ユーザは、主役のキャラクタAと脇役のキャラクタBのいずれかを対象ベースキャラクタとして選択する。携帯型ゲーム装置100に設置される右ボタンを押下すると、キャラクタ選択部158は右側のベースキャラクタAを対象ベースキャラクタと設定する。左ボタンを押下すると左側のベースキャラクタBが対象ベースキャラクタとなる。ここでは、ユーザはベースキャラクタAを対象ベースキャラクタとして選択しているとする。ベースキャラクタAの頭部は、ユーザ画像の頭部領域であるユーザヘッド208に入れ替わった合成画像となっている。
【0044】
図7(b)は、実施例3においてユーザが脇役と入れ替わるときの画面図である。
ここでは、ユーザは脇役のベースキャラクタBを対象ベースキャラクタとして選択しており、ベースキャラクタBの頭部はユーザヘッド208と入れ替わった合成画像となっている。
【0045】
このように、ユーザは映像コンテンツの登場人物の中から自分が演じたい登場人物を選択して、映像の中に入り込むことができる。たとえば、DVD(Digital Versatile Disk)やUMD(Universal Media Disc:登録商標)に格納されている映画であれば、登場人物を紹介する画面でユーザは対象ベースキャラクタを選択してもよい。処理実行部156は、選択された対象ベースキャラクタの顔の特徴を示す顔特徴情報をデータ保持部160に記録する。顔特徴情報とは、口や鼻のかたち、肌の色など、ベースキャラクタの顔を特徴づける情報であればよい。映画が開始されると、頭部特定部146は、定期的にベース画像からベースキャラクタ達の頭部領域を特定する。キャラクタ選択部158は、特定された頭部領域と対象ベースキャラクタの顔特徴情報を比較することにより、ベース画像から対象ベースキャラクタを特定する。ベース画像に対象ベースキャラクタが登場していれば、合成部148は合成処理を実行する。
【0046】
対象ベースキャラクタの選択は自動的になされてもよい。たとえば、ユーザが女性であるときには、女性のベースキャラクタの中から対象ベースキャラクタを選択可能としてもよい。また、キャラクタ選択部158は、ユーザの年齢に最も近い設定年齢の登場人物を対象ベースキャラクタとして自動的に選択してもよい。キャラクタ選択部158は、各登場人物の顔特徴情報とユーザの顔特徴情報を比較して、ユーザの顔と最も類似する登場人物を対象ベースキャラクタとして自動的に選択してもよい。
【0047】
複数のユーザが同じ映画に「共演」することもできる。たとえば、ユーザAは主役のキャラクタAを演じ、ユーザBは脇役のキャラクタBを演じるとする。このとき、キャラクタAの頭部はユーザAの頭部と入れ替わり、キャラクタBの頭部はユーザBの頭部と入れ替わる。例として据置型ゲーム装置200がDVDに記録されている映画を据置モニタ202に再生させているとする。ユーザAの携帯型ゲーム装置100は、ユーザAの頭部画像をユーザBの携帯型ゲーム装置100に定期的に送信する。ユーザBの携帯型ゲーム装置100は、キャラクタAの頭部画像をユーザAの頭部画像に入れ替え、キャラクタBの頭部画像をユーザBの頭部画像に入れ替える。こうして、ユーザBの携帯型ゲーム装置100にはユーザAとユーザBが登場する合成画像が表示される。ユーザAの携帯型ゲーム装置100に対しても同様の合成画像が表示される。このような処理方法によれば、複数のユーザが1つの映像コンテンツに同時参加できるため、演劇練習などの場面に応用可能である。
【0048】
対象ベースキャラクタは、ユーザの表情に基づいて選択されてもよい。あるユーザが携帯型ゲーム装置100にて映像コンテンツを再生している場面を想定する。この映像コンテンツにはベースキャラクタAとベースキャラクタBが現れているとする。映像コンテンツ再生中の所定タイミングにおいて、表情判定部152は、ベースキャラクタA、ベースキャラクタB、ユーザの各表情を特定する。キャラクタ選択部158は、ベースキャラクタAとベースキャラクタBのうち、ユーザの表情に近い表情のベースキャラクタを対象ベースキャラクタとして動的に選択する。このような処理方法によれば、ユーザは自分が演じたいキャラクタに配役されるためには、そのキャラクタの表情にあわせて自分の表情を動的に変化させる必要が生じる。
【0049】
図8は、実施例3においてユーザの表情に応じて対象ベースキャラクタを選択する処理過程を示すフローチャートである。
ここでは、映画のような映像コンテンツが再生されているとき、複数の登場人物の中からユーザの表情に応じて対象ベースキャラクタを特定する場合について説明する。まず、ベース画像取得部118は映像コンテンツから所定の時間間隔でベース画像を定期的に取得する(S40)。頭部特定部146は、ベース画像に含まれている各ベースキャラクタの頭部領域を特定する(S42)。表情判定部152は、各ベースキャラクタの表情を特定する(S44)。例として、ベース画像に怒りの表情のベースキャラクタA、悲しみの表情のベースキャラクタBが登場しているとする。
【0050】
次に、ユーザ画像取得部116はユーザ画像を取得する(S46)。頭部特定部146はユーザの頭部領域を特定する(S48)。表情判定部152は、ユーザの表情を特定する(S50)。ここでは、ユーザの表情が悲しみの表情であったとする。適否判定部154は、ユーザの表情と各ベースキャラクタの表情を比較して、ユーザの表情に近いベースキャラクタを判定する(S52)。ユーザの表情は、キャラクタAよりもキャラクタBに近いので、キャラクタ選択部158はベースキャラクタBを対象ベースキャラクタとして選択する(S54)。合成部148は、キャラクタBの頭部をユーザの頭部と入れ替えた合成画像を生成する(S56)。表示部120は合成画像を画面に表示させる(S58)。このような処理を所定の時間間隔で繰り返すことにより、合成画像において対象ベースキャラクタが動的に変化する。なお、図8に示す処理は、たとえば、0.1秒間隔の高い頻度で実行し、このうち、S52およびS54のキャラクタ選択に関する処理は10秒間隔の比較的低い頻度で実行するとしてもよい。このような処理方法によれば、対象ベースキャラクタが過度に変化しないように処置できる。
【0051】
ユーザの表情とベースキャラクタの表情から表情類似度を求めることにより、対象ベースキャラクタを選択してもよい。たとえば、口や目の開き方、眉の角度などを指標化した表情特徴情報により、ユーザとベースキャラクタの表情類似度を求めてもよい。ユーザAとユーザBが同じ映像コンテンツにて共演する場合、表情判定部152は、ユーザA、ユーザB、主役のベースキャラクタAの各表情を特定し、適否判定部154はユーザAとベースキャラクタA、ユーザBとベースキャラクタAのそれぞれの表情類似度を算出する。そして、表情類似度が高い方のユーザが主役のベースキャラクタAと入れ替わり、低い方のユーザが脇役のベースキャラクタBと入れ替わる。
【0052】
所定の時間間隔、たとえば、1分ごとにこのような判定を行い、複数のユーザが主役の座を争ってもよい。このような処理方法によれば、主役のベースキャラクタAの表情に近い演技をしたユーザが主役を射止めることになるので、複数のユーザ間で演技力を競うというユニークなゲーム性を実現できる。また、ユーザが1人だけの場合でも、主役の表情と似ていない表情をしてしまうと脇役に降格されるとしてもよい。ベースキャラクタ間に主役と脇役のような優先順位を設けておき、ユーザは表情に応じていずれかのベースキャラクタに動的に配役されていくことになる。そして、映像コンテンツの再生が終了時に、最終的にどの役を獲得できたかを競ってもよい。
【0053】
実施例4:
ベース画像に含まれているコンテンツIDに基づいて特典を受けることが可能な処理モデルに関する。実施例4において、ベース画像にはコンテンツIDが記録されている。コンテンツIDはQRコード(Quick Response code)として含まれてもよいし、電子透かしのかたちで含まれてもよい。一方、所定のコンテンツサーバは、コンテンツIDと映像や音楽などのデジタルコンテンツを対応づけて保持している。ベース画像にはシーン情報が設定されている。ユーザがシーン情報に合った表情をすると、ID抽出部144はベース画像からコンテンツIDを取得する。あるいは、ユーザがベースキャラクタと同じ表情をすると、ID抽出部144はベース画像からコンテンツIDを取得する。コンテンツ取得部132は、このコンテンツIDをキーとしてコンテンツサーバから特典としてのデジタルコンテンツ、たとえば、ボーナストラックや特典画像などダウンロードできる。このようにして取得されるデジタルコンテンツのことを、以下、「プレミアムコンテンツ」とよぶ。
【0054】
図9は、実施例4においてプレミアムコンテンツの取得処理過程を示すフローチャートである。
ここでは、QRコードのかたちでコンテンツIDが付与された写真集をベース画像として撮像することにより、プレミアムコンテンツを取得する場合について説明する。ベース画像取得部118は、この写真集を撮像してコンテンツID付きのベース画像を取得する(S60)。頭部特定部146は、ベース画像に含まれるベースキャラクタの頭部領域を特定する(S62)。表情判定部152は、ベースキャラクタの表情を特定する(S64)。
【0055】
次に、ユーザ画像取得部116はユーザ画像を取得する(S66)。頭部特定部146は、ユーザの頭部領域を特定する(S68)。表情判定部152はユーザの表情を特定する(S70)。適否判定部154は、ベースキャラクタの表情とユーザの表情が合っているかを判定する(S72)。合っていれば(S72のY)、ID抽出部144はコンテンツIDを抽出する(S74)。処理実行部156は、コンテンツ取得部132に指示して、コンテンツIDに対応するプレミアムコンテンツをコンテンツサーバから取得させる(S76)。コンテンツ取得部132は、コンテンツサーバからプレミアムコンテンツをダウンロードする。S72において表情が合っていないときには(S72のN)、S74およびS76の処理はスキップされる。コンテンツID取得の試行回数は、所定回数、たとえば、3回と区切られてもよい。
【0056】
以上に示した携帯型ゲーム装置100によれば、ユーザはさまざまな映像コンテンツに画像の一部として入り込むことができる。また、ユーザの表情に応じてさまざまな操作が可能となっている。子供あるいは人間以外の動物ですら表現可能な「表情」を入力インタフェースとして用いることにより、直感的で理解しやすいユーザインタフェースが実現されている。表情認識に基づく入力インタフェースと合成処理に基づく出力インタフェースによって、ユーザと映像コンテンツの一体感を高めている。
【0057】
実施例1に関連して説明したように、ユーザの表情に応じて画面の表示態様を変化させることにより、事実上、表情だけを入力インタフェースとする直感的に理解しやすいコンピュータゲームを実現できる。そのため、従来のボタン操作を駆使するタイプのコンピュータゲームに対して苦手意識を持っているユーザや、ごく低年齢のユーザにまでゲームユーザの裾野を広げやすくなる。同様に、実施例2に関連して説明したように、ユーザの表情に応じてゲーム展開が変化するコンピュータゲームを実現することもできる。ユーザは表情を変えるだけなので、切れ目のなくストーリーを展開させやすくなる。
【0058】
また、実施例3に関連して説明したように、複数のベースキャラクタの中から対象ベースキャラクタを選択することにより、自分が演じたい人物になりきることができる。また、ユーザの表情に応じて対象ベースキャラクタを切り換えることにより、映像コンテンツに対するユーザの没入感をいっそう高めることができる。
【0059】
更に、実施例4に関連して説明したように、ユーザの表情に応じてプレミアムコンテンツをダウンロード可能としてもよい。たとえば、CDのジャケットにコンテンツIDを設定しておき、ユーザは携帯型ゲーム装置100を使って正しい表情を作ることにより、プレミアムコンテンツをダウンロードできるとしてもよい。あるいは、ウェブページにコンテンツIDを設定しておけば、ウェブページに対するユーザの興味を引きつける上でも有効である。このように、携帯型ゲーム装置100によれば、ユーザの操作負担を増加させることなく映像と人間の関わりを親密化する新しいユーザインタフェースを提供できる。
【0060】
以上、本発明を実施例をもとに説明した。この実施例はあくまで例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
【0061】
請求項に記載の合成画像生成機能は、本実施例においては主として合成部148によって実現される。合成画像表示機能は、本実施例においては主として表示部120の機能として実現されている。表情検出機能は、本実施例においては主として表情判定部152により実現されている。請求項に記載のユーザインタフェース機能は、本実施例においては主として処理実行部156によって実現されている。適否判定機能は主として適否判定部154により実現され、請求項に記載の通信機能は本実施例においては主としてコンテンツ取得部132によって実現されている。
これら請求項に記載の各構成要件が果たすべき機能は、本実施例において示された各機能ブロックの単体もしくはそれらの連係によって実現されることも当業者には理解されるところである。
【0062】
変形例として、ユーザの頭部とベースキャラクタの頭部を完全に入れ替えた合成画像ではなく、たとえば、ベースキャラクタ30%、ユーザ70%のようにユーザの顔とベースキャラクタの顔を所定比率にて混ぜ合わせた顔の画像を合成画像上に表示してもよい。顔画像の混ぜ合わせについては既知のモーフィング技術を応用すればよい。
【0063】
ベース画像において、対象ベースキャラクタは常に正面を向いているとは限らない。このような場合のために、ユーザ画像保持部162にはあらかじめユーザをさまざまな角度から見たときの画像を用意しておいてもよい。そして、ベースキャラクタが正面を向いているときにはリアルタイムで撮像したユーザの頭部画像を嵌め込み、ベースキャラクタが横や上を向いていて表情がわからない状態にあるときには、あらかじめ用意していたユーザの頭部画像を嵌め込むとしてもよい。
【図面の簡単な説明】
【0064】
【図1】本実施例における映像コンテンツのユーザインタフェースを説明するための模式図である。
【図2】携帯型ゲーム装置の機能ブロック図である。
【図3】合成画像の生成過程を示すフローチャートである。
【図4】図4(a)は、実施例1のコンピュータゲームAの実行中においてユーザの表情がシーンに合っているときの画面図である。図4(b)は、実施例1のコンピュータゲームAの実行中においてユーザの表情がシーンに合っていないときの画面図である。
【図5】実施例1におけるユーザの表情の適合判定処理を示すフローチャートである。
【図6】実施例2のコンピュータゲームBがユーザの判断を要求するときに表示される画面図である。
【図7】図7(a)は、実施例3においてユーザが主役と入れ替わるときの画面図である。図7(b)は、実施例3においてユーザが脇役と入れ替わるときの画面図である。
【図8】実施例3においてユーザの表情に応じて対象ベースキャラクタを選択する処理過程を示すフローチャートである。
【図9】実施例4においてプレミアムコンテンツの取得処理過程を示すフローチャートである。
【符号の説明】
【0065】
100 携帯型ゲーム装置、 110 ユーザインタフェース処理部、 112 入力部、 114 画像取得部、 116 ユーザ画像取得部、 118 ベース画像取得部、 120 表示部、 130 通信部、 132 コンテンツ取得部、 140 データ処理部、 142 画像処理部、 144 ID抽出部、 146 頭部特定部、 148 合成部、 150 表情処理部、 152 表情判定部、 154 適否判定部、 156 処理実行部、 158 キャラクタ選択部、 160 データ保持部、 162 ユーザ画像保持部、 164 表情パターン保持部、 166 ゲームデータ保持部、 200 据置型ゲーム装置、 202 据置モニタ、 212 携帯モニタ、 214 双方向カメラ。

【特許請求の範囲】
【請求項1】
ユーザ以外の他人が撮像された画像において前記他人の頭部にあたる領域をユーザの頭部画像と入れ替えることにより、前記他人の頭部をユーザの頭部に入れ替えた合成画像を生成する合成画像生成部と、
前記合成画像を画面表示させる合成画像表示部と、
を備えることを特徴とする画像処理装置。
【請求項2】
前記合成画像生成部は、複数の他人を含む撮像画像において、ユーザの選択に応じて前記複数の他人の中から入れ替え対象者を特定することを特徴とする請求項1に記載の画像処理装置。
【請求項3】
ユーザの表情が異なる複数種類の撮像画像をあらかじめメモリに保持しておき、
前記合成画像生成部は、他人の撮像画像における他人の頭部にあたる領域をユーザにより選択された表情に対応する頭部の画像に入れ替えることを特徴とする請求項1または2に記載の画像処理装置。
【請求項4】
ユーザとユーザ以外の他人を時間的に並行して撮像可能な双方向カメラ、を更に備え、
前記合成画像生成部は、前記双方向カメラにより撮像された画像から前記合成画像を生成することを特徴とする請求項1から3のいずれかに記載の画像処理装置。
【請求項5】
前記合成画像にて合成されたユーザの表情を検出する表情検出部と、
ユーザの表情に応じて所定の処理を実行するユーザインタフェース処理部と、
を更に備えることを特徴とする請求項1から4のいずれかに記載の画像処理装置。
【請求項6】
前記表情検出部は、複数種類の表情についてあらかじめメモリに格納されている表情パターンから前記検出されたユーザの表情に適合する表情パターンを選択し、
前記ユーザインタフェース処理部は、メモリに格納されている複数種類のプログラムの中から前記選択された表情パターンに応じたプログラムを実行させることを特徴とする請求項5に記載の画像処理装置。
【請求項7】
前記ユーザインタフェース処理部は、ユーザの表情に応じて画面の表示態様を変化させることを特徴とする請求項5または6に記載の画像処理装置。
【請求項8】
前記ユーザインタフェース処理部は、ユーザにより選択された選択肢に応じてゲーム展開が変化するコンピュータゲームの実行に際し、ユーザの表情に応じて選択肢を特定し、前記特定された選択肢に対応づけられている処理を実行することを特徴とする請求項5から7のいずれかに記載の画像処理装置。
【請求項9】
前記合成画像にて合成されたユーザの表情と、前記合成画像の元となる他人の撮像画像との適否を判定する適否判定部、を更に備え、
前記ユーザインタフェース処理部は、前記適否の判定結果に応じた処理を実行することを特徴とする請求項5から8のいずれかに記載の画像処理装置。
【請求項10】
前記適否判定部は、ユーザの撮像画像と他人の撮像画像が共に動画像であるときには、ユーザの表情と前記他人の撮像画像との適否を所定の判定タイミングにて継続的に判定し、
前記ユーザインタフェース処理部は、各判定タイミングにおける適否に応じて処理内容を変化させることを特徴とする請求項9に記載の画像処理装置。
【請求項11】
前記適否判定部は、前記適否の判定として、前記合成画像の元となる他人の撮像画像における他人の表情と前記合成画像にて合成されたユーザの表情との適否を判定することを特徴とする請求項9または10に記載の画像処理装置。
【請求項12】
前記合成画像生成部は、複数の他人を含む撮像画像において、前記適否の判定結果に応じて前記複数の他人の中から入れ替えの対象者を特定することを特徴とする請求項9に記載の画像処理装置。
【請求項13】
前記適否判定部は、ユーザの撮像画像と複数の他人を含む撮像画像が共に動画像であるときには、ユーザの表情と各他人の表情の適否を所定の判定タイミングにて継続的に判定し、
前記合成画像生成部は、各判定タイミングにおける適否に応じて、前記複数の他人の中から入れ替えの対象者を動的に変化させることを特徴とする請求項12に記載の画像処理装置。
【請求項14】
前記適否判定部は、複数の他人を含む撮像画像においては、ユーザの表情と最も表情が適合する他人を特定し、
前記合成画像生成部は、前記特定された他人を入れ替えの対象者として特定することを特徴とする請求項12または13に記載の画像処理装置。
【請求項15】
外部装置から所定のコンテンツデータを取得する通信部、を更に備え、
前記通信部は、他人の撮像画像にコンテンツデータを特定するためのID情報が含まれる場合において、ユーザの表情と前記他人の表情が適合したことを条件として、前記ID情報により指定されるコンテンツデータを前記外部装置から取得することを特徴とする請求項11に記載の画像処理装置。
【請求項16】
ユーザ以外の他人が撮像された画像において前記他人の頭部にあたる領域をユーザの頭部画像と入れ替えることにより、前記他人の頭部をユーザの頭部に入れ替えた合成画像を生成する合成画像生成機能と、
前記合成画像を画面表示させる合成画像表示機能と、
をコンピュータに発揮させることを特徴とする画像処理プログラム。
【請求項17】
ユーザを撮像するステップと、
ユーザ以外の他人をユーザの撮像中に撮像するステップと、
ユーザの撮像画像から、ユーザの頭部にあたる領域を抽出するステップと、
前記他人の撮像画像から、前記他人の頭部にあたる領域を抽出するステップと、
前記他人の撮像画像において前記他人の頭部にあたる領域をユーザの頭部にあたる画像と入れ替えることにより、前記他人の頭部をユーザの頭部に入れ替えた合成画像を生成するステップと、
前記合成画像を画面表示させるステップと、
前記合成画像にて合成されたユーザの表情を検出するステップと、
ユーザの表情に応じて所定のユーザインタフェース処理を実行するステップと、
を備えることを特徴とする画像処理方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2007−300562(P2007−300562A)
【公開日】平成19年11月15日(2007.11.15)
【国際特許分類】
【出願番号】特願2006−128711(P2006−128711)
【出願日】平成18年5月2日(2006.5.2)
【出願人】(395015319)株式会社ソニー・コンピュータエンタテインメント (871)
【Fターム(参考)】