説明

情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法

プレーヤーに対して、複数のタッチポイントへ仮想的にタッチさせる動作を促すコンピュータ画像を生成する手段と、撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、ビデオ画像と、コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、コンピュータ画像が表示されているときのビデオ画像を解析し、複数のタッチポイントのいずれかに対する仮想的なタッチを検出する手段と、検出手段により所定数のタッチポイントに所定の順番で仮想的なタッチがされたことが検出されると、所定の処理を実行する手段と、を備える情報処理システムによりエンタテインメント性を高めた入力インタフェースに関する技術を提供する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理システムにおけるプレーヤーからの入力を受け付けるインタフェースに関し、特に、カメラで撮影したビデオ画像を使ったインタフェースに関する。
【背景技術】
【0002】
特開2002−196855号公報(特許文献1)には、カメラで撮影した画像を入力インタフェースとして利用した画像処理装置が開示されている。
【発明の開示】
【0003】
特許文献1に開示されている画像処理装置は、情報処理システム、あるいはエンタテインメントシステムの入力インタフェースに応用可能である。情報処理システム、あるいはエンタテインメントシステムでの応用に当たっては、エンタテインメント性を高めることにより、システム全体の価値を高めることができる。
【0004】
そこで、本発明の目的は、エンタテインメント性を高めた入力インタフェースに関する技術を提供することである。
【0005】
本発明の一つの実施態様に従う情報処理システムは、プレーヤーに対して、複数のタッチポイントへ仮想的にタッチさせる動作を促すコンピュータ画像を生成する手段と、撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、前記コンピュータ画像が表示されているときのビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを検出する手段と、前記検出手段により所定数のタッチポイントに、所定の順番で前記仮想的なタッチがされたことが検出されると、所定の処理を実行する手段と、を備える。
【0006】
好適な実施態様では、前記検出手段は、前記ビデオ画像内のプレーヤーが身につけている特定色の物体が、前記コンピュータ画像内の前記複数のタッチポイントのいずれかと重なるときに、仮想的なタッチを検出するようにしてもよい。
【0007】
好適な実施態様では、前記画像生成手段は、次にタッチすべき1点のタッチポイントを示すナビゲーションを含むコンピュータ画像を順次生成する。そして、前記所定の処理を実行する手段は、前記検出手段により順次生成された前記ナビゲーションを含むコンピュータ画像のそれぞれに対して、仮想的なタッチがされたことが検出されると、前記所定の処理を実行してもよい。
【0008】
好適な実施態様では、前記画像生成手段は、次にタッチすべき2点のタッチポイントを示すコンピュータ画像を順次生成する。そして、前記所定の処理を実行する手段は、前記検出手段により順次生成された前記ナビゲーションを含むコンピュータ画像のそれぞれに対して、前記2点のタッチポイントに対して同時に仮想的なタッチがされたことが検出されると、前記所定の処理を実行してもよい。
【0009】
好適な実施態様では、前記画像生成手段は、タッチポイントに対するタッチの順番を示すナビゲーションを含むコンピュータ画像を生成する。そして、前記所定の処理を実行する手段は、前記検出手段により前記ナビゲーションに従って仮想的なタッチがされたことが検出されると、前記所定の処理を実行するようにしてもよい。
【0010】
本発明の一つの実施態様に従う情報処理システムは、
プレーヤーに対して、仮想的なタッチの対象となる複数のタッチポイントを示すコンピュータ画像を生成する手段と、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、
前記コンピュータ画像が表示されているときのビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを検出する手段と、
前記検出手段により、複数のタッチポイントに連続的に前記仮想的なタッチがされたことが検出されると、連続して前記仮想的なタッチがされたタッチポイント同士を結ぶオブジェクトの表示を行なうオブジェクト表示手段と、を備える。
【0011】
本発明の一つの実施態様に従うエンタテインメントシステムは、複数の領域を特定するための画像を含んだコンピュータ画像を生成する手段と、撮影手段で撮影したビデオ画像の入力を受け付ける手段と、前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、前記コンピュータ画像を参照して前記ビデオ画像を解析する手段と、を備えたエンタテインメントシステムであって、前記画像生成手段が、所定の順序で前記複数の領域のうちの一つの領域を選択し、選択された領域を他と異なる態様で表示した入力を促す複数の画像を連続的に生成し、前記解析手段は、それぞれの入力を促す画像が表示されているときのビデオ画像を解析し、他と異なる態様で表示された前記選択された領域と対応するビデオ画像の対応領域が所定の画像であることを検出し、前記入力を促す画像の生成、および前記対応領域が所定の画像であることの検出が所定回数行われると、所定の機能を実行する。
【図面の簡単な説明】
【0012】
【図1】本発明の一実施形態に係るエンタテインメントシステムの全体構成図である。
【図2】エンタテインメント装置の構成図である。
【図3】エンタテインメント装置の機能構成図である。
【図4】図4(a)は、鏡面処理後のビデオ画像の例を示す図である。図4(b)は、インタフェース画像の例を示す図である。図4(c)は、重畳画像の例を示す図である。
【図5】入力受け付け処理全体のフローチャートである。
【図6】シングルナビゲーションの場合のタッチ受け付け処理のフローチャートである。
【図7】タッチ判定処理のフローチャートである。
【図8】シングルナビゲーションの場合のオブジェクト画像の遷移イメージである。図8(a)は、フラッシュ表示された最初のタッチポイントを示す。図8(b)は、フラッシュ表示された最初と2番目のタッチポイントを示す。図8(c)は、1番目と2番目のタッチポイントを結ぶ光のラインと、フラッシュ表示された最後のタッチポイントを示す。図8(d)は、光のラインで結ばれたタッチポイントを示す。
【図9】ダブルナビゲーションの場合のタッチ受け付け処理のフローチャートである。
【図10】ダブルナビゲーションの場合のオブジェクト画像の遷移イメージである。図10(a)は、フラッシュ表示された1番目のタッチポイントを示す。図10(b)は、光のラインで結ばれた1番目のタッチポイントと、タッチポイントとフラッシュ表示された2番目のタッチポイントを示す。図10(c)は、光のラインで結ばれた1番目のタッチポイントと、光のラインで結ばれた2番目のタッチポイントを示す。
【図11】稲妻ナビゲーションの場合のタッチ受け付け処理のフローチャートである。
【図12】稲妻ナビゲーションの場合のオブジェクト画像の遷移イメージである。図12(a)は、タッチすべき全タッチポイントを示す。図12(b)は、1番目のタッチポイントと2番のタッチポイントとを結んでいた稲妻ラインが消去されたことを示す。図12(c)は、2番目のタッチポイントと3番のタッチポイントとを結んでいた稲妻ラインが消去されたことを示す。図12(d)は、3番目のタッチポイントと1番のタッチポイントとを結んでいた稲妻ラインが消去されたことを示す。
【図13】ナビゲーションなしの場合のタッチ受け付け処理のフローチャートである。
【発明を実施するための最良の形態】
【0013】
以下、本発明の一実施形態に係るエンタテインメントシステムについて、図面を用いて説明する。
【0014】
本実施形態に係るエンタテインメントシステムの構成の一例を図1に示す。このエンタテインメントシステムは、ディスプレイ装置3に向き合った位置にいるプレーヤー4をアナログまたはデジタルのビデオカメラ1が撮影し、これにより得られた動画像をエンタテインメント装置2が連続的に連続に取り込んで、エンタテインメント装置2が生成したコンピュータ画像(CG)と、ビデオカメラ1から取り込んだビデオ画像の鏡面動画像とを重ね合わせた重畳画像をディスプレイ装置3上にリアルタイムに表示させるものである。
【0015】
従って、重畳画像ではプレーヤー4の動作がリアルタイムに反映されていて、この重畳画像でプレーヤー4はプレーを楽しむことができる。鏡面動画像は、ビデオカメラ1から取り込んだ動画像をエンタテインメント装置2で鏡面処理(画像の左右反転処理)することにより生成することができるが、ビデオカメラ1の前に鏡を置き、操作者を映した鏡面の動画像をビデオカメラ1で撮影することによって鏡面動画像を生成するようにしてもよい。いずれにしても、ディスプレイ装置3上には、ターゲットの動きに応じてその表示形態がリアルタイムに変化する合成画像が表示されるようにする。
【0016】
エンタテインメント装置2は、コンピュータプログラムにより所要の機能を形成するコンピュータにより実現される。この実施形態によるコンピュータは、例えば図2にそのハードウエア構成を示すように、それぞれ固有の機能を有する複数の半導体デバイスが接続されたメインバスB1とサブバスB2の2本のバスを有している。これらのバスB1、B2は、バスインタフェースINTを介して互いに接続され又は切り離されるようになっている。
【0017】
メインバスB1には、主たる半導体デバイスであるメインCPU10と、RAMで構成されるメインメモリ11と、メインDMAC(Direct Memory Access Controller)12と、MPEG(Moving Picture Experts Group)デコーダ(MDEC)13と、描画用メモリとなるフレームメモリ15を内蔵する描画処理装置(Graphic Processing Unit、以下、「GPU」)14が接続される。GPU14には、フレームメモリ15に描画されたデータをディスプレイ装置3で表示できるようにするためのビデオ信号を生成するCRTC(CRT Controller)16が接続される。
【0018】
メインCPU10は、コンピュータの起動時にサブバスB2上のROM23から、バスインタフェースINTを介して起動プログラムを読み込み、その起動プログラムを実行してオペレーティングシステムを動作させる。また、メディアドライブ27を制御するとともに、このメディアドライブ27に装着されたメディア28からアプリケーションプログラムやデータを読み出し、これをメインメモリ11に記憶させる。さらに、メディア28から読み出した各種データ、例えば複数の基本図形(ポリゴン)で構成された3次元オブジェクトデータ(ポリゴンの頂点(代表点)の座標値など)に対して、オブジェクトの形状や動き等を表現するためのジオメトリ処理(座標値演算処理)を行い、そして、ジオメトリ処理によるポリゴン定義情報(使用するポリゴンの形状及びその描画位置、ポリゴンを構成する素材の種類、色調、質感等の指定)をその内容とするディスプレイリストを生成する。
【0019】
GPU14は、描画コンテクスト(ポリゴン素材を含む描画用のデータ)を保持しており、メインCPU10から通知されるディスプレイリストに従って必要な描画コンテクストを読み出してレンダリング処理(描画処理)を行い、フレームメモリ15にポリゴンを描画する機能を有する半導体デバイスである。フレームメモリ15は、これをテクスチャメモリとしても使用できる。そのため、フレームメモリ上のピクセルイメージをテクスチャとして、描画するポリゴンに貼り付けることができる。
【0020】
メインDMAC12は、メインバスB1に接続されている各回路を対象としてDMA転送制御を行うとともに、バスインタフェースINTの状態に応じて、サブバスB2に接続されている各回路を対象としてDMA転送制御を行う半導体デバイスであり、MDEC13は、メインCPU10と並列に動作し、MPEG(Moving Picture Experts Group)方式あるいはJPEG(Joint Photographic Experts Group)方式等で圧縮されたデータを伸張する機能を有する半導体デバイスである。
【0021】
サブバスB2には、マイクロプロセッサなどで構成されるサブCPU20、RAMで構成されるサブメモリ21、サブDMAC22、オペレーティングシステムなどの制御プログラムが記憶されているROM23、サウンドメモリ25に蓄積された音データを読み出してオーディオ出力として出力する音声処理用半導体デバイス(SPU(Sound Processing Unit))24、図示しないネットワークを介して外部装置と情報の送受信を行う通信制御部(ATM)26、CD−ROMやDVD−ROMなどのメディア28を装着するためのメディアドライブ27及び入力部31が接続されている。
【0022】
サブCPU20は、ROM23に記憶されている制御プログラムに従って各種動作を行う。サブDMAC22は、バスインタフェースINTがメインバスB1とサブバスB2を切り離している状態においてのみ、サブバスB2に接続されている各回路を対象としてDMA転送などの制御を行う半導体デバイスである。入力部31は、操作装置35からの入力信号が入力される接続端子32、ビデオカメラ1からの画像信号が入力される接続端子33、及びビデオカメラ1からの音声信号が入力される接続端子34を備える。なお、本明細書では、画像についてのみ説明を行い、便宜上、音声についての説明は省略する。
【0023】
このように構成されるコンピュータは、メインCPU10、サブCPU20、GPU14が、ROM23及びメディア28等の記録媒体から所要のコンピュータプログラムを読み込んで実行することにより、エンタテインメント装置2として動作する。
【0024】
このエンタテインメント装置2の機能ブロック図を図3に示す。すなわち、エンタテインメント装置2には、ビデオ画像入力部101と、画像反転部102と、判定部103と、主制御部104と、CG生成部105と、重畳画像生成部106と、表示制御部107と、タッチパターン記憶部108とが形成される。
【0025】
ビデオ画像入力部101は、ビデオカメラ1で撮影されたビデオ画像を取り込む。ビデオ画像は動画像であり、ビデオ画像入力部101はビデオカメラ1から送られてくる画像を連続的に取り込む。
【0026】
画像反転部102は、ビデオ画像入力部101が取り込んだビデオ画像に対して鏡面処理、すなわち左右反転処理を行う。プレーヤーを撮影した鏡面処理されたビデオ画像200の一例を図4(a)に示す。これ以降の処理は、鏡面処理がされたビデオ画像に対して行われる。
【0027】
主制御部104は、エンタテインメントシステム全体の制御を行う。例えば、エンタテインメント装置2がゲームプログラムを実行しているときは、主制御部104がそのプログラムに従ってゲームのストーリーなどを決定する。また、主制御部104がストーリーを決定するときに、判定部103の判定結果を参照する場合がある。この詳細については後述する。
【0028】
CG生成部105は、主制御部104の指示に従って、ゲームのストーリーに沿った種々のコンピュータ画像を生成する。例えば、図4(b)に示すような、プレーヤーからのリクエストを受け付けるためのインタフェース用のコンピュータ画像(インタフェース画像)300を生成する。ここで、インタフェース画像300には、オブジェクト画像310が含まれている。
【0029】
重畳画像生成部106は、画像反転部102で鏡面処理されたビデオ画像とCG生成部105で生成されたコンピュータ画像とを重ね合わせた重畳画像を生成する。例えば、重畳画像生成部106が図4(a)に示したビデオ画像200と図4(b)に示したインタフェース画像300とを重畳すると、図4(c)に示した重畳画像400が生成される。
【0030】
表示制御部107は、重畳画像生成部106で生成された重畳画像をディスプレイ装置3に表示させる。
【0031】
タッチパターン記憶部108には、後述するナビゲーションパターンおよびナビゲーションなしでタッチを受け付けたときの特定のタッチパターンが記憶されている。ナビゲーションパターンおよびタッチパターンは、プレーヤーが登録可能としても良い。
【0032】
判定部103は、CG生成部105から取り込んだインタフェース画像300を参照して画像反転部102から取り込んだビデオ画像200を解析し、ビデオ画像200がインタフェース画像300に対応する所定の画像であるかを判定する。ビデオ画像200は動画像であるから、この判定はフレーム単位に処理を行われる。例えば、判定部103は、フレーム間の差分をとって、インタフェース画像300に対応する所定の動きの有無を判定する。判定部103は、フレーム間差分を計算する際に用いるカウンタ103aを備えている。カウンタ103aは、複数の値をカウントできる。
【0033】
図4の例では、インタフェース画像300には略環状のオブジェクト画像310が含まれている。オブジェクト画像310には、12箇所のタッチポイント320が、概環状に、且つ、概等間隔に配置されている。従って、この場合、判定部103はビデオ画像200のタッチポイント320と対応する領域に所定以上の動きがあるかどうかを判定する。
【0034】
ここで、判定部103が、タッチポイント320と対応するビデオ画像200の領域で所定以上の動きを検出すると、プレーヤーがそのタッチポイント320に仮想的にタッチ(以下、単にタッチと言う)したものと判定する。タッチしたと判定される典型的な例は、プレーヤーがディスプレイ装置3に写っているオブジェクト画像310と自分の姿を見ながら、タッチポイント320に自分の手などが重なるように動作する場合である。
【0035】
また、タッチの有無の判定には、フレーム間差分による動きの検出以外に、所定の色の画素が所定数以上、タッチポイント320と対応する領域に存在するかを判定しても良い。あるいは、色の検出と動きの検出を組み合わせ、所定の色について動きの判定を行ってもよい。例えば、プレーヤーに特定色(例えば赤)のグローブをはめさせて、そのグローブの映像がタッチポイント320と重なり、タッチポイント320内の赤色の画素数が所定数以上であるときに、タッチされたと判定しても良い。さらに、タッチポイント320内の赤色の画素数が所定数以上であり、且つ、赤色の画素に所定以上の動きが検出されたときにタッチされたと判定してもよい。あるいは、パターン認識によりプレーヤーの腕、手、指先等あるいはグローブ等の動きを検出してタッチの有無の判定を行なうようにしてもよい。
【0036】
なお、プレーヤーの動作がエンタテインメント装置2に認識されていることをプレーヤーに示すために、重畳画像400中のグローブ等の検出対象が検出されたポイントを輝度を上げたり、ハイライト表示することにより強調して表示するようにしてもよい。このような表示は、タッチポイント320の領域付近にかかわらず、重畳画像400内全体において行なうようにすることが望ましい。
【0037】
このとき、強調表示を徐々に消えていくように表示させることで、プレーヤーがグローブ等を動かした場合に、あたかもその軌跡が残像のように表示され、一層、プレーヤーの動作がエンタテインメント装置2に認識されていることがプレーヤに明確に示されるとともに、エンタテインメント性が高まることになる
オブジェクト画像310を表示するタイミングは、主制御部104が決定する。そして、CG生成部105は主制御部104の指示に基づき、オブジェクト画像310を用いて、プレーヤーにタッチを促すために、以下に説明するようなナビゲーション画像を生成する。
【0038】
ここで、ナビゲーションとは、プレーヤーに対してどのタッチポイントをどういう順番でタッチしていくかを誘導するものである。ここでは、プレーヤーにタッチさせるタッチポイントを通常とは異なる態様(例えば、光っているように見せるフラッシュ表示や、通常と異なる色での表示、点滅表示など)で示した画像を表示し、プレーヤーにタッチを促す。本実施形態では、タッチポイントをフラッシュ表示させて、誘導する場合について説明する。
【0039】
ナビゲーションのパターンは複数用意されていて、タッチパターン記憶部108に記憶されている。そして、それぞれのナビゲーションパターン(以下、ナビパターンと言う)ごとに、どのような順番で、いくつのタッチポイントをタッチさせるかがあらかじめ定められている。
【0040】
例えば、ナビパターンには、(1)タッチさせる順に従って、タッチポイントを1点ずつ順次フラッシュさせる第1のパターン(シングルナビゲーション)と、(2)タッチさせる順に従って、同時に2点フラッシュさせ、同時に2点にタッチさせる第2のパターン(ダブルナビゲーション)と、(3)タッチさせるすべての点を、タッチする順序を示す数字と共に同時にフラッシュさせる第3のナビゲーション(稲妻ナビゲーション)とがある。さらに、ナビゲーションを行わずに、プレーヤーが自発的に行うタッチを受け付けるナビゲーションなしパターンもある。
【0041】
本実施形態では、オブジェクト画像310を利用して、プレーヤーに連続的にタッチをさせる。そして、プレーヤーがナビゲーションに従ってタッチすると、エンタテインメント装置2は、所定の入力が完了したものとして受け付け、所定の機能を実行する。所定の機能としては、例えば、キャラクタを呼び出したり、攻撃または防御を行ったりする。タッチパターンごとに異なる機能を対応させても良い。
【0042】
また、ナビゲーションなしのときは、プレーヤーがタッチしたタッチポイントの位置および順序がタッチパターン記憶部108に記憶されているタッチパターンと一致すると、エンタテインメント装置2は所定の入力があったものと認識する。
【0043】
あるいは、入力完了を示すタッチポイントを別途表示して、そのタッチポイントのタッチを受け付けた場合に入力があったものと認識するようにしてもよい。もちろん、操作装置35から入力完了の指示を受け付けるようにしてもよい。
【0044】
上記のような機能構成を有するエンタテインメント装置2において、プレーヤー自身の画像を使った入力受け付け処理手順を、フローチャートおよび画面遷移を示す図を用いて説明する。なお、以下の例では、エンタテインメント装置2が入力を受け付けると、キャラクタの呼び出し処理を行う場合について説明する。
【0045】
まず、入力受け付け処理の全体の処理手順を図5に示す。CG生成部105は、主制御部104からの指示に基づいて、オブジェクト画像310を含むコンピュータ画像300を生成する。そして、重畳画像生成部106が画像反転部102から獲得した鏡面処理後のビデオ画像200(図4(a))とインタフェース画像300(図4(b))とを重ね合わせ、オブジェクト画像310を含む重畳画像400(図4(c))がディスプレイ装置3に表示される(S101)。次に、主制御部104は、ナビパターンを選択する(S102)。ここでは、ナビゲーションありの場合と、ナビゲーションなしの場合で処理が分かれる。
【0046】
ナビゲーションありの場合は、主制御部104がタッチパターン記憶部108に記憶されているナビパターンを選択する。そして、エンタテインメント装置2が、選択されたナビパターンに従ったナビゲーションをディスプレイ装置3に表示させて、プレーヤーのタッチを受け付ける処理を行う(S103)。この処理の詳細については後述する。そして、主制御部104は、プレーヤーがナビゲーションに従ったタッチをして、ナビパターン通りのタッチが行われたかどうかを判定する(S104)。
【0047】
ここで、ナビパターン通りのタッチが行われなかったときは(S104:No)、入力受け付け処理を終了する。一方、ナビパターン通りのタッチが行われたときは(S104:Yes)、主制御部104がナビパターンに対応するキャラクタを呼び出すための処理を実行する(S105)。
【0048】
一方、ステップS102でナビゲーションなしが選択された場合は、主制御部104はナビゲーション表示の指示をしない。そして、オブジェクト画像310が表示された状態のままで、プレーヤーは自分の意志でタッチを行うことができる(S106)。この処理の詳細については後述する。
【0049】
ステップS106のタッチ受け付け処理が終了すると、主制御部104はタッチパターン記憶部108を参照し、受け付けたタッチパターンが予め登録されているタッチパターンと一致するかを判定する(S107)。ここで、プレーヤーがタッチしたパターンが登録済みパターンと一致すれば、主制御部104は、その登録済みパターンに対応する特定のキャラクタを呼び出すための処理を行い(S108)、一致しなければ、一般のキャラクタを呼び出すための処理を行う(S109)。これにより、プレーヤー自身の画像を使った入力インタフェースが実現する。
【0050】
なお、同じインタフェースを利用してタッチパターンを登録することができる。すなわち、登録受け付けモードのときにディスプレイ装置3に表示されているオブジェクト画像310を用いて、プレーヤーがタッチポイントにタッチしていき、そのときのタッチパターンをタッチパターン記憶部108に格納する。
【0051】
次に、ステップS103のプレーヤーのタッチを受け付けるための詳細な処理について説明する。ここでは、シングルナビゲーション、ダブルナビゲーションおよび稲妻ナビゲーションのそれぞれのナビパターンについて説明する。
【0052】
シングルナビゲーションの場合のフローチャートを図6に示す。主制御部104は、ナビパターンに従ってタッチポイントを特定し、そのタッチポイントをフラッシュ表示させる。(S21)(図8(a)参照)。次に、判定部103はタッチがあったかどうかの判定処理を行う(S22)。タッチ判定処理の詳細は後述する。そして、タッチ判定処理終了後、主制御部104はフラッシュ表示中のタッチポイントにタッチがあったかどうかを判定する(S23)。フラッシュ表示中のタッチポイントにタッチがないときは(S23:No)、処理を終了する。タッチがあったときは(S23:Yes)、このタッチポイントが最初のタッチポイントであるかを判定する(S24)。そして、最初のタッチポイントであったときは(S24:Yes)、ステップS21へ戻る(図8(a)、図8(b)参照)。最初のタッチポイントでないとき、すなわち、2番目以降のタッチポイントであったときは、このタッチポイントと直前のタッチポイントを所定のオブジェクト、例えば、光のライン(光っているように見えるライン)で結んで表示する(S25)(図8(b)、図8(c)参照)。また、このタッチポイントが最後のタッチポイントでないときはステップS21へ戻り(S26)、最後のタッチポイントであるときは、最後のタッチポイントと最初のタッチポイントとを光のラインで結んで表示する(S27)(図8(c)、図8(d)参照)。以上のような手順でシングルナビゲーションが行われる。
【0053】
次に、ステップS22のタッチ判定処理について、図7のフローチャートを用いて説明する。判定部103は、ビデオ画像を解析し、インタフェース画像でフラッシュ表示しているタッチポイントの位置と重なるビデオ画像の領域を特定する(S51)。そして、画素数をカウントするためのカウンタ103aを初期化する(S52)。
【0054】
次に、処理対象のビデオ画像のフレームを更新する(S53)。ここで、一つのタッチポイントについてタッチの受付可能時間が一定時間に制限されている。従って、その制限時間を超えるときはタイムアウトとなるので、判定部103はそれを監視する(S54)。
【0055】
タイムアウトしたときは(S54:Yes)、処理を終了する。
【0056】
タイムアウトしていないときは(S54:No)、ビデオ画像について前フレームとのフレーム間差分をとり、ステップS51で特定された領域内で変動があった画素数をカウントし、カウンタ103aに累積する(S55)。そして、カウンタに累積された値が所定値以上であるかどうかを判定する(S56)。累積値が所定値を越えていないときは(S56:No)、ステップS53以降を繰り返す。累積値が所定値を越えているときは(S56:Yes)、タッチが検出される(S57)。
【0057】
なお、上記の説明では、フレーム間差分を用いて動きを検出してタッチ判定を行っている。しかし、上述のようにプレーヤーに赤色のグローブをさせて、その色の検出によりタッチ判定するときは、ステップS55において赤色の画素数をカウントし、そのカウント数が所定数以上であればタッチがあったものと判定しても良い。このとき、さらに色による判定と動きによる判定を組み合わせても良い。
【0058】
ここで、シングルナビゲーションの場合のナビゲーション表示の様子を図8を用いて説明する。インタフェース画像にはオブジェクト画像310が含まれている。図8(a)は第1番目のタッチポイント(ここでは「タッチポイント12」)にフラッシュ表示311がなされている。図8(a)においてタッチポイント12にタッチされると図8(b)へ遷移し、第2番目のタッチポイント(ここでは「タッチポイント4」)にもフラッシュ表示311が追加される。
【0059】
さらに、図8(b)においてタッチポイント4にタッチされると図8(c)へ遷移し、第1番目のタッチポイントと第2番目のタッチポイントとが光のライン312で結ばれる。そして、第3番目のタッチポイント(ここでは「タッチポイント7」)にもフラッシュ表示311が追加される。
【0060】
このとき、上記で説明したように、認識したプレーヤーの動きの軌跡を残像表示させている場合には、あたかもタッチポイントを結ぶ軌跡の残像に光のラインが覆い被さるように表示されることになり、入力インタフェースとしてのエンタテインメント効果が高まる。これは、後に説明するダブルナビゲーション等においても同様である。
【0061】
図8(c)においてタッチポイント7にタッチされると図8(d)へ遷移し、第2番目のタッチポイントと第3番目のタッチポイントとが光のライン312で結ばれる。さらに、図8の例では第3番目のタッチポイント7が最終のタッチポイントであるから、最初タッチポイント12との間も光のライン312で結ばれる。この状態でシングルナビゲーションに対するプレーヤーからの入力受け付けが完了する。
【0062】
ところで、上記の説明では、タッチを検出するたびに、検出したタッチポイントと直前のタッチポイントとを光のラインで結ぶようにしていた(S25、図8(c))。しかし、タッチの検出のたびではなく、最後オンタッチポイントの入力を終えた時点で、タッチされたタッチポイントを一斉に、あるいは、順次、光のラインで結ぶようにしてもよい。
【0063】
この場合、図6における処理(S25)は省略し、処理(S27)に代え、「タッチされたタッチポイントを一斉に(あるいは、順次)、光のラインで結ぶ」となる。なお、いずれのも場合も最終的に表示される光のラインは、図8(d)のようになる。
【0064】
次に、ステップS103の詳細な処理として、ダブルナビゲーションの場合のフローチャートを図9に示す。主制御部104は、ナビパターンに従ってタッチポイントを2箇所特定し、その2箇所のタッチポイントを同時にフラッシュ表示させる(S31)(図10(a)参照)。そして、判定部103は2箇所のタッチポイントのそれぞれにタッチがあったかどうかの判定処理を行う(S32)。
【0065】
ここで、タッチ判定処理は、2箇所のタッチポイントのそれぞれについて図7に示したものと同様の処理を行う。
【0066】
そして、タッチ判定処理終了後、主制御部104はフラッシュ表示中の2点のタッチポイントに対し、ほぼ同時にタッチがあったかどうかを判定する(S33)。いずれか一方またはいずれにもタッチがないときは(S33:No)終了する。2点ともタッチがあったときは(S33:Yes)、タッチされた2点間を光のラインで結ぶ(S34)(図10(a)、図10(b)参照)。
【0067】
そして、主制御部104が、このナビパターンの全タッチポイントにタッチされ、ナビパターンが終了したかを判定する(S35)。そして、ナビパターンが終了していないときは(S35:No)、ステップS31以降を繰り返す。ナビパターンが終了しているときは(S35:Yes)終了する。
【0068】
なお、2点のタッチポイントについて、一方のタッチポイントにタッチがあった後、所定の時間内に他方にタッチがあったときは、同時にタッチがあったと判定する。さらに、一方にタッチがあると、他方のタッチポイントのタッチ判定のしきい値を下げても良い。
【0069】
ここで、ダブルナビゲーションの場合のナビゲーション表示の様子を図10を用いて説明する。図8の場合と同様に、ナビゲーション画像にはオブジェクト画像310が含まれている。
【0070】
図10(a)は第1番目のタッチポイント(ここでは「タッチポイント7および12」)にフラッシュ表示311がなされている。図10(a)においてタッチポイント7および12が同時にタッチされると(b)へ遷移する。すなわち、第2番目のタッチポイント(ここでは「タッチポイント2,10」)がフラッシュ表示311されると共に、第1番目のタッチポイント同士、つまりタッチポイント7および12が光のライン312で結ばれる。
【0071】
さらに、図10(b)においてタッチポイント2,10が同時にタッチされると図10(c)へ遷移し、第2番目のタッチポイント同士、つまりタッチポイント2および10が光のライン312で結ばれる。この状態でダブルナビゲーションに対するプレーヤーからの入力受け付けが完了する。
【0072】
なお、ダブルナビゲーションの場合にも、最後オンタッチポイントの入力を終えた時点で、それぞれの2点間を一斉に、あるいは、順次、光のラインで結ぶようにしてもよい。
【0073】
次に、ステップS103の詳細な処理として、稲妻ナビゲーションの場合のフローチャートを図11に示す。主制御部104は、ナビパターンに従って、このナビパターンに含まれる全タッチポイントおよびタッチする順番を特定する。
【0074】
そして、各タッチポイントにタッチ順を示す数字を表示し、各タッチポイントをフラッシュ表示させるとともに、各タッチポイント間を稲妻ライン(稲妻を模したライン)で結ぶ(S41)(図12(a)参照)。
【0075】
そして、判定部103はタッチがあったかどうかの判定処理を行う(S42)。ここで、タッチ判定処理は図7に示すものと同様である。そして、タッチ判定処理終了後、主制御部104はタッチ順序通りにタッチがあったかどうかを判定する(S43)。
【0076】
タッチ順通りにタッチされていないときは(S43:No)終了する。タッチ順通りにタッチされているときは(S43:Yes)、タッチされたタッチポイントのフラッシュおよび稲妻ラインを消去する(S44)(図12(b)、図12(c)参照)。
【0077】
そして、主制御部104が、このナビパターンの全タッチポイントにタッチされ、ナビパターンが終了したかを判定する(S45)。そして、ナビパターンが終了していないときは(S45:No)、ステップS41以降を繰り返す。ナビパターンが終了しているときは(S45:Yes)終了する。
【0078】
ここで、稲妻ナビゲーションの場合のナビゲーション画像の遷移の様子を図12を用いて説明する。図8、図10の場合と同様に、ナビゲーション画像にはオブジェクト画像310が含まれている。
【0079】
図12(a)はプレーヤーがタッチすべき全タッチポイント(ここでは「タッチポイント4,7および12」)にタッチする順序を示す数字、およびフラッシュ表示311がなされ、それぞれが稲妻ライン313で結ばれている。
【0080】
図12(a)においてタッチポイント12(第1番目のタッチポイント)にタッチされると、図12(b)へ遷移する。すなわち、第1番目のタッチポイントのフラッシュ表示311、および第1番目と第2番目のタッチポイントを結んでいた稲妻ラインが消去される。
【0081】
図12(b)においてタッチポイント4(第2番目のタッチポイント)がタッチされると、図12(c)へ遷移し、第2番目のタッチポイントのフラッシュ表示および第2および第3番目のタッチポイント間の稲妻ラインが消去される。
【0082】
図12(c)においてタッチポイント7にタッチされると、図12(d)へ遷移し、第3番目のタッチポイントの稲妻表示および第3および第1番目の間の稲妻ラインが消去される。この状態で稲妻ナビゲーションに対するプレーヤーからの入力受け付けが完了する。
【0083】
次に、図5のステップS106のナビゲーションなしの場合の詳細な処理について、図13のフローチャートを用いて説明する。ナビゲーションなしでタッチを受け付けるときは、タッチ判定処理でいずれかのタッチポイントについてタッチがあったかを検出する(S61)。つまり、図7のタッチ検出処理をすべてのタッチポイントについて行い、いずれか一つについてタッチを判定するとステップS62に移行する。
【0084】
これ以降の処理はシングルナビゲーションの場合の処理(図6)と類似する。すなわち、複数のタッチポイントに対するタッチを検出すると、タッチ済みのタッチポイント間を光のラインで結んでいく(S62〜S65)。このとき、タッチを受け付ける総数(N)が予め定められている。つまり、プレーヤーが自由にN点のタッチポイントにタッチすると(S65:Yes)、N番目のタッチポイントと第1番目のタッチポイントとを光のラインで結び処理を終了する(S66)。
【0085】
なお、ナビゲーションなしの場合にも、最後オンタッチポイントの入力を終えた時点で、タッチされたタッチポイントを一斉に、あるいは、順次、光のラインで結ぶようにしてもよい。
【0086】
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。
【0087】
例えば、オブジェクト画像は三角形などの多角形、あるいは、様々な形状でもよい。さらには、それらの組み合わせでも良い。タッチポイントは、一定のルールに基づき、オブジェクト画像に対して等距離(均等)または非等距離(非均等)に配置される。あるいは、オブジェクト画像は表示せず、タッチポイントのみの表示しても良いし、タッチすべきタッチポイントのみを表示するようにしても良い。

【特許請求の範囲】
【請求項1】
情報処理システムであって、
プレーヤーに対して、複数のタッチポイントへ仮想的にタッチさせる動作を促すコンピュータ画像を生成する手段と、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、
前記コンピュータ画像が表示されているときのビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを検出する手段と、
前記検出手段により、所定数のタッチポイントに所定の順番で前記仮想的なタッチがされたことが検出されると、所定の処理を実行する手段と、を備える。
【請求項2】
請求項1記載の情報処理システムであって、
前記検出手段は、前記ビデオ画像内のプレーヤーが身につけている特定色の物体が、前記コンピュータ画像内の前記複数のタッチポイントのいずれかと重なるときに、仮想的なタッチを検出する。
【請求項3】
請求項1記載の情報処理システムであって、
前記画像生成手段は、次にタッチすべき1点のタッチポイントを示すナビゲーションを含むコンピュータ画像を順次生成し、
前記所定の処理を実行する手段は、前記検出手段により順次生成された前記ナビゲーションを含むコンピュータ画像のそれぞれに対して、仮想的なタッチがされたことが検出されると、前記所定の処理を実行する。
【請求項4】
請求項1記載の情報処理システムであって、
前記画像生成手段は、次にタッチすべき2点のタッチポイントを示すコンピュータ画像を順次生成し、
前記所定の処理を実行する手段は、前記検出手段により順次生成された前記ナビゲーションを含むコンピュータ画像のそれぞれに対して、前記2点のタッチポイントに対して同時に仮想的なタッチがされたことが検出されると、前記所定の処理を実行する。
【請求項5】
請求項1記載の情報処理システムであって、
前記画像生成手段は、タッチポイントに対するタッチの順番を示すナビゲーションを含むコンピュータ画像を生成し、
前記所定の処理を実行する手段は、前記検出手段により前記ナビゲーションに従って仮想的なタッチがされたことが検出されると、前記所定の処理を実行する。
【請求項6】
エンタテインメントシステムであって、
複数の領域を特定するための画像を含んだコンピュータ画像を生成する手段と、
撮影手段で撮影したビデオ画像の入力を受け付ける手段と、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、
前記コンピュータ画像を参照して前記ビデオ画像を解析する手段と、を備えるエンタテインメントシステムであって、
前記画像生成手段が、所定の順序で前記複数の領域のうちの一つの領域を選択し、選択された領域を他と異なる態様で表示した入力を促す複数の画像を連続的に生成し、
前記解析手段は、それぞれの入力を促す画像が表示されているときのビデオ画像を解析し、他と異なる態様で表示された前記選択された領域と対応するビデオ画像の対応領域が所定の画像であることを検出し、
前記入力を促す画像の生成、および前記対応領域が所定の画像であることの検出が所定回数行われると、所定の機能を実行する。
【請求項7】
情報処理システムの入力受け付け方法であって、
プレーヤーに対して、複数のタッチポイントへ仮想的にタッチさせる動作を促すコンピュータ画像を生成し、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付け、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させているときに前記ビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを順次検出し、
前記仮想的なタッチにより、所定数のタッチポイントが所定の順番でタッチがされると、所定の入力があったものとして受け付ける。
【請求項8】
入力受け付けのためのコンピュータプログラムを記録した記録媒体であって、
前記コンピュータプログラムは、コンピュータに以下の処理を実行させる。
プレーヤーに対して、複数のタッチポイントへ仮想的にタッチさせる動作を促すコンピュータ画像を生成する処理、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける処理、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させているときに前記ビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを順次検出する処理、
前記仮想的なタッチにより、所定数のタッチポイントが所定の順番でタッチがされると、所定の入力があったものとして受け付ける処理。
【請求項9】
情報処理システムであって、
プレーヤーに対して、仮想的なタッチの対象となる複数のタッチポイントを示すコンピュータ画像を生成する手段と、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、
前記コンピュータ画像が表示されているときのビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを検出する手段と、
前記検出手段により、複数のタッチポイントに連続的に前記仮想的なタッチがされたことが検出されると、連続して前記仮想的なタッチがされたタッチポイント同士を結ぶオブジェクトの表示を行なうオブジェクト表示手段と、を備える。
【請求項10】
請求項9に記載の情報処理システムであって、
前記オブジェクト表示手段は、いずれかのタッチポイントに前記仮想的なタッチがされると、直前に前記仮想的なタッチがされたタッチポイントとを結ぶオブジェクトの表示を行なう。
【請求項11】
請求項9に記載の情報処理システムであって、
前記オブジェクト表示手段は、所定の順序で所定のタッチポイントに仮想的なタッチがされると、連続して仮想的なタッチがされたタッチポイント同士を結ぶオブジェクトの表示を行なう。
【請求項12】
請求項9に記載の情報処理システムであって、
前記タッチポイントを結ぶオブジェクトは、光を模擬したラインである。
【請求項13】
コンピュータプログラムを記録した記録媒体であって、
前記コンピュータプログラムは、コンピュータを以下の手段として機能させる。
プレーヤーに対して、仮想的なタッチの対象となる複数のタッチポイントを示すコンピュータ画像を生成する手段、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制御手段、
前記コンピュータ画像が表示されているときのビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを検出する手段、
前記検出手段により、複数のタッチポイントに連続的に前記仮想的なタッチがされたことが検出されると、連続して前記仮想的なタッチがされたタッチポイント同士を結ぶオブジェクトの表示を行なうオブジェクト表示手段。
【請求項14】
コンピュータ画像生成部と画像入力部と重畳画像生成部と判定部とを有する情報処理装置における入力インタフェース制御方法であって、
プレーヤーに対して、仮想的なタッチの対象となる複数のタッチポイントを示すコンピュータ画像をコンピュータ画像生成部が生成するステップと、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を画像入力部が受け付けるステップと、
重畳画像生成部が、前記ビデオ画像と前記コンピュータ画像とを重ねて表示装置に表示させる表示ステップと、
判定部が、前記コンピュータ画像が表示されているときのビデオ画像を解析し、前記複数のタッチポイントのいずれかに対する仮想的なタッチを検出するステップと、
複数のタッチポイントに連続的に前記仮想的なタッチがされたことが検出されると、コンピュータ画像生成部が、連続して前記仮想的なタッチがされたタッチポイント同士を結ぶオブジェクトの表示を行なうオブジェクト表示ステップとを有する。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate


【国際公開番号】WO2005/065798
【国際公開日】平成17年7月21日(2005.7.21)
【発行日】平成19年7月26日(2007.7.26)
【国際特許分類】
【出願番号】特願2005−516871(P2005−516871)
【国際出願番号】PCT/JP2005/000038
【国際出願日】平成17年1月5日(2005.1.5)
【出願人】(395015319)株式会社ソニー・コンピュータエンタテインメント (871)
【Fターム(参考)】