画像処理装置、画像処理装置の制御方法、及びプログラム
【課題】処理負荷を軽減しつつ、遠近感を表現した画面を表示させる。
【解決手段】複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、第1画像作成部62は、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する。第2画像作成部64は、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する。奥行き情報取得部66は、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点との距離に関する奥行き情報を取得する。表示制御部68は、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる。
【解決手段】複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、第1画像作成部62は、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する。第2画像作成部64は、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する。奥行き情報取得部66は、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点との距離に関する奥行き情報を取得する。表示制御部68は、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理装置の制御方法、及びプログラムに関する。
【背景技術】
【0002】
ゲームキャラクタ等の各種オブジェクトが配置された仮想3次元空間を、所与の視点から見た様子を表示する画像処理装置が知られている。特許文献1には、雪や雨が降っている様子等を画面に表示させる際の処理負荷を軽減するための技術が記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007−082859号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記のような画像処理装置においては、視点に近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させると、画面に遠近感が表現される。遠近感を表現する方法として、例えば、オブジェクトをぼかさない画像と、オブジェクトをぼかした画像と、を各画素の奥行き情報に応じた割合で合成する手法が考えられる。この場合、奥行きがある画素ほど、オブジェクトをぼかした画像の割合が多くなるようにする。即ち、視点から離れたオブジェクトほど、画面には、ぼかされて表示される。
【0005】
しかしながら、例えば、多数の精密なオブジェクトが仮想3次元空間に配置されると、仮想3次元空間に含まれるポリゴン数の増加に起因して、奥行き情報の作成処理は複雑になる。つまり、遠近感を表現した画面を表示する際に、画像処理装置の処理負荷が増大する可能性がある。
【0006】
本発明は、上記課題に鑑みてなされたものであって、その目的とするところは、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能な画像処理装置、画像処理装置の制御方法、及びプログラムを提供することである。
【課題を解決するための手段】
【0007】
上記課題を解決するために、本発明に係る画像処理装置は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、を含むことを特徴とする。
【0008】
また、本発明に係る画像処理装置の制御方法は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置の制御方法であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、を含むことを特徴とする。
【0009】
また、本発明に係るプログラムは、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、として前記コンピュータを機能させることを特徴とする。
【0010】
本発明によれば、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能になる。
【0011】
また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが取り除かれた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。
【0012】
また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との距離が所定値以上の前記所定のオブジェクトが取り除かれたものであることを特徴とする。
【0013】
また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。
【0014】
また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との奥行きが所定値以上の前記所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものであることを特徴とする。
【0015】
また、本発明の一態様では、前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって前記第2画像を作成することを特徴とする。
【0016】
また、本発明の一態様では、前記第1の仮想3次元空間は、少なくともキャラクタオブジェクトと、スポーツの会場を表すオブジェクトが配置されたスポーツゲームの空間であって、前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。
【図面の簡単な説明】
【0017】
【図1】本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。
【図2】第1の仮想3次元空間の一例を示す図である。
【図3】実施形態1に係るゲーム装置に実現される機能群を示す機能ブロック図である。
【図4A】第1画像の一例を示す図である。
【図4B】第2画像の一例を示す図である。
【図4C】表示制御部が表示させる画像の一例を示す図である。
【図5】第2の仮想3次元空間の一例を示す図である。
【図6】奥行き情報の一例を示す図である。
【図7】ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。
【図8A】奥行き情報の一例である。
【図8B】奥行き情報の一例である。
【図9】実施形態2における第1の仮想3次元空間の一例を示す。
【図10】実施形態2における第2の仮想3次元空間の一例を示す図である。
【図11】実施形態2における奥行き情報の一例を示す図である。
【図12】ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。
【図13A】第1画像の一例を示す図である。
【図13B】第2画像作成部の取得部が取得する画像の一例を示す図である。
【図14】ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。
【図15】注目画素と周囲画素との関係を説明するための図である。
【図16】変形例における第2の仮想3次元空間を説明するための図である。
【発明を実施するための形態】
【0018】
[1.実施形態1]
以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば、家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、実施形態1に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。
【0019】
[1−1.ゲーム装置のハードウェア構成]
図1は、本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。図1に示すように、ゲーム装置10においては、家庭用ゲーム機11に情報記憶媒体である光ディスク25及びメモリカード28が装着される。また、ゲーム装置10には、表示部18及び音声出力部22が接続される。例えば、表示部18には家庭用テレビ受像機が用いられ、音声出力部22にはその内蔵スピーカが用いられる。
【0020】
家庭用ゲーム機11は、バス12、マイクロプロセッサ14、画像処理部16、音声処理部20、光ディスク再生部24、主記憶26、入出力処理部30及びコントローラ32を含んで構成される公知のコンピュータゲームシステムである。コントローラ32以外の構成要素は筐体内に収容される。
【0021】
バス12は、アドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、画像処理部16、主記憶26及び入出力処理部30は、バス12によって相互データ通信可能に接続される。
【0022】
マイクロプロセッサ14は、図示しないROMに格納されるオペレーティングシステム、光ディスク25から読み出されるプログラムや、メモリカード28から読み出されるデータに基づいて、家庭用ゲーム機11の各部を制御する。
【0023】
主記憶26は、例えばRAMを含んで構成されるものであり、光ディスク25から読み出されたプログラムやメモリカード28から読み出されたデータが必要に応じて書き込まれる。主記憶26は、マイクロプロセッサ14の作業用メモリとしても用いられる。
【0024】
画像処理部16は、VRAMを含んで構成される。画像処理部16は、マイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。画像処理部16は、この内容をビデオ信号に変換して所定のタイミングで表示部18に出力する。
【0025】
入出力処理部30は、マイクロプロセッサ14が音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32にアクセスするためのインタフェースである。入出力処理部30には、音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32が接続される。
【0026】
音声処理部20はサウンドバッファを含んで構成される。音声処理部20は、光ディスク25から読み出されてサウンドバッファに記憶されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データを音声出力部22から出力する。
【0027】
光ディスク再生部24は、マイクロプロセッサ14からの指示に従って光ディスク25に記録されたプログラムを読み取る。なお、ここではプログラムを家庭用ゲーム機11に供給するために光ディスク25を用いることとするが、CD−ROMやROMカード等、他のあらゆる情報記憶媒体を用いるようにしてもよい。また、インターネット等のデータ通信網を介して遠隔地からプログラムを家庭用ゲーム機11に供給するようにしてもよい。
【0028】
メモリカード28は、不揮発性メモリ(例えばEEPROM等)を含んで構成される。家庭用ゲーム機11は、メモリカード28を装着するための複数のメモリカードスロットを備えており、複数のメモリカード28を同時に装着可能となっている。メモリカード28は、このメモリカードスロットに対して脱着可能に構成され、例えば、セーブデータなどの各種ゲームデータを記憶させるために用いられる。
【0029】
コントローラ32は、プレイヤが各種ゲーム操作の入力をするためのものである。入出力処理部30は、一定周期毎(例えば1/60秒毎)にコントローラ32の各部の状態をスキャンする。このスキャン結果を表す操作信号は、バス12を介してマイクロプロセッサ14に入力される。
【0030】
マイクロプロセッサ14は、コントローラ32からの操作信号に基づいてプレイヤのゲーム操作を判定する。家庭用ゲーム機11は、複数のコントローラ32を接続可能に構成されている。つまり、家庭用ゲーム機11は、各コントローラ32から入力される操作信号に基づいて、マイクロプロセッサ14がゲーム制御を行うようになっている。
【0031】
[1−2.第1の仮想3次元空間]
ゲーム装置10では、例えば、プレイヤが操作する選手がサッカーの試合を行うサッカーゲームが実行される。このサッカーゲームは、マイクロプロセッサ14が、光ディスク25から読み出したプログラムを実行することによって実現される。
【0032】
ゲーム装置10において、サッカーゲームが実行されると、主記憶26には、このゲームに対応する仮想3次元空間が構築される。以降では、この仮想3次元空間を第1の仮想3次元空間40という。
【0033】
図2は、第1の仮想3次元空間40の一例を示す図である。図2に示すように、第1の仮想3次元空間40には、互いに直交するXw軸、Yw軸、及びZw軸が設定される。第1の仮想3次元空間40に配置される各オブジェクトの位置は、これらの座標軸のワールド座標値(ワールド座標系の座標値)により特定される。
【0034】
第1の仮想3次元空間40に配置される各オブジェクトの形状は、ポリゴンによって表現される。例えば、第1の仮想3次元空間40のオブジェクトの表面が、微小な三角形のポリゴンに分割される。オブジェクトが多数化又は精密化するほど、ポリゴンの数は増加するため、ゲーム画面を表示する際のゲーム装置10の処理負荷は増大する。
【0035】
表示部18にゲーム画面が表示される際には、後述する仮想カメラ52の視野に含まれるポリゴンの頂点を示す3次元座標に基づいて画像が作成される。例えば、ポリゴンの頂点を示す3次元座標は、後述するゲームデータ記憶部60に記憶されていてもよいし、所定の計算式に基づいて算出されてもよい。
【0036】
また、例えば、ゲームデータ記憶部60に記憶されたオブジェクトの色情報に基づいて、ゲーム画面の各画素に表示すべき色が特定される。例えば、選手のユニフォームの色等が特定される。なお、ゲーム画面の表示方法はこれに限られず、例えば、上記の色情報を図示しないROMにデータベース化し、これを読み出すことにより表示させるようにしてもよい。
【0037】
図2に示すように、第1の仮想3次元空間40には、サッカーが行われるグラウンドを表すフィールドオブジェクト42が配置される。フィールドオブジェクト42は、例えば、Xw−Zw平面に平行に配置される。
【0038】
フィールドオブジェクト42の四方を囲むように、スタジアムオブジェクト44a,44b,44c,44d(以降、これらを総じて、単にスタジアムオブジェクト44という)が配置される。スタジアムオブジェクト44には、例えば、観客や看板を表すオブジェクト等が含まれていてもよい。
【0039】
フィールドオブジェクト42上には、サッカーゴールを表すゴールオブジェクト46、選手を表すキャラクタオブジェクト48、サッカーボールを表すボールオブジェクト50等が配置される。つまり、第1の仮想3次元空間40には、サッカーの試合会場が形成される。
【0040】
なお、フィールドオブジェクト42上のピッチ外の領域に、看板を表すオブジェクト等が配置されるようにしてもよい。ピッチとは、フィールドオブジェクト42の領域のうち、ゴールラインとタッチラインとに囲まれる領域のことである。
【0041】
第1の仮想3次元空間40には、複数のキャラクタオブジェクト48が配置される。即ち、一方のチームに所属する11体のキャラクタオブジェクト48と、他方のチームに所属する11体のキャラクタオブジェクト48とが配置される。
【0042】
プレイヤが一方のチームを操作する場合、このチームに所属するキャラクタオブジェクト48の何れか一つが、コントローラ32からの入力により、プレイヤの操作に供される。キャラクタオブジェクト48やボールオブジェクト50は、ゲーム状況に応じて第1の仮想3次元空間40内を移動する。
【0043】
また、第1の仮想3次元空間40には、仮想カメラ52(視点)が設定される。ゲーム装置10は、仮想カメラ52から第1の仮想3次元空間40を見た様子を表すゲーム画面を表示部18に表示する。つまり、仮想カメラ52に対応する視野に含まれる各オブジェクトが、ゲーム画面として表示部18に表示される。
【0044】
仮想カメラ52の視野は、例えば、仮想カメラ52の位置座標、仮想カメラ52の視線方向を示す視線ベクトル、仮想カメラ52の視野角、及びゲーム画面のアスペクト比等によって決定される。これらの値は、主記憶26に記憶され、ゲームの状況に応じて適宜変更される。
【0045】
表示部18に表示されるゲーム画面は、例えば、後述するゲームデータ記憶部60に基づいて作成される。具体的には、仮想カメラ52の視野内に配置された各オブジェクトの位置座標(ワールド座標)が、所定の行列計算に基づいてゲーム画面に対応する2次元座標(スクリーン座標)に変換される。即ち、各ポリゴンの頂点を示す座標が、2次元座標に変換される。この2次元座標は、オブジェクトを表示すべきゲーム画面上の位置を特定するための情報である。
【0046】
表示部18に表示されるゲーム画面は、所定時間毎(例えば1/60秒毎)に表示が更新される。ゲーム画面には、互いに直行するXs軸、Ys軸が設定される。例えば、ゲーム画面の左上を原点O(0,0)とし、各画素に対応する座標が割り当てられる。即ち、仮想カメラ52の視野内に配置されたオブジェクトに対応する2次元座標は、ゲーム画面に対応する領域内の座標となる。
【0047】
[1−3.ゲーム装置で実現される機能]
図3は、ゲーム装置10において実現される機能群を示す機能ブロック図である。図3に示すように、ゲーム装置10では、ゲームデータ記憶部60、第1画像作成部62、第2画像作成部64、奥行き情報取得部66、及び表示制御部68が実現される。これらの機能は、マイクロプロセッサ14が光ディスク25から読み出されたプログラムに従って動作することにより、実現される。
【0048】
[1−3−1.ゲームデータ記憶部]
ゲームデータ記憶部60は、主記憶26及び光ディスク25を主として実現される。ゲームデータ記憶部60は、ゲームに必要な各種データを記憶する。本実施形態の場合、ゲームデータ記憶部60は、第1の仮想3次元空間40の現在の状況を示すゲーム状況データ等を記憶する。
【0049】
図2に示す第1の仮想3次元空間40は、ゲーム状況データに基づいて主記憶26に構築される。ゲーム状況データには、例えば、各オブジェクトを配置すべき3次元座標、このオブジェクトに対応するポリゴンの頂点を示す情報、仮想カメラ52の3次元座標、オブジェクトの色等のゲーム画面の色彩に関する色情報が格納される。
【0050】
また、ゲーム状況データには、仮想カメラ52の視野に関する各種情報が格納される。即ち、ゲーム状況データには、仮想カメラ52の視線ベクトル、視野角、ゲーム画面のアスペクト比等が格納される。ゲーム状況データに格納される値は、ゲームの状況に応じて適宜更新される。
【0051】
[1−3−2.第1画像作成部]
第1画像作成部62は、マイクロプロセッサ14を主として実現される。第1画像作成部62は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表す第1画像を作成する。第1画像は、例えば、ゲームデータ記憶部60が参照されることにより作成される。つまり、第1画像は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、オブジェクトに対応する色が付された画像である。
【0052】
図4Aは、第1画像の一例を示す図である。第1画像は、第1の仮想3次元空間40を仮想カメラ52から見た様子が表され、図4Aに示すように、仮想カメラ52の視野に含まれる各オブジェクトに所定の色がそのまま付された状態の画像が作成される。
【0053】
[1−3−3.第2画像作成部]
第2画像作成部64は、マイクロプロセッサ14を主として実現される。第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表し、ぼかし処理が施された第2画像を作成する。ぼかし処理とは、第1の仮想3次元空間40に配置された各オブジェクトの色をぼかすための処理である。ぼかし処理としては、一般的なぼかし処理を用いることができる。
【0054】
図4Bは、第2画像の一例を示す図である。図4Bでは、ぼかし処理が施されたオブジェクトを、模式的に点線で示している。即ち、第2画像は、図4Aに示す第1画像に比べて、各オブジェクトの輪郭や内部の領域の色がぼかされたものになる。
【0055】
第2画像は、例えば、第1画像と同様に、ゲームデータ記憶部60が参照されることにより作成される。ゲームデータ記憶部60に記憶された各オブジェクトの色にぼかし処理が施される点で、第2画像は第1画像と異なる。
【0056】
第2画像は、任意の方法に基づいて、仮想カメラ52の視野に含まれるオブジェクトに対応するぼかし処理が施されて作成されればよい。例えば、第2画像は、第1画像に基づいて生成される。
【0057】
より具体的には、まず、第1画像が複製されて主記憶26に記憶される。この複製された第1画像に対応する1つの画素の画素値を、この画素を囲む周囲の8つの画素値の平均値に変更することにより、ぼかし処理を行って、第2画像とするようにしてもよい。他にも、複製された第1画像に対応する1つの画素の画素値を、この画素の上下左右の4つの画素の色を混合した値とするようにしてもよい。
【0058】
[1−3−4.奥行き情報取得部]
奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。第2の仮想3次元空間40’については後述する。以下、奥行き情報取得部66が取得する奥行き情報を、第2の仮想3次元空間40’に対応する奥行き情報という。
【0059】
奥行き情報とは、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトの部分とを結ぶ直線の距離、即ち視点方向の距離のことをいう。奥行き情報は、図示しないROM等に記憶されたプログラマブルシェーダ等によって作成されて、主記憶26に記憶される。奥行き情報が作成されるタイミングは任意であってよく、例えば、表示部18に表示されるゲーム画面の更新タイミングで作成される。
【0060】
奥行き情報は、例えば、8ビットのグレースケールの画像で表現されて主記憶26等に記憶される。本実施形態では、視点に最も近い画素の画素値を255(白を表す)とし、最も遠い画素の画素値を0(黒を表す)とする。即ち、視点からの距離に応じて画素値が0〜255の間で表現される。なお、奥行き情報の作成方法はこれに限られず、公知の種々の方法を適用可能とする。
【0061】
[第2の仮想3次元空間]
上記のように、奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得する。本実施形態においては、ゲーム装置10は、第1の仮想3次元空間40に含まれるオブジェクトのうち、所定のオブジェクトを取り除くことにより、ポリゴンの数を削減する。
【0062】
図5は、第2の仮想3次元空間40’を示す図である。図5に示すように、例えば、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50が取り除かれる。つまり、第2の仮想3次元空間40’においては、第1の仮想3次元空間40に比べて、これらの取り除かれたオブジェクトに含まれるポリゴンの数の総和分のポリゴンの数が削減される。取り除かれるオブジェクトは、予め定められていてよい。
【0063】
なお、図5に示すように、スタジアムオブジェクト44の形状は、簡略化されてもよい。例えば、スタジアムオブジェクト44を構成する面が、Yw軸方向と平行になるように簡略化される。以降では、これをスタジアムオブジェクト44’という。
【0064】
スタジアムオブジェクト44’に含まれるポリゴンの数は、スタジアムオブジェクト44に比べて少ない。第2の仮想3次元空間40’では、スタジアムオブジェクト44がスタジアムオブジェクト44’に置き換えられている。スタジアムオブジェクト44’は、スタジアムオブジェクト44の位置に対応する位置に配置される。
【0065】
第2の仮想3次元空間40’は、フィールドオブジェクト42’の四方を囲むように、スタジアムオブジェクト44a’,44b',44c’,44d’が含まれる。フィールドオブジェクト42’とスタジアムオブジェクト44’により、第2の仮想3次元空間40’は、図5に示すように、ほぼ箱形状となる。
【0066】
また、第2の仮想3次元空間40’には、仮想カメラ52’(視点)が配置される。本実施形態においては、仮想カメラ52と仮想カメラ52’の3次元座標は、同一であるものとする。奥行き情報取得部66は、以上説明した第2の仮想3次元空間40’に基づいて奥行き情報を取得する。
【0067】
図6は、奥行き情報の一例を示す図である。図6に示す例は、図5に示す第2の仮想3次元空間40’に対応する奥行き情報である。即ち、第1の仮想3次元空間40のうち、フィールドオブジェクト42と簡略化されたスタジアムオブジェクト44のみが考慮されて、奥行き情報が作成される。図6の例では、仮想的に、奥行き情報を4段階(図6の領域E1〜領域E4)とする。
【0068】
図6に示すように、仮想カメラ52’との距離が近い画素の領域E1は白く(網かけがない領域)、仮想カメラ52’との距離が遠い画素の領域E4は黒く(網かけがある領域)表現される。領域E1と領域E4の間にある領域E2と領域E3は、それぞれ仮想カメラ52’からの距離に応じて濃淡が決定される。つまり、仮想カメラ52’からの距離が画素値によって表現される。
【0069】
なお、奥行き情報は、第2の仮想3次元空間40’に対応する奥行きが表現されればよく、奥行き情報のデータ構成の例は、これに限られない。例えば、図6のようなグレースケールの画像ではなく、RGBカラーモデルによって表現される画像であってもよいし、各画素の座標と距離を示す値とがデータテーブルに対応付けられて主記憶26に記憶されるようにしてもよい。
【0070】
[1−3−5.表示制御部]
表示制御部68は、マイクロプロセッサ14及び画像処理部16を主として実現される。表示制御部68は、第1画像と第2画像の各画素の合成の割合を奥行き情報に基づいて決定し、第1画像と第2画像が合成された画面を表示部18に表示させる。
【0071】
図4Cは、表示制御部68が表示させる画像の一例を示す図である。図4Cの例では、図4Bと同様に、ぼかし処理が施されたオブジェクトを模式的に点線で示している。また、点線が細かいほど、オブジェクトの色がぼかされていることを示している。
【0072】
表示制御部68が、第1画像と第2画像が合成された画像を表示させることにより、視点から近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させることができる。
【0073】
表示制御部68が第1画像と第2画像を合成させる方法は、例えば、いわゆるアルファ値(半透明合成率,透過度)を使用した半透明合成を用いる。アルファ値を0〜1の実数とすると、ゲーム画面のある画素(座標を(Xs,Ys)とする)の画素値は、「(1−アルファ値)×第1画像の座標(Xs,Ys)の画素値+アルファ値×第2画像の座標(Xs,Ys)の画素値」等のように算出される。
【0074】
なお、本実施形態では、奥行き情報取得部66によって取得された奥行き情報(図6参照)における画素(Xs,Ys)の奥行き情報の値を、第1画素及び第2画像の画素(Xs、Ys)の奥行き情報の値とみなし、第1画像及び第2画像の画素(Xs,Ys)のアルファ値が算出される。
【0075】
つまり、アルファ値は、奥行き情報に基づいて決定される。本実施形態においては、奥行きが大きい画素ほど、アルファ値が大きくなる。つまり、視点との距離が離れるほど、ぼかしの程度が大きくなる。一方、奥行きが小さい画素ほど、アルファ値が小さくなる。つまり、視点との距離が近いほど、ぼかしの程度が小さくなる。
【0076】
なお、第1画像と第2画像の各画素の合成の割合が奥行き情報に基づいて決定されればよく、画像の合成方法は、これに限られない。画像の合成方法は、公知の任意の手法を適用可能とする。
【0077】
[1−4.ゲーム装置にて実行される処理]
図7は、ゲーム装置10において所定時間毎(例えば、1/60秒毎)に実行される処理の一例を示すフロー図である。図7の処理は、マイクロプロセッサ14が、光ディスク25から読み出されたプログラムに従って動作することにより実行される。
【0078】
図7に示すように、まず、マイクロプロセッサ14(第1画像作成部62)は、主記憶26に記憶されたゲームデータ記憶部60を参照し、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す第1画像を作成する(S101)。S101において作成される第1画像(図4A参照)は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、各オブジェクトの色がそのまま表された画像である。
【0079】
マイクロプロセッサ14(第2画像作成部64)は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表し、ぼかし処理が施された第2画像を作成する(S102)。S102において作成される第2画像(図4B参照)は、例えば、第1画像に対して所定のぼかし処理が施された画像である。
【0080】
マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S103)。本実施形態においては、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50を取り除いた第2の仮想3次元空間40’に対応する奥行き情報が取得される。この奥行き情報は、先述のように、例えば、プログラマブルシェーダ等によって、ゲーム画面の表示タイミングが訪れる毎に作成されて主記憶26等に記憶されている。
【0081】
マイクロプロセッサ14(表示制御部68)は、奥行き情報に基づいて各画素の半透明合成の割合を決定する(S104)。S104において決定された割合は、例えばアルファ値であり、画素の位置座標と対応付けられて主記憶26に記憶される。
【0082】
S104においては、例えば、奥行き情報に対応する画像(図6)の画素値に基づいて半透明合成の割合が決定される。より具体的には、表示制御部68が、ある画素の画素値を「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」として算出することによりゲーム画面を表示させる場合、S304においては、アルファ値=第2画像の最大アルファ値(例えば0.95)*(1−奥行き情報の画素値/255)となるように算出される。
【0083】
このように半透明合成の割合を定めることにより、奥行き情報に応じた割合を画素毎に決定することができる。上記の例では、仮想カメラ52に近い画素ほどアルファ値が小さくなるので、第2画像の割合を小さくすることができる。即ち、仮想カメラ52に近い画素ほどオブジェクトのぼかし具合が少なくなる。
【0084】
なお、S304においては、奥行き情報に基づいて半透明合成の割合が決定されればよく、半透明合成の割合の決定方法は、これに限られない。例えば、奥行き情報と半透明合成の割合が対応付けられたデータテーブルを用意しておいてもよいし、所定の計算式に奥行き情報を代入して半透明合成の割合が算出されるようにしてもよい。
【0085】
マイクロプロセッサ14は(表示制御部68)、第1画像と第2画像とを合成して表示部18に表示させる(S105)。例えば、S104において決定された半透明合成の割合に基づいて第1画像(図4A)と第2画像(図4B)とが合成された合成画像(図4C)が、表示部18に表示される。即ち、ある画素の画素値が、「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」となる合成画像が表示される。
【0086】
[1−5.実施形態1のまとめ]
以上説明した実施形態1に係るゲーム装置10は、第2の仮想3次元空間40’に対応する奥行き情報に基づいて、第1画像と第2画像の半透明合成の割合を決定して、この割合に基づいて第1画像と第2画像を合成して表示部18に表示させる。実施形態1におけるゲーム装置10によれば、仮想カメラ52に近いオブジェクトを鮮明に表示させ、遠いオブジェクトをぼかして表示させることができ、遠近感の表現を実現することができる。
【0087】
また、ゲーム装置10によれば、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得して、遠近感の表現を実現することができる。ゲーム装置10によれば、例えば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べて、ゲーム装置10の処理負荷を軽減することができる。
【0088】
より具体的には、例えば、仮想カメラ52の視野内に多数のオブジェクトが含まれている場合、これらのオブジェクトの全てを考慮して奥行き情報を作成する際に、ポリゴン数の増加に起因してゲーム装置10に処理負荷がかかる。しかし、視野内に多数のオブジェクトが含まれている場合には、ゲーム画面に表示されるオブジェクトは比較的小さいことが多い。
【0089】
したがって、オブジェクトを取り除いて作成された奥行き情報と、オブジェクトを全て考慮に入れて作成された奥行き情報と、の間には、例えば、オブジェクトがゲーム画面にズームされて表示されている場合等に比べて、データ内容の差異が比較的少ない。即ち、本実施形態のように、第2の仮想3次元空間40’に基づいて取得される奥行き情報に基づいて第1画像と第2画像を合成しても遠近感を表現でき、かつ、処理負荷の軽減を実現することができる。
【0090】
なお、本発明は、以上説明した実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、本実施形態では家庭用ゲーム機を例に挙げて説明したが、ゲームセンター等に設置されるアーケード型ゲーム機であってもよい。
【0091】
また、本実施形態においては、第2の仮想3次元空間40’に含まれるオブジェクトを、フィールドオブジェクト42’及びスタジアムオブジェクト44’としたが、第1の仮想3次元空間40に配置されるオブジェクトのうち、予め定められたオブジェクトが含まれるようにすればよい。つまり、第1の仮想3次元空間40から取り除かれるオブジェクトは、本実施形態の例に限られない。
【0092】
また、ほぼ箱形状の第2の仮想3次元空間40’(図5)を例に挙げて説明したが、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴン数が削減されたものであればよく、フィールドオブジェクト42’を、傾斜するスタジアムオブジェクト44’で囲むようにしてもよい。即ち、すり鉢状の第2の仮想3次元空間40’となるようにしてもよい。
【0093】
また、図7に示す処理は所定間隔で実行されるように説明したが、図7の処理が実行されるための条件を設けてもよい。例えば、仮想カメラ52との距離が近いオブジェクトはゲーム画面内における上記オブジェクトの占める領域が大きい。このオブジェクトが占める領域は、様々な奥行き情報の値を取る領域をまたがるため、この領域内の奥行き情報の誤差が大きくなる。即ち、オブジェクトが部分的にぼかされて表示される。このような状況では、図7の処理が実行されないようにしてもよい。
【0094】
例えば、仮想カメラ52の位置がフィールドオブジェクト42から所定距離以上離れた場合には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が小さくなり、この領域内での奥行き情報の誤差が小さいため、部分的にぼかされて表示されるオブジェクトがない。また例えば、ボールオブジェクト50が所定の高さ以上の位置に配置されたときに、このボールオブジェクト50の動きに仮想カメラ52が従動して、仮想カメラ52の位置がフィールドオブジェクト42から離れることがある。このような場合にも、上記と同様に、部分的にぼかされて表示されるオブジェクトがない。これらの所定の場合にのみ、図7の処理が実行されるようにしてもよい。
【0095】
一方、キャラクタオブジェクト48と仮想カメラ52との距離が所定値以内である場合(つまりズームインする場合)には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が大きくなり、この領域内での奥行き情報の誤差が大きくなるため、部分的にぼかされて表示されるオブジェクトがある。このような場合には、図7に示す処理が行われなくてもよい。
【0096】
[2.実施形態2]
以下、実施形態2について説明する。実施形態1においては、第1の仮想3次元空間40から所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報が作成されていた。
【0097】
しかしながら、第1の仮想3次元空間40から取り除くオブジェクトを予め定めておいた場合には、ゲーム状況に応じた画面表示処理ができない可能性がある。例えば、仮想カメラ52とキャラクタオブジェクト48が接近した場合には、第1画像と第2画像とを合成するための奥行き情報が正確に取得されない可能性がある。
【0098】
図8Aは、仮想カメラ52とキャラクタオブジェクト48が接近した場合における第1の仮想3次元空間40に基づいて取得される奥行き情報の一例である。図8Aに示す例では、図6と同様に、奥行き情報を仮想的に4段階(領域E1〜領域E4)とする。キャラクタオブジェクト48が表示される画素は、仮想カメラ52に接近しているので、領域E1に含まれる。他の領域E2〜領域E4は、図6と同様であるので説明を省略する。
【0099】
図8Bは、仮想カメラ52とキャラクタオブジェクト48が接近した場合において、実施形態1のゲーム装置10で取得される奥行き情報の一例である。図8Bに示す例では、図8Aにおいてキャラクタオブジェクト48が配置されていた領域を点線で示している。
【0100】
図8に示すように、キャラクタオブジェクト48が領域E1〜領域E4にまたがって配置されており、本来、領域E1として表現されるべき画素が、領域E2〜領域E4でも表現される。即ち、奥行き情報に誤差が生じる。仮想カメラ52とキャラクタオブジェクト48が接近すればするほど、キャラクタオブジェクト48の領域は大きくなるので、この誤差が生じる画素数が多くなる。この際に実施形態1の処理をそのまま適用した場合、第1画像と第2画像とを合成した際に、キャラクタオブジェクト48の足元が鮮明に表示されているにも関わらず、頭だけぼかされて表示されてしまう。
【0101】
上記のことを防止するために、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトにおける所定のオブジェクトのうち、仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点に特徴がある。
【0102】
なお、実施形態2に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。また、実施形態2に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。
【0103】
図9は、実施形態2における第1の仮想3次元空間40の一例を示す図である。図9では、フィールドオブジェクト42上に配置されるキャラクタオブジェクト48をキャラクタオブジェクト48a,48b,48cとする。
【0104】
仮想カメラ52は、キャラクタオブジェクト48aの背後に配置される。図9の例では、仮想カメラ52とキャラクタオブジェクト48aとの距離は所定値未満であり、仮想カメラ52とキャラクタオブジェクト48b及びキャラクタオブジェクト48cとの距離やゴールオブジェクト46等の他のオブジェクトとの距離は、所定値以上である。他のオブジェクトについては、図2と同様であるので、説明を省略する。
【0105】
[2−1.第2の仮想3次元空間]
先述のように、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点で実施形態1と異なる。
【0106】
図10は、実施形態2における第2の仮想3次元空間40’を示す図である。図10の例では、図9に示す第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のキャラクタオブジェクト48aが存在した場合を示す。
【0107】
実施形態2の第2の仮想3次元空間40’では、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれるので、図10に示すように、キャラクタオブジェクト48は取り除かれずに配置される。これをキャラクタオブジェクト48a’とする。つまり、第2の仮想3次元空間40’には、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’が配置される。
【0108】
奥行き情報取得部66は、実施形態1と同様に、第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。
【0109】
奥行き情報とは、実施形態1と同様に、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトとを結ぶ直線の距離、即ち視点方向の距離のことをいう。
【0110】
図11は、実施形態2における奥行き情報の一例を示す図である。図11の例は、図10の第2の仮想3次元空間40’に対応する奥行き情報を示す。即ち、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’のそれぞれと、仮想カメラ52’と、の奥行きを示す奥行き情報が作成される。この例では、図6と同様に仮想的に奥行き情報を4段階(図11の領域E1〜領域E4)とする。
【0111】
つまり、実施形態2における奥行き情報は、キャラクタオブジェクト48a’が考慮される点で実施形態1における奥行き情報(図6)とは異なる。図11に示す例では、キャラクタオブジェクト48a’に対応する領域は、仮想カメラ52’との距離が最も近い領域E1となっている。他の領域E2〜領域E4については、実施形態1と同様である。
【0112】
[2−2.ゲーム装置にて実行される処理]
図12に示す処理は、実施形態1における図6に示す処理に対応している。つまり、図12に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
【0113】
図12に示すように、S201,S202は、それぞれS101,S102と同様であるので、説明を省略する。
【0114】
マイクロプロセッサ14は、第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のオブジェクトが配置されているか否かを判断する(S203)。具体的には、例えば、ゲームデータ記憶部60に記憶された各オブジェクトの位置座標と、仮想カメラ52の位置座標と、の距離が予め定められた所定値以上であるか否かによって判断される。この所定値は、予め光ディスク25等に記憶されている。
【0115】
なお、S203においては、仮想カメラ52と各オブジェクトとの位置関係に基づいて判断されればよく、S203の判断方法は、これに限られない。他にも、例えば、第1の仮想3次元空間40に配置される各オブジェクトに対応するポリゴンのうち、最も仮想カメラ52から近いポリゴンとの距離が、所定値以上であるか否かによって判断されるようにしてもよい。
【0116】
奥行きが所定値未満のオブジェクトが配置されている場合(S203;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S204)。
【0117】
S204においては、S103と同様の処理が行われることにより奥行き情報が取得される。S204において取得される奥行き情報は、奥行きが所定値未満のオブジェクトが含まれた状態の奥行き情報となる。つまり、図11の例のように、キャラクタオブジェクト48a’が含まれた状態の奥行き情報となる。
【0118】
奥行き情報が所定値未満のオブジェクトが配置されていない場合(S203;N)、マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S205)。S205においては、S103と同様に、図5に示すような第2の仮想3次元空間40’に対応する奥行き情報が取得される。
【0119】
S206,S207は、それぞれS104,S105と同様であるので、説明を省略する。
【0120】
[2−3.実施形態2のまとめ]
以上説明した実施形態2に係るゲーム装置10は、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報を取得する。実施形態2におけるゲーム装置10によれば、仮想カメラ52に接近したオブジェクトがあった場合でも、そのオブジェクトが部分的にぼかされて表示されることを防止しつつ、ゲーム画面に遠近感を表現させることができる。
【0121】
即ち、実施形態2に係るゲーム装置によれば、例えば、上記説明したように、奥行き情報に誤差が生じる状況を回避することができるので、所定のオブジェクトと視点が接近した場合であっても、処理負荷を軽減しつつ、ゲーム状況に応じて遠近感を表現させることができる。
【0122】
[3.実施形態3]
以下、実施形態3について説明する。実施形態2においては、視点との距離が所定値未満のオブジェクトを考慮して奥行き情報を作成していた。
【0123】
しかしながら、例えば、図11のように奥行き情報を作成した場合、キャラクタオブジェクト48a’の頭部の画素は領域E1であるが、周囲の画素は領域E3又は領域E4であるので、これらの画素の間には、奥行き情報の値に差がある。即ち、表示制御部68が決定する割合に差がでるため、キャラクタオブジェクト48aの頭部は鮮明に表示されるが、この周囲の画素はぼかされて表示される。
【0124】
第2画像を作成する際には、周囲の画素にぼかし処理が施される。例えば、キャラクタオブジェクト48aの輪郭の周囲の画素(つまり、ぼかし処理が施される画素)は、この周囲の画素の色(フィールドオブジェクト42の芝生の色等)と、キャラクタオブジェクト48aのユニフォームや頭髪の色等と、が混合される。キャラクタオブジェクト48aの色が、選手の輪郭の外にはみ出して滲んで表現されてしまう可能性がある。即ち、キャラクタオブジェクト48a’の輪郭がちらついて見えづらくなってしまう可能性がある。
【0125】
上記のことを防止するために、実施形態3は、上記のような奥行き情報の差を有するオブジェクトに基づく所定領域の周囲の色を変更する点に特徴がある。
【0126】
なお、実施形態3に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。ただし、実施形態3の第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を示す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得部を含み、当該画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2とは異なる。
【0127】
また、実施形態3に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。実施形態3の第2の仮想3次元空間40’は、実施形態2と同様(図10参照)であるので説明を省略する。
【0128】
まず、実施形態3のゲーム装置10が作成する画像について説明する。
【0129】
図13Aは、第1画像作成部62が作成する第1画像の一例を示す図である。第1画像は、実施形態1と同様に、第1の仮想3次元空間40を仮想カメラ52から見た様子が表される。
【0130】
図13Bは、第2画像作成部64の取得部が取得する画像の一例を示す図である。図13Bは、図13Aに示すキャラクタオブジェクト48の頭部を構成する画素が、周囲画素と奥行きの差がある場合の例を示す。
【0131】
処理の詳細は後述するが、図13Bに示すように、周囲画素と奥行き情報の差を有する注目画素に基づく所定領域の周囲の色を変更する。例えば、キャラクタオブジェクト48の頭部の所定領域49の色が、周囲画素に対応する色に変更される。図13Bに示す例では、頭部の領域49aは、例えば、周囲画素に対応するスタジアムオブジェクト44の色に変更される。一方、頭部の領域49bは、例えば、周囲画素に対応するフィールドオブジェクト42の色に変更される。
【0132】
第2画像作成部64は、図13Bに示す画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2と異なる。ぼかし処理については、実施形態1及び実施形態2と同様であるので、第2画像の図示を省略する。
【0133】
第2画像は、奥行き差があるオブジェクトの周囲の所定領域の色が周囲画素の色によって塗りつぶされた画像がぼかされたものとなる。即ち、キャラクタオブジェクト48の輪郭に近い画素を、周囲画素の色とすることで、ぼかし処理のためにキャラクタオブジェクト48の色が外ににじみ出なくなるので、上記のように画面がちらつくことを防止することができる。
【0134】
[3−1.ゲーム装置にて実行される処理]
図14に示す処理は、実施形態1における図6及び実施形態2における図12に示す処理に対応している。つまり、図14に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
【0135】
図14に示すように、S301,S302は、それぞれS101,S203と同様であるので、説明を省略する。
【0136】
奥行きが所定値未満のオブジェクトが配置されている場合(S302;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S303)。S303は、S204と同様の処理である。
【0137】
次いで、マイクロプロセッサ14は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す画像に対応する任意の一画素(注目画素)と、この注目画素に隣接する複数の周囲画素の何れかと、の奥行きの差が基準値以上であるか否かを判定する(S304)。
【0138】
S304においては、S303で得られた奥行き情報(図11参照)の画素(Xs,Ys)の奥行き情報を、第1の仮想3次元空間40を仮想カメラ52から見た様子を示す画像の同位置の画素(Xs,Ys)の奥行き情報とみなして、S304の処理は実行される。
【0139】
図15は、注目画素と周囲画素との関係を説明するための図である。図15に示すように、例えば、注目画素A1の2次元座標を(Xs,Ys)とする。注目画素A1の奥行き情報の値を230とする。この注目画素A1の周囲を囲む8つの周囲画素を、周囲画素B1〜周囲画素B8とする。なお、奥行き情報は、S302で取得されている。
【0140】
周囲画素B1の2次元座標は、(Xs−1,Ys−1)である。周囲画素B1の奥行き情報の値を230とする。周囲画素B8の2次元座標は、(Xs+1,Ys+1)である。周囲画素B8の奥行き情報の値を46とする。同様に、周囲画素B2〜周囲画素B7の座標と奥行き情報は、図15に示す通りとする。
【0141】
S304においては、例えば、注目画素A1と、周囲画素B1〜周囲画素B8のそれぞれと、の奥行き情報の値の差が基準値以上であるものがあるか否かが判定される。例えば、基準値を100とすると、図15の例の場合、注目画素A1と奥行きの差が基準値以上である周囲画素は、周囲画素B4,B6,B7,B8の4つがある。即ち、注目画素A1は、周囲画素B1〜B8の何れかと、の奥行きの差が基準値以上であると判定される。
【0142】
注目画素と周囲画素との奥行きの差が基準値以上である場合(S304;Y)、マイクロプロセッサ14(第2画像作成部64、取得部)は、周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する(S305)。
【0143】
注目画素と周辺画素が図15に示す関係の場合、S305における注目画素に基づく所定領域は、例えば、注目画素を含むオブジェクト内部の領域となる。即ち、注目画素と、注目画素からの距離が基準距離以内である画素群のうちの、注目画素との奥行きの差が基準値未満であるような画素群と、を含むような領域となる。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の3つの画素から構成される。注目画素に基づく所定領域は、注目画素が含まれる領域であればよく、この領域の決定方法は、任意である。例えば、注目画素を中心とする半径が16ピクセルの円内の領域を、この所定領域としてもよい。
【0144】
注目画素に基づく所定領域の色が、周囲画素の色に基づいて変更される。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の色が、周囲画素B4,B6,B7,B8の色の平均値に変更される。S304とS305の処理は、画像に対応する全ての画素に対して実行される。つまり、周囲画素と奥行きの差が基準値以上である注目画素の全てに対して、S305の色の変更処理が行われる。
【0145】
なお、S305においては、周囲画素の色に基づいて注目画素に基づく所定領域の色が変更されればよく、色の変更方法は、上記の例に限られない。例えば、所定領域の色が、所定の計算式に基づいて算出されるようにしてもよい。
【0146】
図14に戻り、マイクロプロセッサ14(第2画像作成部64)は、S305において取得された画像にぼかし処理を施して第2画像を作成する(S306)。
【0147】
一方、注目画素と周囲画素との奥行きの差が基準値以上でない場合(S304;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に、第2画像を作成する(S307)。
【0148】
一方、奥行きが所定値未満のオブジェクトが配置されていない場合(S302;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に第2画像を作成する(S308)。続くS309は、S103と同様であるので説明を省略する。
【0149】
S310,S311は、それぞれS104,S105と同様であるので、説明を省略する。
【0150】
[3−2.実施形態3のまとめ]
以上説明した実施形態3に係るゲーム装置10は、注目画素と周囲画素との奥行きの差が基準値以上である場合、この周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する。実施形態3におけるゲーム装置10によれば、周囲と奥行きの差があるオブジェクトの色が変更され、このオブジェクトの色が外ににじみ出ないため、画素間に奥行き差がある場合に発生する画面のちらつきを防止することができる。
【0151】
[変形例]
実施形態1〜実施形態3においては、第1の仮想3次元空間40から所定のオブジェクトを取り除いて第2の仮想3次元空間40’とする例を挙げて説明した。第2の仮想3次元空間40’は、第1の仮想3次元空間40に含まれるポリゴンの数が削減されたものであればよく、第2の仮想3次元空間40’の様子は、図5又は図10を参照して説明した例に限られない。
【0152】
例えば、実施形態1〜実施形態3の変形例として、所定のオブジェクトの形状が簡略化されることにより、ポリゴンの数が削減されるようにしてもよい。この場合、奥行き情報取得部66は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該視点の視線方向の奥行きを示す奥行き情報を取得する。
【0153】
図16は、変形例における第2の仮想3次元空間40’を説明するための図である。図16に示すように、第2の仮想3次元空間40’は、第1の仮想3次元空間40のゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50が、例えば、ポリゴン数が少ない直方体のオブジェクトに置き換えられた仮想3次元空間となる。これにより、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴンの数が削減された仮想3次元空間になる。なお、この簡略化された形状は、ポリゴンの数が削減されればよく、直方体に限られず任意の形状とする。
【0154】
以上説明した変形例では、ポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報が取得される。即ち、より少ない数のポリゴンに基づいて奥行き情報を取得することができる。先述のように、ポリゴンの数が増加すると、奥行き情報の作成処理は複雑になる。変形例の手法によれば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べてポリゴンの数を削減できるので、処理負荷の軽減を図ることができる。
【0155】
この変形例を実施形態3に適用した場合、第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち視点との奥行きが所定値以上のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものとなる。即ち、視点と近いオブジェクトが、簡略化したオブジェクトに置き換えられる。
【0156】
なお、上記変形例では、形状を簡略化するオブジェクトを、ゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50としたが、所定のオブジェクトの形状が簡略化されればよい。例えば、フィールドオブジェクト42が起伏がある場合に、平坦になるようにフィールドオブジェクト42を簡略化してもよい。他にも、スタジアムオブジェクト44に看板のオブジェクト等が含まれる場合には、この看板のオブジェクトを省略することにより、形状を簡略化してもよい。
【0157】
なお、実施形態1〜実施形態3、及び変形例においては、本発明をゲーム装置に適用した例を挙げて説明したが、本発明に係る画像処理装置は、パーソナルコンピュータ等他の装置であってもよい。
【符号の説明】
【0158】
10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 マイクロプロセッサ、16 画像処理部、18 表示部、20 音声処理部、22 音声出力部、24 光ディスク再生部、25 光ディスク、26 主記憶、28 メモリカード、30 入出力処理部、32 コントローラ、40 第1の仮想3次元空間、40’ 第2の仮想3次元空間、42,42’ フィールドオブジェクト、44,44’,44a,44a’,44b,44b’,44c,44c’,44d,44d' スタジアムオブジェクト、46,46’ ゴールオブジェクト、48,48’,48a,48a’,48b,48c キャラクタオブジェクト、49 所定領域、49a,49b 領域、50,50’ ボールオブジェクト、52,52’ 仮想カメラ、60 ゲームデータ記憶部、62 第1画像作成部、64 第2画像作成部、66 奥行き情報取得部、68 表示制御部、E1,E2,E3,E4 領域、A1 注目画素、B1,B2,B3,B4,B5,B6,B7,B8 周囲画素。
【技術分野】
【0001】
本発明は、画像処理装置、画像処理装置の制御方法、及びプログラムに関する。
【背景技術】
【0002】
ゲームキャラクタ等の各種オブジェクトが配置された仮想3次元空間を、所与の視点から見た様子を表示する画像処理装置が知られている。特許文献1には、雪や雨が降っている様子等を画面に表示させる際の処理負荷を軽減するための技術が記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007−082859号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記のような画像処理装置においては、視点に近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させると、画面に遠近感が表現される。遠近感を表現する方法として、例えば、オブジェクトをぼかさない画像と、オブジェクトをぼかした画像と、を各画素の奥行き情報に応じた割合で合成する手法が考えられる。この場合、奥行きがある画素ほど、オブジェクトをぼかした画像の割合が多くなるようにする。即ち、視点から離れたオブジェクトほど、画面には、ぼかされて表示される。
【0005】
しかしながら、例えば、多数の精密なオブジェクトが仮想3次元空間に配置されると、仮想3次元空間に含まれるポリゴン数の増加に起因して、奥行き情報の作成処理は複雑になる。つまり、遠近感を表現した画面を表示する際に、画像処理装置の処理負荷が増大する可能性がある。
【0006】
本発明は、上記課題に鑑みてなされたものであって、その目的とするところは、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能な画像処理装置、画像処理装置の制御方法、及びプログラムを提供することである。
【課題を解決するための手段】
【0007】
上記課題を解決するために、本発明に係る画像処理装置は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、を含むことを特徴とする。
【0008】
また、本発明に係る画像処理装置の制御方法は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置の制御方法であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、を含むことを特徴とする。
【0009】
また、本発明に係るプログラムは、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、として前記コンピュータを機能させることを特徴とする。
【0010】
本発明によれば、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能になる。
【0011】
また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが取り除かれた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。
【0012】
また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との距離が所定値以上の前記所定のオブジェクトが取り除かれたものであることを特徴とする。
【0013】
また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。
【0014】
また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との奥行きが所定値以上の前記所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものであることを特徴とする。
【0015】
また、本発明の一態様では、前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって前記第2画像を作成することを特徴とする。
【0016】
また、本発明の一態様では、前記第1の仮想3次元空間は、少なくともキャラクタオブジェクトと、スポーツの会場を表すオブジェクトが配置されたスポーツゲームの空間であって、前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。
【図面の簡単な説明】
【0017】
【図1】本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。
【図2】第1の仮想3次元空間の一例を示す図である。
【図3】実施形態1に係るゲーム装置に実現される機能群を示す機能ブロック図である。
【図4A】第1画像の一例を示す図である。
【図4B】第2画像の一例を示す図である。
【図4C】表示制御部が表示させる画像の一例を示す図である。
【図5】第2の仮想3次元空間の一例を示す図である。
【図6】奥行き情報の一例を示す図である。
【図7】ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。
【図8A】奥行き情報の一例である。
【図8B】奥行き情報の一例である。
【図9】実施形態2における第1の仮想3次元空間の一例を示す。
【図10】実施形態2における第2の仮想3次元空間の一例を示す図である。
【図11】実施形態2における奥行き情報の一例を示す図である。
【図12】ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。
【図13A】第1画像の一例を示す図である。
【図13B】第2画像作成部の取得部が取得する画像の一例を示す図である。
【図14】ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。
【図15】注目画素と周囲画素との関係を説明するための図である。
【図16】変形例における第2の仮想3次元空間を説明するための図である。
【発明を実施するための形態】
【0018】
[1.実施形態1]
以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば、家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、実施形態1に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。
【0019】
[1−1.ゲーム装置のハードウェア構成]
図1は、本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。図1に示すように、ゲーム装置10においては、家庭用ゲーム機11に情報記憶媒体である光ディスク25及びメモリカード28が装着される。また、ゲーム装置10には、表示部18及び音声出力部22が接続される。例えば、表示部18には家庭用テレビ受像機が用いられ、音声出力部22にはその内蔵スピーカが用いられる。
【0020】
家庭用ゲーム機11は、バス12、マイクロプロセッサ14、画像処理部16、音声処理部20、光ディスク再生部24、主記憶26、入出力処理部30及びコントローラ32を含んで構成される公知のコンピュータゲームシステムである。コントローラ32以外の構成要素は筐体内に収容される。
【0021】
バス12は、アドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、画像処理部16、主記憶26及び入出力処理部30は、バス12によって相互データ通信可能に接続される。
【0022】
マイクロプロセッサ14は、図示しないROMに格納されるオペレーティングシステム、光ディスク25から読み出されるプログラムや、メモリカード28から読み出されるデータに基づいて、家庭用ゲーム機11の各部を制御する。
【0023】
主記憶26は、例えばRAMを含んで構成されるものであり、光ディスク25から読み出されたプログラムやメモリカード28から読み出されたデータが必要に応じて書き込まれる。主記憶26は、マイクロプロセッサ14の作業用メモリとしても用いられる。
【0024】
画像処理部16は、VRAMを含んで構成される。画像処理部16は、マイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。画像処理部16は、この内容をビデオ信号に変換して所定のタイミングで表示部18に出力する。
【0025】
入出力処理部30は、マイクロプロセッサ14が音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32にアクセスするためのインタフェースである。入出力処理部30には、音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32が接続される。
【0026】
音声処理部20はサウンドバッファを含んで構成される。音声処理部20は、光ディスク25から読み出されてサウンドバッファに記憶されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データを音声出力部22から出力する。
【0027】
光ディスク再生部24は、マイクロプロセッサ14からの指示に従って光ディスク25に記録されたプログラムを読み取る。なお、ここではプログラムを家庭用ゲーム機11に供給するために光ディスク25を用いることとするが、CD−ROMやROMカード等、他のあらゆる情報記憶媒体を用いるようにしてもよい。また、インターネット等のデータ通信網を介して遠隔地からプログラムを家庭用ゲーム機11に供給するようにしてもよい。
【0028】
メモリカード28は、不揮発性メモリ(例えばEEPROM等)を含んで構成される。家庭用ゲーム機11は、メモリカード28を装着するための複数のメモリカードスロットを備えており、複数のメモリカード28を同時に装着可能となっている。メモリカード28は、このメモリカードスロットに対して脱着可能に構成され、例えば、セーブデータなどの各種ゲームデータを記憶させるために用いられる。
【0029】
コントローラ32は、プレイヤが各種ゲーム操作の入力をするためのものである。入出力処理部30は、一定周期毎(例えば1/60秒毎)にコントローラ32の各部の状態をスキャンする。このスキャン結果を表す操作信号は、バス12を介してマイクロプロセッサ14に入力される。
【0030】
マイクロプロセッサ14は、コントローラ32からの操作信号に基づいてプレイヤのゲーム操作を判定する。家庭用ゲーム機11は、複数のコントローラ32を接続可能に構成されている。つまり、家庭用ゲーム機11は、各コントローラ32から入力される操作信号に基づいて、マイクロプロセッサ14がゲーム制御を行うようになっている。
【0031】
[1−2.第1の仮想3次元空間]
ゲーム装置10では、例えば、プレイヤが操作する選手がサッカーの試合を行うサッカーゲームが実行される。このサッカーゲームは、マイクロプロセッサ14が、光ディスク25から読み出したプログラムを実行することによって実現される。
【0032】
ゲーム装置10において、サッカーゲームが実行されると、主記憶26には、このゲームに対応する仮想3次元空間が構築される。以降では、この仮想3次元空間を第1の仮想3次元空間40という。
【0033】
図2は、第1の仮想3次元空間40の一例を示す図である。図2に示すように、第1の仮想3次元空間40には、互いに直交するXw軸、Yw軸、及びZw軸が設定される。第1の仮想3次元空間40に配置される各オブジェクトの位置は、これらの座標軸のワールド座標値(ワールド座標系の座標値)により特定される。
【0034】
第1の仮想3次元空間40に配置される各オブジェクトの形状は、ポリゴンによって表現される。例えば、第1の仮想3次元空間40のオブジェクトの表面が、微小な三角形のポリゴンに分割される。オブジェクトが多数化又は精密化するほど、ポリゴンの数は増加するため、ゲーム画面を表示する際のゲーム装置10の処理負荷は増大する。
【0035】
表示部18にゲーム画面が表示される際には、後述する仮想カメラ52の視野に含まれるポリゴンの頂点を示す3次元座標に基づいて画像が作成される。例えば、ポリゴンの頂点を示す3次元座標は、後述するゲームデータ記憶部60に記憶されていてもよいし、所定の計算式に基づいて算出されてもよい。
【0036】
また、例えば、ゲームデータ記憶部60に記憶されたオブジェクトの色情報に基づいて、ゲーム画面の各画素に表示すべき色が特定される。例えば、選手のユニフォームの色等が特定される。なお、ゲーム画面の表示方法はこれに限られず、例えば、上記の色情報を図示しないROMにデータベース化し、これを読み出すことにより表示させるようにしてもよい。
【0037】
図2に示すように、第1の仮想3次元空間40には、サッカーが行われるグラウンドを表すフィールドオブジェクト42が配置される。フィールドオブジェクト42は、例えば、Xw−Zw平面に平行に配置される。
【0038】
フィールドオブジェクト42の四方を囲むように、スタジアムオブジェクト44a,44b,44c,44d(以降、これらを総じて、単にスタジアムオブジェクト44という)が配置される。スタジアムオブジェクト44には、例えば、観客や看板を表すオブジェクト等が含まれていてもよい。
【0039】
フィールドオブジェクト42上には、サッカーゴールを表すゴールオブジェクト46、選手を表すキャラクタオブジェクト48、サッカーボールを表すボールオブジェクト50等が配置される。つまり、第1の仮想3次元空間40には、サッカーの試合会場が形成される。
【0040】
なお、フィールドオブジェクト42上のピッチ外の領域に、看板を表すオブジェクト等が配置されるようにしてもよい。ピッチとは、フィールドオブジェクト42の領域のうち、ゴールラインとタッチラインとに囲まれる領域のことである。
【0041】
第1の仮想3次元空間40には、複数のキャラクタオブジェクト48が配置される。即ち、一方のチームに所属する11体のキャラクタオブジェクト48と、他方のチームに所属する11体のキャラクタオブジェクト48とが配置される。
【0042】
プレイヤが一方のチームを操作する場合、このチームに所属するキャラクタオブジェクト48の何れか一つが、コントローラ32からの入力により、プレイヤの操作に供される。キャラクタオブジェクト48やボールオブジェクト50は、ゲーム状況に応じて第1の仮想3次元空間40内を移動する。
【0043】
また、第1の仮想3次元空間40には、仮想カメラ52(視点)が設定される。ゲーム装置10は、仮想カメラ52から第1の仮想3次元空間40を見た様子を表すゲーム画面を表示部18に表示する。つまり、仮想カメラ52に対応する視野に含まれる各オブジェクトが、ゲーム画面として表示部18に表示される。
【0044】
仮想カメラ52の視野は、例えば、仮想カメラ52の位置座標、仮想カメラ52の視線方向を示す視線ベクトル、仮想カメラ52の視野角、及びゲーム画面のアスペクト比等によって決定される。これらの値は、主記憶26に記憶され、ゲームの状況に応じて適宜変更される。
【0045】
表示部18に表示されるゲーム画面は、例えば、後述するゲームデータ記憶部60に基づいて作成される。具体的には、仮想カメラ52の視野内に配置された各オブジェクトの位置座標(ワールド座標)が、所定の行列計算に基づいてゲーム画面に対応する2次元座標(スクリーン座標)に変換される。即ち、各ポリゴンの頂点を示す座標が、2次元座標に変換される。この2次元座標は、オブジェクトを表示すべきゲーム画面上の位置を特定するための情報である。
【0046】
表示部18に表示されるゲーム画面は、所定時間毎(例えば1/60秒毎)に表示が更新される。ゲーム画面には、互いに直行するXs軸、Ys軸が設定される。例えば、ゲーム画面の左上を原点O(0,0)とし、各画素に対応する座標が割り当てられる。即ち、仮想カメラ52の視野内に配置されたオブジェクトに対応する2次元座標は、ゲーム画面に対応する領域内の座標となる。
【0047】
[1−3.ゲーム装置で実現される機能]
図3は、ゲーム装置10において実現される機能群を示す機能ブロック図である。図3に示すように、ゲーム装置10では、ゲームデータ記憶部60、第1画像作成部62、第2画像作成部64、奥行き情報取得部66、及び表示制御部68が実現される。これらの機能は、マイクロプロセッサ14が光ディスク25から読み出されたプログラムに従って動作することにより、実現される。
【0048】
[1−3−1.ゲームデータ記憶部]
ゲームデータ記憶部60は、主記憶26及び光ディスク25を主として実現される。ゲームデータ記憶部60は、ゲームに必要な各種データを記憶する。本実施形態の場合、ゲームデータ記憶部60は、第1の仮想3次元空間40の現在の状況を示すゲーム状況データ等を記憶する。
【0049】
図2に示す第1の仮想3次元空間40は、ゲーム状況データに基づいて主記憶26に構築される。ゲーム状況データには、例えば、各オブジェクトを配置すべき3次元座標、このオブジェクトに対応するポリゴンの頂点を示す情報、仮想カメラ52の3次元座標、オブジェクトの色等のゲーム画面の色彩に関する色情報が格納される。
【0050】
また、ゲーム状況データには、仮想カメラ52の視野に関する各種情報が格納される。即ち、ゲーム状況データには、仮想カメラ52の視線ベクトル、視野角、ゲーム画面のアスペクト比等が格納される。ゲーム状況データに格納される値は、ゲームの状況に応じて適宜更新される。
【0051】
[1−3−2.第1画像作成部]
第1画像作成部62は、マイクロプロセッサ14を主として実現される。第1画像作成部62は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表す第1画像を作成する。第1画像は、例えば、ゲームデータ記憶部60が参照されることにより作成される。つまり、第1画像は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、オブジェクトに対応する色が付された画像である。
【0052】
図4Aは、第1画像の一例を示す図である。第1画像は、第1の仮想3次元空間40を仮想カメラ52から見た様子が表され、図4Aに示すように、仮想カメラ52の視野に含まれる各オブジェクトに所定の色がそのまま付された状態の画像が作成される。
【0053】
[1−3−3.第2画像作成部]
第2画像作成部64は、マイクロプロセッサ14を主として実現される。第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表し、ぼかし処理が施された第2画像を作成する。ぼかし処理とは、第1の仮想3次元空間40に配置された各オブジェクトの色をぼかすための処理である。ぼかし処理としては、一般的なぼかし処理を用いることができる。
【0054】
図4Bは、第2画像の一例を示す図である。図4Bでは、ぼかし処理が施されたオブジェクトを、模式的に点線で示している。即ち、第2画像は、図4Aに示す第1画像に比べて、各オブジェクトの輪郭や内部の領域の色がぼかされたものになる。
【0055】
第2画像は、例えば、第1画像と同様に、ゲームデータ記憶部60が参照されることにより作成される。ゲームデータ記憶部60に記憶された各オブジェクトの色にぼかし処理が施される点で、第2画像は第1画像と異なる。
【0056】
第2画像は、任意の方法に基づいて、仮想カメラ52の視野に含まれるオブジェクトに対応するぼかし処理が施されて作成されればよい。例えば、第2画像は、第1画像に基づいて生成される。
【0057】
より具体的には、まず、第1画像が複製されて主記憶26に記憶される。この複製された第1画像に対応する1つの画素の画素値を、この画素を囲む周囲の8つの画素値の平均値に変更することにより、ぼかし処理を行って、第2画像とするようにしてもよい。他にも、複製された第1画像に対応する1つの画素の画素値を、この画素の上下左右の4つの画素の色を混合した値とするようにしてもよい。
【0058】
[1−3−4.奥行き情報取得部]
奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。第2の仮想3次元空間40’については後述する。以下、奥行き情報取得部66が取得する奥行き情報を、第2の仮想3次元空間40’に対応する奥行き情報という。
【0059】
奥行き情報とは、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトの部分とを結ぶ直線の距離、即ち視点方向の距離のことをいう。奥行き情報は、図示しないROM等に記憶されたプログラマブルシェーダ等によって作成されて、主記憶26に記憶される。奥行き情報が作成されるタイミングは任意であってよく、例えば、表示部18に表示されるゲーム画面の更新タイミングで作成される。
【0060】
奥行き情報は、例えば、8ビットのグレースケールの画像で表現されて主記憶26等に記憶される。本実施形態では、視点に最も近い画素の画素値を255(白を表す)とし、最も遠い画素の画素値を0(黒を表す)とする。即ち、視点からの距離に応じて画素値が0〜255の間で表現される。なお、奥行き情報の作成方法はこれに限られず、公知の種々の方法を適用可能とする。
【0061】
[第2の仮想3次元空間]
上記のように、奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得する。本実施形態においては、ゲーム装置10は、第1の仮想3次元空間40に含まれるオブジェクトのうち、所定のオブジェクトを取り除くことにより、ポリゴンの数を削減する。
【0062】
図5は、第2の仮想3次元空間40’を示す図である。図5に示すように、例えば、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50が取り除かれる。つまり、第2の仮想3次元空間40’においては、第1の仮想3次元空間40に比べて、これらの取り除かれたオブジェクトに含まれるポリゴンの数の総和分のポリゴンの数が削減される。取り除かれるオブジェクトは、予め定められていてよい。
【0063】
なお、図5に示すように、スタジアムオブジェクト44の形状は、簡略化されてもよい。例えば、スタジアムオブジェクト44を構成する面が、Yw軸方向と平行になるように簡略化される。以降では、これをスタジアムオブジェクト44’という。
【0064】
スタジアムオブジェクト44’に含まれるポリゴンの数は、スタジアムオブジェクト44に比べて少ない。第2の仮想3次元空間40’では、スタジアムオブジェクト44がスタジアムオブジェクト44’に置き換えられている。スタジアムオブジェクト44’は、スタジアムオブジェクト44の位置に対応する位置に配置される。
【0065】
第2の仮想3次元空間40’は、フィールドオブジェクト42’の四方を囲むように、スタジアムオブジェクト44a’,44b',44c’,44d’が含まれる。フィールドオブジェクト42’とスタジアムオブジェクト44’により、第2の仮想3次元空間40’は、図5に示すように、ほぼ箱形状となる。
【0066】
また、第2の仮想3次元空間40’には、仮想カメラ52’(視点)が配置される。本実施形態においては、仮想カメラ52と仮想カメラ52’の3次元座標は、同一であるものとする。奥行き情報取得部66は、以上説明した第2の仮想3次元空間40’に基づいて奥行き情報を取得する。
【0067】
図6は、奥行き情報の一例を示す図である。図6に示す例は、図5に示す第2の仮想3次元空間40’に対応する奥行き情報である。即ち、第1の仮想3次元空間40のうち、フィールドオブジェクト42と簡略化されたスタジアムオブジェクト44のみが考慮されて、奥行き情報が作成される。図6の例では、仮想的に、奥行き情報を4段階(図6の領域E1〜領域E4)とする。
【0068】
図6に示すように、仮想カメラ52’との距離が近い画素の領域E1は白く(網かけがない領域)、仮想カメラ52’との距離が遠い画素の領域E4は黒く(網かけがある領域)表現される。領域E1と領域E4の間にある領域E2と領域E3は、それぞれ仮想カメラ52’からの距離に応じて濃淡が決定される。つまり、仮想カメラ52’からの距離が画素値によって表現される。
【0069】
なお、奥行き情報は、第2の仮想3次元空間40’に対応する奥行きが表現されればよく、奥行き情報のデータ構成の例は、これに限られない。例えば、図6のようなグレースケールの画像ではなく、RGBカラーモデルによって表現される画像であってもよいし、各画素の座標と距離を示す値とがデータテーブルに対応付けられて主記憶26に記憶されるようにしてもよい。
【0070】
[1−3−5.表示制御部]
表示制御部68は、マイクロプロセッサ14及び画像処理部16を主として実現される。表示制御部68は、第1画像と第2画像の各画素の合成の割合を奥行き情報に基づいて決定し、第1画像と第2画像が合成された画面を表示部18に表示させる。
【0071】
図4Cは、表示制御部68が表示させる画像の一例を示す図である。図4Cの例では、図4Bと同様に、ぼかし処理が施されたオブジェクトを模式的に点線で示している。また、点線が細かいほど、オブジェクトの色がぼかされていることを示している。
【0072】
表示制御部68が、第1画像と第2画像が合成された画像を表示させることにより、視点から近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させることができる。
【0073】
表示制御部68が第1画像と第2画像を合成させる方法は、例えば、いわゆるアルファ値(半透明合成率,透過度)を使用した半透明合成を用いる。アルファ値を0〜1の実数とすると、ゲーム画面のある画素(座標を(Xs,Ys)とする)の画素値は、「(1−アルファ値)×第1画像の座標(Xs,Ys)の画素値+アルファ値×第2画像の座標(Xs,Ys)の画素値」等のように算出される。
【0074】
なお、本実施形態では、奥行き情報取得部66によって取得された奥行き情報(図6参照)における画素(Xs,Ys)の奥行き情報の値を、第1画素及び第2画像の画素(Xs、Ys)の奥行き情報の値とみなし、第1画像及び第2画像の画素(Xs,Ys)のアルファ値が算出される。
【0075】
つまり、アルファ値は、奥行き情報に基づいて決定される。本実施形態においては、奥行きが大きい画素ほど、アルファ値が大きくなる。つまり、視点との距離が離れるほど、ぼかしの程度が大きくなる。一方、奥行きが小さい画素ほど、アルファ値が小さくなる。つまり、視点との距離が近いほど、ぼかしの程度が小さくなる。
【0076】
なお、第1画像と第2画像の各画素の合成の割合が奥行き情報に基づいて決定されればよく、画像の合成方法は、これに限られない。画像の合成方法は、公知の任意の手法を適用可能とする。
【0077】
[1−4.ゲーム装置にて実行される処理]
図7は、ゲーム装置10において所定時間毎(例えば、1/60秒毎)に実行される処理の一例を示すフロー図である。図7の処理は、マイクロプロセッサ14が、光ディスク25から読み出されたプログラムに従って動作することにより実行される。
【0078】
図7に示すように、まず、マイクロプロセッサ14(第1画像作成部62)は、主記憶26に記憶されたゲームデータ記憶部60を参照し、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す第1画像を作成する(S101)。S101において作成される第1画像(図4A参照)は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、各オブジェクトの色がそのまま表された画像である。
【0079】
マイクロプロセッサ14(第2画像作成部64)は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表し、ぼかし処理が施された第2画像を作成する(S102)。S102において作成される第2画像(図4B参照)は、例えば、第1画像に対して所定のぼかし処理が施された画像である。
【0080】
マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S103)。本実施形態においては、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50を取り除いた第2の仮想3次元空間40’に対応する奥行き情報が取得される。この奥行き情報は、先述のように、例えば、プログラマブルシェーダ等によって、ゲーム画面の表示タイミングが訪れる毎に作成されて主記憶26等に記憶されている。
【0081】
マイクロプロセッサ14(表示制御部68)は、奥行き情報に基づいて各画素の半透明合成の割合を決定する(S104)。S104において決定された割合は、例えばアルファ値であり、画素の位置座標と対応付けられて主記憶26に記憶される。
【0082】
S104においては、例えば、奥行き情報に対応する画像(図6)の画素値に基づいて半透明合成の割合が決定される。より具体的には、表示制御部68が、ある画素の画素値を「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」として算出することによりゲーム画面を表示させる場合、S304においては、アルファ値=第2画像の最大アルファ値(例えば0.95)*(1−奥行き情報の画素値/255)となるように算出される。
【0083】
このように半透明合成の割合を定めることにより、奥行き情報に応じた割合を画素毎に決定することができる。上記の例では、仮想カメラ52に近い画素ほどアルファ値が小さくなるので、第2画像の割合を小さくすることができる。即ち、仮想カメラ52に近い画素ほどオブジェクトのぼかし具合が少なくなる。
【0084】
なお、S304においては、奥行き情報に基づいて半透明合成の割合が決定されればよく、半透明合成の割合の決定方法は、これに限られない。例えば、奥行き情報と半透明合成の割合が対応付けられたデータテーブルを用意しておいてもよいし、所定の計算式に奥行き情報を代入して半透明合成の割合が算出されるようにしてもよい。
【0085】
マイクロプロセッサ14は(表示制御部68)、第1画像と第2画像とを合成して表示部18に表示させる(S105)。例えば、S104において決定された半透明合成の割合に基づいて第1画像(図4A)と第2画像(図4B)とが合成された合成画像(図4C)が、表示部18に表示される。即ち、ある画素の画素値が、「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」となる合成画像が表示される。
【0086】
[1−5.実施形態1のまとめ]
以上説明した実施形態1に係るゲーム装置10は、第2の仮想3次元空間40’に対応する奥行き情報に基づいて、第1画像と第2画像の半透明合成の割合を決定して、この割合に基づいて第1画像と第2画像を合成して表示部18に表示させる。実施形態1におけるゲーム装置10によれば、仮想カメラ52に近いオブジェクトを鮮明に表示させ、遠いオブジェクトをぼかして表示させることができ、遠近感の表現を実現することができる。
【0087】
また、ゲーム装置10によれば、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得して、遠近感の表現を実現することができる。ゲーム装置10によれば、例えば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べて、ゲーム装置10の処理負荷を軽減することができる。
【0088】
より具体的には、例えば、仮想カメラ52の視野内に多数のオブジェクトが含まれている場合、これらのオブジェクトの全てを考慮して奥行き情報を作成する際に、ポリゴン数の増加に起因してゲーム装置10に処理負荷がかかる。しかし、視野内に多数のオブジェクトが含まれている場合には、ゲーム画面に表示されるオブジェクトは比較的小さいことが多い。
【0089】
したがって、オブジェクトを取り除いて作成された奥行き情報と、オブジェクトを全て考慮に入れて作成された奥行き情報と、の間には、例えば、オブジェクトがゲーム画面にズームされて表示されている場合等に比べて、データ内容の差異が比較的少ない。即ち、本実施形態のように、第2の仮想3次元空間40’に基づいて取得される奥行き情報に基づいて第1画像と第2画像を合成しても遠近感を表現でき、かつ、処理負荷の軽減を実現することができる。
【0090】
なお、本発明は、以上説明した実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、本実施形態では家庭用ゲーム機を例に挙げて説明したが、ゲームセンター等に設置されるアーケード型ゲーム機であってもよい。
【0091】
また、本実施形態においては、第2の仮想3次元空間40’に含まれるオブジェクトを、フィールドオブジェクト42’及びスタジアムオブジェクト44’としたが、第1の仮想3次元空間40に配置されるオブジェクトのうち、予め定められたオブジェクトが含まれるようにすればよい。つまり、第1の仮想3次元空間40から取り除かれるオブジェクトは、本実施形態の例に限られない。
【0092】
また、ほぼ箱形状の第2の仮想3次元空間40’(図5)を例に挙げて説明したが、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴン数が削減されたものであればよく、フィールドオブジェクト42’を、傾斜するスタジアムオブジェクト44’で囲むようにしてもよい。即ち、すり鉢状の第2の仮想3次元空間40’となるようにしてもよい。
【0093】
また、図7に示す処理は所定間隔で実行されるように説明したが、図7の処理が実行されるための条件を設けてもよい。例えば、仮想カメラ52との距離が近いオブジェクトはゲーム画面内における上記オブジェクトの占める領域が大きい。このオブジェクトが占める領域は、様々な奥行き情報の値を取る領域をまたがるため、この領域内の奥行き情報の誤差が大きくなる。即ち、オブジェクトが部分的にぼかされて表示される。このような状況では、図7の処理が実行されないようにしてもよい。
【0094】
例えば、仮想カメラ52の位置がフィールドオブジェクト42から所定距離以上離れた場合には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が小さくなり、この領域内での奥行き情報の誤差が小さいため、部分的にぼかされて表示されるオブジェクトがない。また例えば、ボールオブジェクト50が所定の高さ以上の位置に配置されたときに、このボールオブジェクト50の動きに仮想カメラ52が従動して、仮想カメラ52の位置がフィールドオブジェクト42から離れることがある。このような場合にも、上記と同様に、部分的にぼかされて表示されるオブジェクトがない。これらの所定の場合にのみ、図7の処理が実行されるようにしてもよい。
【0095】
一方、キャラクタオブジェクト48と仮想カメラ52との距離が所定値以内である場合(つまりズームインする場合)には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が大きくなり、この領域内での奥行き情報の誤差が大きくなるため、部分的にぼかされて表示されるオブジェクトがある。このような場合には、図7に示す処理が行われなくてもよい。
【0096】
[2.実施形態2]
以下、実施形態2について説明する。実施形態1においては、第1の仮想3次元空間40から所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報が作成されていた。
【0097】
しかしながら、第1の仮想3次元空間40から取り除くオブジェクトを予め定めておいた場合には、ゲーム状況に応じた画面表示処理ができない可能性がある。例えば、仮想カメラ52とキャラクタオブジェクト48が接近した場合には、第1画像と第2画像とを合成するための奥行き情報が正確に取得されない可能性がある。
【0098】
図8Aは、仮想カメラ52とキャラクタオブジェクト48が接近した場合における第1の仮想3次元空間40に基づいて取得される奥行き情報の一例である。図8Aに示す例では、図6と同様に、奥行き情報を仮想的に4段階(領域E1〜領域E4)とする。キャラクタオブジェクト48が表示される画素は、仮想カメラ52に接近しているので、領域E1に含まれる。他の領域E2〜領域E4は、図6と同様であるので説明を省略する。
【0099】
図8Bは、仮想カメラ52とキャラクタオブジェクト48が接近した場合において、実施形態1のゲーム装置10で取得される奥行き情報の一例である。図8Bに示す例では、図8Aにおいてキャラクタオブジェクト48が配置されていた領域を点線で示している。
【0100】
図8に示すように、キャラクタオブジェクト48が領域E1〜領域E4にまたがって配置されており、本来、領域E1として表現されるべき画素が、領域E2〜領域E4でも表現される。即ち、奥行き情報に誤差が生じる。仮想カメラ52とキャラクタオブジェクト48が接近すればするほど、キャラクタオブジェクト48の領域は大きくなるので、この誤差が生じる画素数が多くなる。この際に実施形態1の処理をそのまま適用した場合、第1画像と第2画像とを合成した際に、キャラクタオブジェクト48の足元が鮮明に表示されているにも関わらず、頭だけぼかされて表示されてしまう。
【0101】
上記のことを防止するために、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトにおける所定のオブジェクトのうち、仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点に特徴がある。
【0102】
なお、実施形態2に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。また、実施形態2に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。
【0103】
図9は、実施形態2における第1の仮想3次元空間40の一例を示す図である。図9では、フィールドオブジェクト42上に配置されるキャラクタオブジェクト48をキャラクタオブジェクト48a,48b,48cとする。
【0104】
仮想カメラ52は、キャラクタオブジェクト48aの背後に配置される。図9の例では、仮想カメラ52とキャラクタオブジェクト48aとの距離は所定値未満であり、仮想カメラ52とキャラクタオブジェクト48b及びキャラクタオブジェクト48cとの距離やゴールオブジェクト46等の他のオブジェクトとの距離は、所定値以上である。他のオブジェクトについては、図2と同様であるので、説明を省略する。
【0105】
[2−1.第2の仮想3次元空間]
先述のように、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点で実施形態1と異なる。
【0106】
図10は、実施形態2における第2の仮想3次元空間40’を示す図である。図10の例では、図9に示す第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のキャラクタオブジェクト48aが存在した場合を示す。
【0107】
実施形態2の第2の仮想3次元空間40’では、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれるので、図10に示すように、キャラクタオブジェクト48は取り除かれずに配置される。これをキャラクタオブジェクト48a’とする。つまり、第2の仮想3次元空間40’には、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’が配置される。
【0108】
奥行き情報取得部66は、実施形態1と同様に、第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。
【0109】
奥行き情報とは、実施形態1と同様に、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトとを結ぶ直線の距離、即ち視点方向の距離のことをいう。
【0110】
図11は、実施形態2における奥行き情報の一例を示す図である。図11の例は、図10の第2の仮想3次元空間40’に対応する奥行き情報を示す。即ち、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’のそれぞれと、仮想カメラ52’と、の奥行きを示す奥行き情報が作成される。この例では、図6と同様に仮想的に奥行き情報を4段階(図11の領域E1〜領域E4)とする。
【0111】
つまり、実施形態2における奥行き情報は、キャラクタオブジェクト48a’が考慮される点で実施形態1における奥行き情報(図6)とは異なる。図11に示す例では、キャラクタオブジェクト48a’に対応する領域は、仮想カメラ52’との距離が最も近い領域E1となっている。他の領域E2〜領域E4については、実施形態1と同様である。
【0112】
[2−2.ゲーム装置にて実行される処理]
図12に示す処理は、実施形態1における図6に示す処理に対応している。つまり、図12に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
【0113】
図12に示すように、S201,S202は、それぞれS101,S102と同様であるので、説明を省略する。
【0114】
マイクロプロセッサ14は、第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のオブジェクトが配置されているか否かを判断する(S203)。具体的には、例えば、ゲームデータ記憶部60に記憶された各オブジェクトの位置座標と、仮想カメラ52の位置座標と、の距離が予め定められた所定値以上であるか否かによって判断される。この所定値は、予め光ディスク25等に記憶されている。
【0115】
なお、S203においては、仮想カメラ52と各オブジェクトとの位置関係に基づいて判断されればよく、S203の判断方法は、これに限られない。他にも、例えば、第1の仮想3次元空間40に配置される各オブジェクトに対応するポリゴンのうち、最も仮想カメラ52から近いポリゴンとの距離が、所定値以上であるか否かによって判断されるようにしてもよい。
【0116】
奥行きが所定値未満のオブジェクトが配置されている場合(S203;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S204)。
【0117】
S204においては、S103と同様の処理が行われることにより奥行き情報が取得される。S204において取得される奥行き情報は、奥行きが所定値未満のオブジェクトが含まれた状態の奥行き情報となる。つまり、図11の例のように、キャラクタオブジェクト48a’が含まれた状態の奥行き情報となる。
【0118】
奥行き情報が所定値未満のオブジェクトが配置されていない場合(S203;N)、マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S205)。S205においては、S103と同様に、図5に示すような第2の仮想3次元空間40’に対応する奥行き情報が取得される。
【0119】
S206,S207は、それぞれS104,S105と同様であるので、説明を省略する。
【0120】
[2−3.実施形態2のまとめ]
以上説明した実施形態2に係るゲーム装置10は、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報を取得する。実施形態2におけるゲーム装置10によれば、仮想カメラ52に接近したオブジェクトがあった場合でも、そのオブジェクトが部分的にぼかされて表示されることを防止しつつ、ゲーム画面に遠近感を表現させることができる。
【0121】
即ち、実施形態2に係るゲーム装置によれば、例えば、上記説明したように、奥行き情報に誤差が生じる状況を回避することができるので、所定のオブジェクトと視点が接近した場合であっても、処理負荷を軽減しつつ、ゲーム状況に応じて遠近感を表現させることができる。
【0122】
[3.実施形態3]
以下、実施形態3について説明する。実施形態2においては、視点との距離が所定値未満のオブジェクトを考慮して奥行き情報を作成していた。
【0123】
しかしながら、例えば、図11のように奥行き情報を作成した場合、キャラクタオブジェクト48a’の頭部の画素は領域E1であるが、周囲の画素は領域E3又は領域E4であるので、これらの画素の間には、奥行き情報の値に差がある。即ち、表示制御部68が決定する割合に差がでるため、キャラクタオブジェクト48aの頭部は鮮明に表示されるが、この周囲の画素はぼかされて表示される。
【0124】
第2画像を作成する際には、周囲の画素にぼかし処理が施される。例えば、キャラクタオブジェクト48aの輪郭の周囲の画素(つまり、ぼかし処理が施される画素)は、この周囲の画素の色(フィールドオブジェクト42の芝生の色等)と、キャラクタオブジェクト48aのユニフォームや頭髪の色等と、が混合される。キャラクタオブジェクト48aの色が、選手の輪郭の外にはみ出して滲んで表現されてしまう可能性がある。即ち、キャラクタオブジェクト48a’の輪郭がちらついて見えづらくなってしまう可能性がある。
【0125】
上記のことを防止するために、実施形態3は、上記のような奥行き情報の差を有するオブジェクトに基づく所定領域の周囲の色を変更する点に特徴がある。
【0126】
なお、実施形態3に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。ただし、実施形態3の第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を示す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得部を含み、当該画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2とは異なる。
【0127】
また、実施形態3に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。実施形態3の第2の仮想3次元空間40’は、実施形態2と同様(図10参照)であるので説明を省略する。
【0128】
まず、実施形態3のゲーム装置10が作成する画像について説明する。
【0129】
図13Aは、第1画像作成部62が作成する第1画像の一例を示す図である。第1画像は、実施形態1と同様に、第1の仮想3次元空間40を仮想カメラ52から見た様子が表される。
【0130】
図13Bは、第2画像作成部64の取得部が取得する画像の一例を示す図である。図13Bは、図13Aに示すキャラクタオブジェクト48の頭部を構成する画素が、周囲画素と奥行きの差がある場合の例を示す。
【0131】
処理の詳細は後述するが、図13Bに示すように、周囲画素と奥行き情報の差を有する注目画素に基づく所定領域の周囲の色を変更する。例えば、キャラクタオブジェクト48の頭部の所定領域49の色が、周囲画素に対応する色に変更される。図13Bに示す例では、頭部の領域49aは、例えば、周囲画素に対応するスタジアムオブジェクト44の色に変更される。一方、頭部の領域49bは、例えば、周囲画素に対応するフィールドオブジェクト42の色に変更される。
【0132】
第2画像作成部64は、図13Bに示す画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2と異なる。ぼかし処理については、実施形態1及び実施形態2と同様であるので、第2画像の図示を省略する。
【0133】
第2画像は、奥行き差があるオブジェクトの周囲の所定領域の色が周囲画素の色によって塗りつぶされた画像がぼかされたものとなる。即ち、キャラクタオブジェクト48の輪郭に近い画素を、周囲画素の色とすることで、ぼかし処理のためにキャラクタオブジェクト48の色が外ににじみ出なくなるので、上記のように画面がちらつくことを防止することができる。
【0134】
[3−1.ゲーム装置にて実行される処理]
図14に示す処理は、実施形態1における図6及び実施形態2における図12に示す処理に対応している。つまり、図14に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
【0135】
図14に示すように、S301,S302は、それぞれS101,S203と同様であるので、説明を省略する。
【0136】
奥行きが所定値未満のオブジェクトが配置されている場合(S302;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S303)。S303は、S204と同様の処理である。
【0137】
次いで、マイクロプロセッサ14は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す画像に対応する任意の一画素(注目画素)と、この注目画素に隣接する複数の周囲画素の何れかと、の奥行きの差が基準値以上であるか否かを判定する(S304)。
【0138】
S304においては、S303で得られた奥行き情報(図11参照)の画素(Xs,Ys)の奥行き情報を、第1の仮想3次元空間40を仮想カメラ52から見た様子を示す画像の同位置の画素(Xs,Ys)の奥行き情報とみなして、S304の処理は実行される。
【0139】
図15は、注目画素と周囲画素との関係を説明するための図である。図15に示すように、例えば、注目画素A1の2次元座標を(Xs,Ys)とする。注目画素A1の奥行き情報の値を230とする。この注目画素A1の周囲を囲む8つの周囲画素を、周囲画素B1〜周囲画素B8とする。なお、奥行き情報は、S302で取得されている。
【0140】
周囲画素B1の2次元座標は、(Xs−1,Ys−1)である。周囲画素B1の奥行き情報の値を230とする。周囲画素B8の2次元座標は、(Xs+1,Ys+1)である。周囲画素B8の奥行き情報の値を46とする。同様に、周囲画素B2〜周囲画素B7の座標と奥行き情報は、図15に示す通りとする。
【0141】
S304においては、例えば、注目画素A1と、周囲画素B1〜周囲画素B8のそれぞれと、の奥行き情報の値の差が基準値以上であるものがあるか否かが判定される。例えば、基準値を100とすると、図15の例の場合、注目画素A1と奥行きの差が基準値以上である周囲画素は、周囲画素B4,B6,B7,B8の4つがある。即ち、注目画素A1は、周囲画素B1〜B8の何れかと、の奥行きの差が基準値以上であると判定される。
【0142】
注目画素と周囲画素との奥行きの差が基準値以上である場合(S304;Y)、マイクロプロセッサ14(第2画像作成部64、取得部)は、周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する(S305)。
【0143】
注目画素と周辺画素が図15に示す関係の場合、S305における注目画素に基づく所定領域は、例えば、注目画素を含むオブジェクト内部の領域となる。即ち、注目画素と、注目画素からの距離が基準距離以内である画素群のうちの、注目画素との奥行きの差が基準値未満であるような画素群と、を含むような領域となる。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の3つの画素から構成される。注目画素に基づく所定領域は、注目画素が含まれる領域であればよく、この領域の決定方法は、任意である。例えば、注目画素を中心とする半径が16ピクセルの円内の領域を、この所定領域としてもよい。
【0144】
注目画素に基づく所定領域の色が、周囲画素の色に基づいて変更される。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の色が、周囲画素B4,B6,B7,B8の色の平均値に変更される。S304とS305の処理は、画像に対応する全ての画素に対して実行される。つまり、周囲画素と奥行きの差が基準値以上である注目画素の全てに対して、S305の色の変更処理が行われる。
【0145】
なお、S305においては、周囲画素の色に基づいて注目画素に基づく所定領域の色が変更されればよく、色の変更方法は、上記の例に限られない。例えば、所定領域の色が、所定の計算式に基づいて算出されるようにしてもよい。
【0146】
図14に戻り、マイクロプロセッサ14(第2画像作成部64)は、S305において取得された画像にぼかし処理を施して第2画像を作成する(S306)。
【0147】
一方、注目画素と周囲画素との奥行きの差が基準値以上でない場合(S304;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に、第2画像を作成する(S307)。
【0148】
一方、奥行きが所定値未満のオブジェクトが配置されていない場合(S302;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に第2画像を作成する(S308)。続くS309は、S103と同様であるので説明を省略する。
【0149】
S310,S311は、それぞれS104,S105と同様であるので、説明を省略する。
【0150】
[3−2.実施形態3のまとめ]
以上説明した実施形態3に係るゲーム装置10は、注目画素と周囲画素との奥行きの差が基準値以上である場合、この周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する。実施形態3におけるゲーム装置10によれば、周囲と奥行きの差があるオブジェクトの色が変更され、このオブジェクトの色が外ににじみ出ないため、画素間に奥行き差がある場合に発生する画面のちらつきを防止することができる。
【0151】
[変形例]
実施形態1〜実施形態3においては、第1の仮想3次元空間40から所定のオブジェクトを取り除いて第2の仮想3次元空間40’とする例を挙げて説明した。第2の仮想3次元空間40’は、第1の仮想3次元空間40に含まれるポリゴンの数が削減されたものであればよく、第2の仮想3次元空間40’の様子は、図5又は図10を参照して説明した例に限られない。
【0152】
例えば、実施形態1〜実施形態3の変形例として、所定のオブジェクトの形状が簡略化されることにより、ポリゴンの数が削減されるようにしてもよい。この場合、奥行き情報取得部66は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該視点の視線方向の奥行きを示す奥行き情報を取得する。
【0153】
図16は、変形例における第2の仮想3次元空間40’を説明するための図である。図16に示すように、第2の仮想3次元空間40’は、第1の仮想3次元空間40のゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50が、例えば、ポリゴン数が少ない直方体のオブジェクトに置き換えられた仮想3次元空間となる。これにより、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴンの数が削減された仮想3次元空間になる。なお、この簡略化された形状は、ポリゴンの数が削減されればよく、直方体に限られず任意の形状とする。
【0154】
以上説明した変形例では、ポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報が取得される。即ち、より少ない数のポリゴンに基づいて奥行き情報を取得することができる。先述のように、ポリゴンの数が増加すると、奥行き情報の作成処理は複雑になる。変形例の手法によれば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べてポリゴンの数を削減できるので、処理負荷の軽減を図ることができる。
【0155】
この変形例を実施形態3に適用した場合、第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち視点との奥行きが所定値以上のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものとなる。即ち、視点と近いオブジェクトが、簡略化したオブジェクトに置き換えられる。
【0156】
なお、上記変形例では、形状を簡略化するオブジェクトを、ゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50としたが、所定のオブジェクトの形状が簡略化されればよい。例えば、フィールドオブジェクト42が起伏がある場合に、平坦になるようにフィールドオブジェクト42を簡略化してもよい。他にも、スタジアムオブジェクト44に看板のオブジェクト等が含まれる場合には、この看板のオブジェクトを省略することにより、形状を簡略化してもよい。
【0157】
なお、実施形態1〜実施形態3、及び変形例においては、本発明をゲーム装置に適用した例を挙げて説明したが、本発明に係る画像処理装置は、パーソナルコンピュータ等他の装置であってもよい。
【符号の説明】
【0158】
10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 マイクロプロセッサ、16 画像処理部、18 表示部、20 音声処理部、22 音声出力部、24 光ディスク再生部、25 光ディスク、26 主記憶、28 メモリカード、30 入出力処理部、32 コントローラ、40 第1の仮想3次元空間、40’ 第2の仮想3次元空間、42,42’ フィールドオブジェクト、44,44’,44a,44a’,44b,44b’,44c,44c’,44d,44d' スタジアムオブジェクト、46,46’ ゴールオブジェクト、48,48’,48a,48a’,48b,48c キャラクタオブジェクト、49 所定領域、49a,49b 領域、50,50’ ボールオブジェクト、52,52’ 仮想カメラ、60 ゲームデータ記憶部、62 第1画像作成部、64 第2画像作成部、66 奥行き情報取得部、68 表示制御部、E1,E2,E3,E4 領域、A1 注目画素、B1,B2,B3,B4,B5,B6,B7,B8 周囲画素。
【特許請求の範囲】
【請求項1】
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、
を含むことを特徴とする画像処理装置。
【請求項2】
前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが取り除かれた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との距離が所定値以上の前記所定のオブジェクトが取り除かれたものであることを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
【請求項5】
前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との奥行きが所定値以上の前記所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものであることを特徴とする請求項4に記載の画像処理装置。
【請求項6】
前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって前記第2画像を作成することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
【請求項7】
前記第1の仮想3次元空間は、少なくともキャラクタオブジェクトと、スポーツの会場を表すオブジェクトが配置されたスポーツゲームの空間であって、
前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1〜6の何れか一項に記載の画像処理装置。
【請求項8】
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置の制御方法であって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、
を含むことを特徴とする画像処理装置の制御方法。
【請求項9】
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、
として前記コンピュータを機能させることを特徴とするプログラム。
【請求項1】
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、
を含むことを特徴とする画像処理装置。
【請求項2】
前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが取り除かれた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との距離が所定値以上の前記所定のオブジェクトが取り除かれたものであることを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
【請求項5】
前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との奥行きが所定値以上の前記所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものであることを特徴とする請求項4に記載の画像処理装置。
【請求項6】
前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって前記第2画像を作成することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
【請求項7】
前記第1の仮想3次元空間は、少なくともキャラクタオブジェクトと、スポーツの会場を表すオブジェクトが配置されたスポーツゲームの空間であって、
前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1〜6の何れか一項に記載の画像処理装置。
【請求項8】
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置の制御方法であって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、
を含むことを特徴とする画像処理装置の制御方法。
【請求項9】
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、
として前記コンピュータを機能させることを特徴とするプログラム。
【図1】
【図2】
【図3】
【図4A】
【図4B】
【図4C】
【図5】
【図6】
【図7】
【図8A】
【図8B】
【図9】
【図10】
【図11】
【図12】
【図13A】
【図13B】
【図14】
【図15】
【図16】
【図2】
【図3】
【図4A】
【図4B】
【図4C】
【図5】
【図6】
【図7】
【図8A】
【図8B】
【図9】
【図10】
【図11】
【図12】
【図13A】
【図13B】
【図14】
【図15】
【図16】
【公開番号】特開2011−107816(P2011−107816A)
【公開日】平成23年6月2日(2011.6.2)
【国際特許分類】
【出願番号】特願2009−259729(P2009−259729)
【出願日】平成21年11月13日(2009.11.13)
【出願人】(506113602)株式会社コナミデジタルエンタテインメント (1,441)
【Fターム(参考)】
【公開日】平成23年6月2日(2011.6.2)
【国際特許分類】
【出願日】平成21年11月13日(2009.11.13)
【出願人】(506113602)株式会社コナミデジタルエンタテインメント (1,441)
【Fターム(参考)】
[ Back to top ]