説明

ユーザビリティ評価装置、方法及びプログラム

【課題】 画面上のコンテンツのレイアウトや操作対象オブジェクトのデザインなど、画面に表示された画像の、視覚的な特徴に対するユーザビリティの評価ができない。
【解決手段】 画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成手段を有する

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザビリティ評価装置、方法及びプログラムに関し、特に視覚的なユーザビリティを評価するユーザビリティ評価装置、方法及びプログラムに関する。
【背景技術】
【0002】
ユーザビリティを評価する技術として、非特許文献1に記載された関連技術がある。非特許文献1に記載されたユーザビリティの評価方法は、操作対象オブジェクト上に書かれている文字とユーザの操作目的の意味的類似度を算出する手段と、算出した意味的類似度を用いてユーザビリティの問題点を抽出する手段を備えている。ユーザの操作目的は、例えば、「ユーザが、端末に入っているシフォンケーキのレシピを検索する」シーンを想定すると、「シフォンケーキのレシピを見る」である。
【0003】
意味的類似度を算出する手段では、操作対象オブジェクトのラベルの文字列とユーザの操作目的を表す文字列、または、操作対象オブジェクトのラベル間の意味的類似度を計算する。ユーザビリティの問題を抽出する手段では、例えば、操作対象オブジェクト間の意味的類似度の値が高い場合は、それらの操作対象オブジェクトを混同しやすい、と判断してユーザビリティに問題があると判断する。
【0004】
非特許文献2には、入力画像の色、傾き及び線の分岐などの各特徴量に基づいて特徴マップを作成し、それらの特徴マップの顕著性を統合することで、Saliency Map (顕著マップ)を作成する技術が、記載されている。また、非特許文献2には、顕著マップ上で最も顕著性値の高い位置座標を検出することでユーザの注視位置座標を予測する技術が、記載されている。
【0005】
非特許文献3には、非コンテンツ領域が付与されたウェブページから素性ベクトルを抽出し、それらからチャンキングによって非コンテンツ領域を検出するためのモデルを学習することで、ウェブページ内の非コンテンツ領域を自動的に検出する方法が記載されている。
【0006】
また、特許文献1には、画像の表示領域から部分領域を特定し、これが所定条件を満足するか否かを判定する手段が記載されている。
【0007】
特許文献2には、画像を特徴量によって分類する技術が記載されている。
【0008】
特許文献3には、画像データの特徴量を計算する手段が記載されている。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】特開2006−217123号公報
【特許文献2】特開2007−317034号公報
【特許文献3】特開平09−091430号公報
【非特許文献】
【0010】
【非特許文献1】Blackmon, M.H. and Polson, P.G. and Kitajima, M. and Lewis, C., "Cognitive walkthrough for the web", Proceedings of the SIGCHI conference on Human factors in computing systems: Changing our world, changing ourselves, 463-470, 2002, ACM New York, NY, USA
【非特許文献2】Itti, L. and Koch, C. and Niebur, E. and others, "A model of saliency-based visual attention for rapid scene analysis", IEEE Transactions on pattern analysis and machine intelligence, vol.20 (11), pp.1254-1259, 1998, Citeseer
【非特許文献3】中村達也、白井清昭、“ウェブページにおける非コンテンツ領域の検出”、言語処理学会第13回年次大会発表論文集、234−237、2007
【発明の概要】
【発明が解決しようとする課題】
【0011】
しかしながら、上述した先行技術文献に記載された技術においては、画面上のコンテンツのレイアウトや操作対象オブジェクトのデザインなど、画面に表示された画像の、視覚的な特徴に対するユーザビリティの評価ができないという問題があった。
(発明の目的)
本発明の目的は、上述した問題点を解決できるユーザビリティ評価装置、方法及びプログラムを提供することにある。
【課題を解決するための手段】
【0012】
本発明のユーザビリティ評価システムは、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成手段を有する。
【0013】
本発明の方法は、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、処理部が前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する。
【0014】
本発明のプログラムは、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、処理部が前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する処理をコンピュータに実行させる。
【発明の効果】
【0015】
本発明は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になるという効果を有する。
【図面の簡単な説明】
【0016】
【図1】第1の実施形態の構成を示すブロック図である。
【図2】第1乃至第6の実施形態の評価対象画像の例を示す図である。
【図3】第1乃至第6の実施形態における顕著マップのデータの一例を示す図である。
【図4】第1乃至第6の実施形態における顕著マップを画像として表した顕著マップ画像の例である。
【図5】第1乃至第5の実施形態の顕著マップの作成の動作を示すフローチャートである。
【図6】第1の実施形態の処理部の動作を示すフローチャートである。
【図7】第2の実施形態の構成を示すブロック図である。
【図8】第2及び第3の実施形態において取得される諸元情報の一例を示す図である。
【図9】第2及び第4の実施形態において生成される顕著リストのデータの一例を示す図である。
【図10】第2の実施形態の処理部の動作を示すフローチャートである。
【図11】第3の実施形態の構成を示すブロック図である。
【図12】第3の実施形態の処理部の動作を示すフローチャートである。
【図13】第4の実施形態の構成を示すブロック図である。
【図14】第4の実施形態において取得される諸元情報の一例を示す図である。
【図15】第4の実施形態における意味的類似度リストのデータの一例を示す図である。
【図16】第4の実施形態におけるユーザ操作対象オブジェクト情報の一例を示す図である。
【図17】第4の実施形態の処理部の動作を示すフローチャートである。
【図18】第5の実施形態の構成を示すブロック図である。
【図19】第5の実施形態において生成される諸元情報の一例を示す図である。
【図20】第5の実施形態におけるコンテンツ領域顕著リストのデータの一例を示す図である。
【図21】第5の実施形態における非コンテンツ領域顕著リストのデータの一例を示す図である。
【図22】第5の実施形態の処理部の動作を示すフローチャートである。
【図23】第6の実施形態の構成を示すブロック図である。
【発明を実施するための最良の形態】
【0017】
[第1の実施形態]
図1は、本発明の第1の実施形態の構成を示すブロック図である。図1に示すように、本実施形態に係るユーザビリティ評価装置100は、入力部110と、処理部120と、出力部130とを含む。
【0018】
入力部110は、たとえば、キーボード及びマウスを含む入力デバイス、あるいはコンピュータを含むデータ入力装置であってもよい。
【0019】
入力部110は、評価対象画像情報G10、顕著性閾値t及びピクセル(単位要素とも呼ばれる)個数nの入力を受け付け、画像情報G20と、顕著性閾値t及びピクセル個数nの情報を出力する。図2は、評価対象画像G10の例を示す図である。
【0020】
画像情報G20は、例えば図2に示すような評価対象画像G10を、描画するためのデータである。具体的には、画像情報G20は、例えば、評価対象画像G10をピクセルに分割して各ピクセルの色や濃度を数値として表現したビットマップ画像の描画データである。
【0021】
顕著性閾値tは、評価対象画像G10中のピクセルが視覚的に顕著であるか否かを判定する基準を示し、例えば「0.31」などの値である。ピクセル個数nは、評価対象画像G10中のピクセルの内、視覚的な顕著性の値(後述の顕著性値M12に対応、要素顕著性値とも呼ぶ)が顕著性閾値t以上であるピクセル(以後、顕著ピクセルと呼ぶ)の数の上限値を示し、例えば「8000」などの値である。尚、ピクセル個数nは、評価対象画像G10中のピクセルの内、顕著ピクセルの割合の上限値で示すようにしても良い。
【0022】
処理部120は、顕著マップ作成部121と、ユーザビリティ情報生成部122とを含む。
処理部120は、中央処理装置(CPU)及びメモリ、ハードディスクを含むコンピュータで構成されていても良い。この場合、顕著マップ作成部121とユーザビリティ情報生成部122での各処理は、コンピュータの記憶媒体に記憶されたプログラムに基づいて実行されるものであってもよい。
【0023】
顕著マップ作成部121は、入力部110から出力された画像情報G20を受け付け、この画像情報G20の各ピクセルの要素顕著性値である顕著性値M12を算出し、この顕著性値M12に基づいて図3に示すような顕著マップM10のデータを作成する。顕著マップ作成部121は、顕著マップM10をユーザビリティ情報生成部122に出力する。顕著性値M12は、ピクセルの視覚的な顕著性を示す情報である。ここで、顕著性値は、たとえば、画像の単位要素である各ピクセルの輝度・色・方向の特徴を示す値である。
【0024】
図3は、顕著マップM10のデータの一例を示す図である。図3に示すように、顕著マップM10は、画像情報G20中の各ピクセルの位置座標(x座標、y座標)M11(図示しない)と視覚的な顕著性値M12とを関連付けたデータである。図3に示す顕著マップM10は、例として、評価対象画像G10が「640×480」ピクセルの場合を示している。例えば、最上端かつ最左端のピクセルの位置座標M11は、x座標が「1」、y座標が「1」であり、顕著性値M12は、「0.01」である。また、最下端かつ最右端のピクセルの位置座標M11は、x座標が「640」、y座標が「480」であり、顕著性値M12は、「0.21」である。
【0025】
尚、人間のボトムアップ性の視覚的注意は、一般的に、画像中の視覚的な顕著性値が高い位置に誘導されると考えられている。
【0026】
図4は、評価対象画像G10の顕著マップM10を画像として表した顕著マップ画像の例である。
【0027】
図5は、顕著マップ作成部121における顕著マップM10の作成の動作を示すフローチャートである。
【0028】
顕著マップ作成部121は、入力された画像情報G20に対して画像フィルターをかけて色、輝度及び方向などの各特徴を抽出し、各特徴の特徴マップM13(図示しない)を作成する(ステップS111)。
【0029】
次に、顕著マップ作成部121は、各特徴マップM13を正規化する(ステップS112)。
【0030】
次に、顕著マップ作成部121は、正規化した各特長マップを統合して、顕著マップM10を作成し、ユーザビリティ情報生成部122に出力する(ステップS113)。
【0031】
顕著マップ作成部121の例として、非特許文献2に記述されている顕著マップの作成手段が挙げられる。
【0032】
この文献に記述されている顕著性ベース注視モデルの顕著マップM10の作成手順は次の通りである。
【0033】
まず、顕著性ベース注視モデルは、入力された評価対象画像G10にガウシアンフィルタを適用してガウシアンピラミッドを作成する(以後、このガウシアンピラミッドを構成する複数の画像をスケール画像G30(図示しない)と呼ぶ)。
【0034】
次に、顕著性ベース注視モデルは、スケール画像G30各々の特徴(輝度・色・方向)を計算し、各スケール画像G30の特徴(輝度・色・方向)の値を保持する画像G31(図示しない)を作成する。
【0035】
次に、顕著性ベース注視モデルは、特徴(輝度・色・方向)毎の画像G31のスケール間の差分を計算し、算出した差分情報を保持する特徴マップM13を作成する。
【0036】
次に、顕著性ベース注視モデルは、特徴毎にマップを統合するために特徴マップM13を正規化し、特徴毎にマップを統合した画像G33(図示しない)を作成する。
【0037】
最後に、顕著性ベース注視モデルは、画像G33を正規化して1つのマップに統合して顕著マップM10を得る。
【0038】
これは顕著マップM10の作成手段の1例であり、顕著マップM10を作成する方法はこれに限らない。
【0039】
評価対象画像G10の視覚的顕著性を表すマップが作成できればよいため、顕著マップ作成処理では、図5に示したフローの処理の一部を省略してもよい。具体的には、例えば、特徴マップM13の正規化のステップを省略してもよい。
【0040】
ユーザビリティ情報生成部122は、顕著マップM10の各ピクセルの顕著性値M12に基づいて、評価対象画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する。
【0041】
具体的には、ユーザビリティ情報生成部122は、例えば、顕著ピクセルの個数が、ピクセル個数n以上か否かに基づいて、ユーザビリティ情報を生成する。ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n以上存在するか否かを判断する。そして、ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n以上存在すると判断した場合、「顕著ピクセル過多の問題あり(ユーザに掛かる認知負荷が大きいこと)」を示すユーザビリティ情報を生成する。また、ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n未満であると判断した場合、「顕著ピクセル過多の問題なし」を示すユーザビリティ情報を生成し、出力部130に出力する。
【0042】
また、ユーザビリティ情報生成部122は、例えば、複数の顕著性閾値t毎に各顕著性閾値t以上の顕著性値M12を有するピクセルの個数が、ピクセル個数n以上か否かに基づいて、より詳細なユーザビリティ情報を生成してもよい。具体的には、ユーザビリティ情報生成部122は、ユーザビリティの問題大、問題中、問題小及び問題なしをそれぞれ判定するための4つの顕著性閾値tに基づいて、各顕著性閾値tと顕著性値M12とを比較する。次に、ユーザビリティ情報生成部122は、各顕著性閾値t以上の顕著性値M12を有するピクセルの個数が、それぞれピクセル個数n(nは、顕著性閾値ごとに異なるものとする)以上か否かに基づいて、ユーザビリティの問題大、問題中、問題小及び問題なしを示すユーザビリティ情報を生成し、出力部130に出力する。
【0043】
また、ユーザビリティ情報生成部122は、例えば、顕著ピクセルの個数とピクセル個数nの比率に基づいて、ユーザビリティ情報を生成してもよい。具体的には、ユーザビリティ情報生成部122は、顕著ピクセルの個数の、ピクセル個数nに対する比率を100分率で表した数値をユーザビリティ情報として生成する。
【0044】
尚、顕著性閾値tとピクセル個数nのデータは、入力部110から供給されるのではなく、ユーザビリティ情報生成部122に予め設定されていてもよい。
【0045】
出力部130は、処理部120の処理結果を表示する表示装置を含む。処理結果は、例えば、上述のユーザビリティ情報のほかに、入力部110で入力した評価対象画像G10上にその画像情報G20から求めた顕著マップM10の顕著性値M12を重ね合わせた図(重ね画像)を含む。この場合、ユーザビリティ情報生成部122は、ユーザビリティ情報と、評価対象画像G10の画像情報G20の上に顕著マップM10を重ね合わせた画像の情報(この情報も、ユーザビリティ情報とも呼ばれる)とを、出力部130に送信することが望ましい。
【0046】
また、出力部130は、処理結果として画像情報G20と顕著マップM10の顕著性値M12とを処理部120から入力し、それらを重ね合わせた画像を生成し表示してもよい。
【0047】
次に、図1〜3を参照して本実施形態の動作について詳細に説明する。
【0048】
図6は、本実施形態の処理部120の動作の一例を示すフローチャートである。
【0049】
図6に示す動作に先立って、入力部110は、画像情報G20の入力を受け付け、処理部120の顕著マップ作成部121に送信する。また、入力部110は、顕著性閾値t及びピクセル個数nの値の入力を受け付け、処理部120のユーザビリティ情報生成部122に送信する。
【0050】
処理部120の顕著マップ作成部121は、画像情報G20を受信したことを契機に動作を開始する。
【0051】
最初に、処理部120の顕著マップ作成部121は、画像情報G20の各ピクセルの顕著性値M12を算出し、算出した顕著性値M12に基づいて顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部122に送信する(ステップS101)。
【0052】
ユーザビリティ情報生成部122は、顕著マップM10を受信し、この顕著マップM10について、顕著ピクセルの個数が、ピクセル個数n以上か否かを決定する(ステップS102)。
【0053】
顕著ピクセルの個数がピクセル個数n以上である場合(ステップS102でYES)、ユーザビリティ情報生成部122は、顕著ピクセル過多の問題ありを示すユーザビリティ情報を生成する(ステップS103)。
【0054】
顕著ピクセルの個数がピクセル個数n未満である場合(ステップS102でNO)、ユーザビリティ情報生成部122は、顕著ピクセル過多の問題なしを示すユーザビリティ情報を生成する(ステップS104)。
【0055】
次に、ユーザビリティ情報生成部122は、ステップS103またはステップS104のいずれかで生成されたユーザビリティ情報と評価対象画像G10の上に顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを、出力部130に送信する(ステップS105)。
【0056】
以上で処理部120の動作は終了し、これら一連の動作に続いて、出力部130は、受信したユーザビリティ情報と評価対象画像G10の上に顕著マップM10を重ねて描いた図とを、表示する。
【0057】
上述の表示を確認することで、ユーザビリティ評価装置100の使用者は、ユーザの視覚的注意を誘導しやすい位置が多数存在して、ユーザに必要以上の認知負荷をかけてしまう設計になっていないか否かのユーザビリティを評価する。
【0058】
上述した本実施形態における効果は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になる点である。即ち、本実施形態によれば、画面上のコンテンツのレイアウトや操作対象オブジェクトのデザインなど、画面上に表示された画像の、視覚的な特徴に対するユーザビリティを評価することが可能になる。
【0059】
その理由は、評価対象画像G10の顕著性値M12を算出し、算出した顕著性値M12に基づいて、顕著ピクセルの個数が予め定められたピクセル個数以上であるか否かを判断してユーザビリティ情報を生成するようにしたからである。
[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
【0060】
図7は、本実施形態の構成を示すブロック図である。図7に示すように、本実施形態に係るユーザビリティ評価装置200は、入力部210と、処理部220と、出力部230とを含む。
【0061】
入力部210は、第1の実施形態で説明した入力部110と同等である。
【0062】
処理部220は、顕著マップ作成部121と、画面上の操作対象オブジェクトを検出する操作対象オブジェクト検出部223と、操作対象オブジェクト顕著性算出部224と、ユーザビリティ情報生成部222とを備える。操作対象オブジェクト検出部223と、操作対象オブジェクト顕著性算出部224と、ユーザビリティ情報生成部222とは、中央処理装置(CPU)及びメモリ、ハードディスクを含むコンピュータで構成されていても良い。この場合、各処理は、コンピュータの記憶媒体に記憶されたプログラムに基づいて実行されるものであってもよい。
【0063】
顕著マップ作成部121は、第1の実施形態で説明したものと同等である。
【0064】
操作対象オブジェクト検出部223は、入力部210から受信した画像情報G20の情報(第1の実施形態で説明したビットマップ画像の描画データやHTML(HyperText Markup Language)で記述された画面表示のデータなど)を参照して画面上の1つ或いは複数の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部223は、検出した操作対象オブジェクトの図8に示すような諸元情報P10として、各操作対象オブジェクトの少なくとも位置座標M11を取得し、更に、操作対象オブジェクトの幅及び高さの情報を取得(発生)し、取得した諸元情報P10を操作対象オブジェクト顕著性算出部224に送信する。図8は、諸元情報P10の一例を示す図である。図8に示すように、諸元情報P10は、操作対象オブジェクト識別子M21と位置座標M11と幅と高さとを含む。
【0065】
操作対象オブジェクト検出部223は、ユーザビリティ評価者による入力に基づいて操作対象オブジェクトを検出し、諸元情報P10を取得するようにしてもよい。また、操作対象オブジェクト検出部223は、画像情報G20から自動的に操作対象オブジェクトを検出し、諸元情報P10を取得するようにしてもよい。
【0066】
操作対象オブジェクトを手動で入力する手段の場合、例えば、入力部210と出力部230とは、そのためのインターフェースを有してもよい。具体的には、出力部230が評価対象画像G10を表示し、入力部210が、マウスで範囲指定された、評価対象画像G10上のボタン領域の情報を受け付ける。次に、操作対象オブジェクト検出部223は、入力部210が受け付けたボタン領域の情報に基づいて、操作対象オブジェクトの位置座標M11、幅、高さを含む諸元情報P10を取得する。
【0067】
操作対象オブジェクトを自動で検出する手段の場合、操作対象オブジェクト検出部223は、例えば、HTMLで記述された画面表示のデータを参照して操作対象オブジェクトを検出する。具体的には、操作対象オブジェクト検出部223は、例えば、HTMLで記述された画面表示のデータ内からリンクの記述部分である開始タグ<a href=“ “>と終了タグ</a>の記述(文字列)を検出する。そして、操作対象オブジェクト検出部223は、検出された開始タグと終了タグの間に記述されている文字列W10(図示しない)を抽出し、これを操作対象オブジェクトとして検出する。次に、操作対象オブジェクト検出部223は、検出した操作対象オブジェクトである文字列W10の位置座標M11、幅、高さを含む諸元情報P10を取得し、出力する。
【0068】
これらは操作対象オブジェクト検出部223の動作の1例であり、諸元情報P10を取得する方法はこれに限らない。
【0069】
操作対象オブジェクト顕著性算出部224は、図9に示すような顕著リストM20を生成する。
【0070】
図9は、顕著リストM20のデータの一例を示す図である。図9に示すように顕著リストM20は、操作対象オブジェクト識別子M21と顕著性値M22とを対応付けた組を1つ以上含む。操作対象オブジェクト顕著性算出部224は、顕著マップ作成部121からの顕著マップM10と操作対象オブジェクト検出部223からの諸元情報P10とに基づいて、各操作対象オブジェクトの顕著性値M22を算出し、顕著リストM20を生成する。例えば、操作対象オブジェクト顕著性算出部224は、諸元情報P10に対応する操作対象オブジェクト領域の各ピクセルにおける顕著性値M12の最大値を検出し、その最大値を操作対象オブジェクトの顕著性値M22とする。
【0071】
ユーザビリティ情報生成部222は、操作対象オブジェクト顕著性算出部224からの、各操作対象オブジェクトの顕著性値M22に基づいて、ユーザビリティ情報を生成する。
【0072】
まず、ユーザビリティ情報生成部222は、例えば、操作対象オブジェクトの顕著性値M22と、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12とを比較する。操作対象オブジェクトの顕著性値M22が操作対象オブジェクト以外の領域の内の最大の顕著性値M12以下の場合、ユーザビリティ情報生成部222は、「操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題あり」を示すユーザビリティ情報を生成する。また、操作対象オブジェクトの顕著性値M22が操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12を超える場合、ユーザビリティ情報生成部222は、「操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題なし」を示すユーザビリティ情報を生成する。
【0073】
尚、ユーザビリティ情報生成部222は、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12に替えて、この最大の顕著性値M12に予め定められた値を加算した数値と操作対象オブジェクトの顕著性値M22とを比較するようにしてもよい。
【0074】
更に、ユーザビリティ情報生成部222は、顕著性値M22を相互に比較する。いずれかの顕著性値M22間の差が予め定められた差分閾値d以上の場合、ユーザビリティ情報生成部222は操作対象オブジェクト間の顕著性差分に問題ありを示すユーザビリティ情報を生成する。顕著性値M22間の差が予め定められた差分閾値d未満の場合、ユーザビリティ情報生成部222は操作対象オブジェクト間の顕著性差分に問題なしを示すユーザビリティ情報を生成する。
【0075】
尚、ユーザビリティ情報生成部222は、更に、第1の実施形態のユーザビリティ情報生成部122と同様に顕著ピクセルの個数がピクセル個数に基づく、ユーザビリティ情報を生成してもよい。
【0076】
出力部230は、処理部220の処理結果を表示する。処理結果は、上述のユーザビリティ情報、各操作対象オブジェクトの顕著性値M22及び評価対象画像G10上にその評価対象画像G10の顕著性値M12を重ね合わせた図(この情報も、ユーザビリティ情報とも呼ばれる)である。
【0077】
次に、図7〜図10を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。
【0078】
図10は、本実施形態の処理部220の動作を示すフローチャートである。
【0079】
図10に示す動作に先立って、入力部210は、画像情報G20の入力を受け付け、これを顕著マップ作成部121及び操作対象オブジェクト検出部223に送信する。
【0080】
まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部222及び操作対象オブジェクト顕著性算出部224に送信する(ステップS201)。
【0081】
次に、操作対象オブジェクト検出部223は、受信した画像情報G20内の操作対象オブジェクトを検出し、検出した各操作対象オブジェクトの諸元情報P10を操作対象オブジェクト顕著性算出部224に送信する(ステップS202)。
【0082】
次に、操作対象オブジェクト顕著性算出部224は、顕著マップM10と、操作対象オブジェクトの諸元情報P10とを受信し、これらに基づいて各操作対象オブジェクトの視覚的な顕著性値M22を算出し、顕著リストM20を生成する。そして、操作対象オブジェクト顕著性算出部224は、生成した顕著リストM20をユーザビリティ情報生成部222に送信する(ステップS203)。
【0083】
次に、ユーザビリティ情報生成部222は、顕著マップM10、及び顕著リストM20を受信する。続けて、ユーザビリティ情報生成部222は、操作対象オブジェクトの顕著性値M22と、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12とを比較する(ステップS204)。
【0084】
そして、操作対象オブジェクトの顕著性値M22が、操作対象オブジェクト以外の領域の顕著性値M12の内の、最大の顕著性値M12以下の場合(ステップS204でYES)、ユーザビリティ情報生成部222は、操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題ありを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS205)。
【0085】
また、操作対象オブジェクトの顕著性値M22が、操作対象オブジェクト以外の領域の顕著性値M12の内の、最大の顕著性値M12を超えている場合(ステップS204でNO)、ユーザビリティ情報生成部222は、操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題なしを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS206)。
【0086】
次に、ユーザビリティ情報生成部222は、図9に示す顕著性値M22を相互に比較する(ステップS207)。
【0087】
そして、顕著性値M22間の差が予め定められた差分閾値d以上の場合(ステップS206でYES)、ユーザビリティ情報生成部222は、操作対象オブジェクト間の顕著性差分に問題ありを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS208)。
【0088】
また、顕著性値M22間の差が予め定められた差分閾値d未満の場合(ステップS206でNO)、ユーザビリティ情報生成部222は、操作対象オブジェクト間の顕著性差分に問題なしを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS209)。
【0089】
次に、ユーザビリティ情報生成部222は、顕著リストM20と評価対象画像G10の上に対応する顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを生成し、出力部230に送信する(ステップS209)。
【0090】
以上で処理部220の動作は終了し、これら一連の動作に続いて出力部230は、上述のユーザビリティ情報と、顕著リストM20と、その評価対象画像G10の上に対応する顕著マップM10とを描いた図を表示する。
【0091】
上述の表示を確認することで、ユーザビリティ評価装置200の使用者は、操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。
【0092】
上述した本実施形態における効果は、第1の実施形態の効果に加え、操作対象オブジェクトにユーザの視覚的注意が誘導されるようになっているか否かを評価することが可能になる点である。
【0093】
その理由は、画面全域の顕著性値M12と画面上の各操作対象オブジェクトの顕著性値M22とを比較し、更に操作対象オブジェクトの相互間の顕著性値M22を比較してユーザビリティ情報を生成するようにしたからである。
[第3の実施形態]
次に、本発明の第3の実施形態について図面を参照して詳細に説明する。
図11は、本発明の第3の実施形態の構成を示すブロック図である。図11に示すように、本実施形態に係るユーザビリティ評価装置300は、入力部310と、処理部320と、出力部330とを含む。
入力部310は、第1の実施形態で説明した入力部110と同等である。
【0094】
処理部320は、顕著マップ作成部121と注視位置予測部325と操作対象オブジェクト検出部223とユーザビリティ情報生成部322とを備える。顕著マップ作成部121と操作対象オブジェクト検出部223とは、第1及び第2の実施形態で説明したものと同等である。
【0095】
注視位置予測部325は、顕著マップM10を参照し、ユーザの注視が誘導される位置座標M11を予測し、その予測結果を送信する。一般的に、ユーザの注視は、顕著性値M12の最も高い場所に誘導される。そこでまず、注視位置予測部325は、例えば、顕著マップM10の顕著性値M12の内の最も高い顕著性値M12を注視顕著性値M32(図示しない)とする。続けて、注視位置予測部325は、この注視顕著性値M32を有するピクセルの位置座標M11を注視位置座標C30(図示しない)として検出する。そして、注視位置予測部325は、この注視位置座標C30を予測結果として送信する。この注視位置座標C30が、ユーザの注視が誘導される位置であるとする。
【0096】
また、例えば、注視位置予測部325は、以下のようにして注視位置座標C30を検出してもよい。まず、注視位置予測部325は、各ピクセルの顕著性値M12から、そのピクセルに隣接するピクセルそれぞれの顕著性値M12を差し引いた差分の平均値M35(図示しない)を算出する。次に、注視位置予測部325は、平均値M35の内の最も高い平均値M35を有するピクセルの位置座標M11を注視位置座標C30として検出する。
【0097】
ユーザビリティ情報生成部322は、ユーザの注視位置座標C30と操作対象オブジェクト検出部223から受信した諸元情報P10に基づいてユーザビリティ情報を抽出する。
【0098】
具体的には、ユーザビリティ情報生成部322は、諸元情報P10に基づいて、注視位置座標C30が操作対象オブジェクトの領域内であるか否かを判定する。注視位置座標C30が操作対象オブジェクトの領域内ならば、ユーザビリティ情報生成部322は、操作対象オブジェクト対注視位置関係に問題なしを示すユーザビリティ情報を生成する。即ち、問題なしを示すユーザビリティ情報は、ユーザの注視位置が操作対象オブジェクトに誘導される設計になっていることを示している。また、注視位置座標C30が操作対象オブジェクトの領域外ならば、ユーザビリティ情報生成部322は、操作対象オブジェクト対注視位置関係に問題ありを示すユーザビリティ情報を生成する。
尚、ユーザビリティ情報生成部322は、注視位置座標C30が予め定められた領域内か否かを、判定してもよい。
また、ユーザビリティ情報生成部322は、更に、第1の実施形態のユーザビリティ情報生成部122及び第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成してもよい。
【0099】
次に図12を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1及び第2の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。図12は、本実施形態の処理部320の動作を示すフローチャートである。
【0100】
図12に示す動作に先立って、入力部310は、画像情報G20を入力し、これを顕著マップ作成部121及び操作対象オブジェクト検出部223に送信する。
【0101】
まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10を注視位置予測部325に送信する(ステップS301)。
【0102】
次に、注視位置予測部325は、受信した顕著マップM10内の、最大の顕著性値M12を保持する注視位置座標C30(図示しない)を検出する。続けて、注視位置予測部325は、注視位置座標C30と顕著マップM10とをユーザビリティ情報生成部322に送信する(ステップS302)。
【0103】
次に、操作対象オブジェクト検出部223は、第2の実施形態と同様に、受信した画像情報G20内の操作対象オブジェクトを検出し、検出した各操作対象オブジェクトの諸元情報P10を取得する。続けて、操作対象オブジェクト検出部223は、この諸元情報P10をユーザビリティ情報生成部322に送信する(ステップS303)。
【0104】
次に、ユーザビリティ情報生成部322は、受信した諸元情報P10と注視位置座標C30とに基づいて、注視位置座標C30が操作対象オブジェクトの領域内か否かを調べる(ステップS311)。
【0105】
そして、注視位置座標C30が操作対象オブジェクト領域内の場合(ステップS311でYES)、ユーザビリティ情報生成部322は、「操作対象オブジェクト対注視位置関係に問題なし」を示すユーザビリティ情報を生成し、これを出力部330に送信する(ステップS312)。
【0106】
また、注視位置座標C30が操作対象オブジェクト領域外の場合(ステップS311でNO)、ユーザビリティ情報生成部322は、「操作対象オブジェクト対注視位置関係に問題あり」を示すユーザビリティ情報を生成し、これを出力部330に送信する(ステップS313)。
【0107】
以上で処理部320の動作は終了する。これら一連の動作に続いて出力部330は、上述のユーザビリティ情報と顕著リストM20と注視位置座標C30と注視顕著性値M32と評価対象画像G10上にその評価対象画像G10に対応する顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを表示する(ステップS314)。
【0108】
上述の表示を確認することで、ユーザビリティ評価装置300の使用者は、操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。
【0109】
上述した本実施形態における効果は、第1及び第2の実施形態の効果に加え、操作対象オブジェクトにユーザの視覚的注意が誘導されているようになっているか否かを評価することが可能になる点である。
その理由は、ユーザビリティ情報生成部322が、諸元情報P10に基づいて、注視位置座標C30が操作対象オブジェクトの領域内であるか否かを判定するようにしたからである。
[第4の実施形態]
次に、本発明の第4の実施形態について図面を参照して詳細に説明する。
【0110】
図13は、本実施形態の構成を示すブロック図である。図13に示すように、本実施形態に係るユーザビリティ評価装置400は、入力部410と、処理部420と、出力部430とを含む。
【0111】
入力部410は、第1の実施形態で説明した入力部110の機能及び、入力されたユーザの目的を表す文字列W40を受け取り、送信する機能を有する。
【0112】
処理部420は、顕著マップ作成部121と操作対象オブジェクト検出部423と注視位置予測部325と操作対象オブジェクト顕著性算出部224と意味的類似度算出部426と選択オブジェクト予測部427とユーザビリティ情報生成部422とを備える。
【0113】
顕著マップ作成部121と操作対象オブジェクト顕著性算出部224と注視位置予測部325とは、第1から第3の実施形態で説明したものと同等である。
【0114】
操作対象オブジェクト検出部423は、受信した画像情報G20内の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部423は、検出した操作対象オブジェクトの少なくとも位置座標M11、幅、高さ及びその操作対象オブジェクト内に表記されている文字列W41を、諸元情報P40として取得し、送信する。図14は、諸元情報P40の一例を示す図である。図14に示すように、諸元情報P40は、操作対象オブジェクト識別子M21と位置座標M11と幅と高さと文字列W41とを含む。
意味的類似度算出部426は、入力部410から受信したユーザの目的を表す文字列W40と、操作対象オブジェクト検出部423から受信した操作対象オブジェクトの諸元情報P40中の文字列W41とに基づいて、ユーザの目的と操作対象オブジェクトの意味的類似度を計算する。そして、意味的類似度算出部426は、図15に示すような意味的類似度リストS40を作成する。
図15は、意味的類似度リストS40のデータの一例を示す図である。図15に示すように、意味的類似度リストS40は、ユーザの目的を表す文字列W40と操作対象オブジェクト識別子M21とその操作対象オブジェクト識別子M21で示される操作対象オブジェクト内に表記されている文字列W41と計算した意味的類似度値S42とを対応付けた組を1つ以上含む。
【0115】
意味的類似度の計算方法の1例として、非特許文献2に記述されている潜在意味解析(LSA:Latent Semantic Analysis)が挙げられる。LSAでは、文字列W40及び文字列W41をそれぞれ意味空間内のベクトルとして表し、これらのベクトルの成す角の余弦を計算することで文字列W40及び文字列W41間の意味的類似度を得る。意味的類似度の値は、文字列W40及び文字列W41のそれぞれに含まれる語の、語間の類似度が高いほど、高い値になる。
選択オブジェクト予測部427は、意味的類似度算出部426が作成した意味的類似度リストS40に基づいて、ユーザが選択すると予測される操作対象オブジェクトを抽出し、送信する。具体的には、選択オブジェクト予測部427は、意味的類似度リストS40に含まれる意味的類似度値S42の内で最大の意味的類似度値S42に対応する操作対象オブジェクト識別子M21を、ユーザが選択すると予測される操作対象オブジェクトの操作対象オブジェクト識別子M21として抽出する。続けて、選択オブジェクト予測部427は、この抽出された操作対象オブジェクト識別子M21で示される操作対象オブジェクトの操作対象オブジェクト識別子M21、位置座標M11、高さ及び幅を、図16に示すような、ユーザが操作すると予測されるユーザ操作対象オブジェクト情報Q40として抽出し、送信する。図16は、ユーザが操作すると予測されるユーザ操作対象オブジェクト情報Q40の一例を示す図である。
【0116】
ユーザビリティ情報生成部422は、、操作対象オブジェクト顕著性算出部224からの顕著リストM20(図9)と、ユーザが選択すると予測されるユーザ操作対象オブジェクト情報Q40とに基づいて、ユーザビリティ情報を生成する。具体的には、例えば、ユーザビリティ情報生成部422は、顕著リストM20に含まれる顕著性値M22内の、最大の顕著性値M22に対応する操作対象オブジェクト識別子M21と、ユーザが選択すると予測されるユーザ操作対象オブジェクト情報Q40の操作対象オブジェクト識別子M21と、が同一であるか否かを判定する。同一である場合、ユーザビリティ情報生成部422は、操作対象オブジェクトの一致性に問題なしを示すユーザビリティ情報を生成する。同一でない場合、ユーザビリティ情報生成部422は、操作対象オブジェクトの一致性に問題ありを示すユーザビリティ情報を生成する。
【0117】
尚、ユーザビリティ情報生成部422は、更に、第1の実施形態のユーザビリティ情報生成部122及び第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成してもよい。
【0118】
出力部430は、処理部420の処理結果を表示する。処理結果は、例えば、上述のユーザビリティ情報、評価対象画像G10上にその画像情報G20から求めた顕著性値M12とユーザ操作対象オブジェクト情報Q40とを重ね合わせた図(この情報も、ユーザビリティ情報とも呼ばれる)、顕著リストM20(この情報も、ユーザビリティ情報とも呼ばれる)及び意味的類似度リストS40(この情報も、ユーザビリティ情報とも呼ばれる)などである。
【0119】
次に、図17を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1乃至第3の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲で省略する。
【0120】
図17は、本実施形態の処理部420の動作を示すフローチャートである。
【0121】
図17に示す動作に先立って、入力部410は、画像情報G20とユーザの目的を表す文字列W40の入力を受け取り、顕著マップ作成部121及び操作対象オブジェクト検出部423及び意味的類似度算出部426に送信する。
【0122】
ステップS401の動作は、第3の実施形態のステップS301と同等である。
【0123】
次に、操作対象オブジェクト検出部423は、受信した画像情報G20内の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部423は、検出した各操作対象オブジェクトの諸元情報P40を取得し、これらを操作対象オブジェクト顕著性算出部224及び意味的類似度算出部426に送信する(ステップS403)。
【0124】
次に、操作対象オブジェクト顕著性算出部224は、第2の実施形態と同様に、顕著リストM20を生成する。そして、操作対象オブジェクト顕著性算出部224は、生成した顕著リストM20をユーザビリティ情報生成部422に送信する(ステップS404)。
【0125】
次に、意味的類似度算出部426は、受信した諸元情報P40とユーザの目的を表す文字列W40とに基づいて、操作対象オブジェクト内に表記されている文字列W41と文字列W40との意味的類似度を算出して意味的類似度リストS40を作成し、選択オブジェクト予測部427に送信する(ステップS405)。
【0126】
次に、選択オブジェクト予測部427は、受信した意味的類似度リストS40に基づいて、ユーザ操作対象オブジェクト情報Q40を抽出する。そして、選択オブジェクト予測部427は、抽出したユーザ操作対象オブジェクト情報Q40と意味的類似度リストS40とをユーザビリティ情報生成部422に送信する(ステップS406)。
【0127】
次に、ユーザビリティ情報生成部422は、顕著マップM10、顕著リストM20、意味的類似度リストS40及びユーザ操作対象オブジェクト情報Q40を受信する。続けて、ユーザビリティ情報生成部422は、ユーザ操作対象オブジェクト情報Q40に含まれる操作対象オブジェクト識別子M21と、顕著リストM20に含まれる顕著性値M22の内の、最大の顕著性値M22に対応する操作対象オブジェクト識別子M21と、の二つの操作対象オブジェクト識別子M21が同一であるか否かを判定する(ステップS407)。
【0128】
そして、二つの操作対象オブジェクト識別子M21が同一の場合(ステップS407でYES)、ユーザビリティ情報生成部422は、ユーザ操作対象オブジェクト誘導性に問題なしを示すユーザビリティ情報を生成し、これを出力部430に送信する(ステップS408)。
また、二つの操作対象オブジェクト識別子M21が同一でない場合(ステップS407でNO)、ユーザ操作対象オブジェクト誘導性に問題ありを示すユーザビリティ情報を生成し、これを出力部430に送信する(ステップS409)。
【0129】
以上で処理部420の動作は終了し、これら一連の動作に続いて出力部430は、上述のユーザビリティ情報を表示する。また、出力部430は、評価対象画像G10上にその評価対象画像G10に対応する顕著マップM10ユーザ操作対象オブジェクト情報Q40を描いた図を表示してもよい。また、出力部430は、意味的類似度リストS40や顕著リストM20などを表示してもよい(ステップS410)。
【0130】
上述の表示を確認することで、ユーザビリティ評価装置400の使用者は、ユーザが選択し操作する操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。
【0131】
上述した本実施形態における効果は、第1、第2及び第3の実施形態の効果に加え、ユーザが選択し操作すると予測される操作対象オブジェクトに、ユーザの視覚的注意が誘導されるようになっているか否かを評価することが可能になる点である。
その理由は、操作対象オブジェクト内に表記されている文字列W41とユーザの目的を表す文字列W40との意味的類似度を算出してユーザが選択する操作対象オブジェクトを予測し、この予測した操作対象オブジェクトが最大の顕著性値M22に対応する操作対象オブジェクトであるか否かを判定してユーザビリティ情報を生成するようにしたからである。
[第5の実施形態]
次に、本発明の第5の実施形態について図面を参照して詳細に説明する。
【0132】
図18は、本実施形態の構成を示すブロック図である。図18に示すように、本実施形態に係るユーザビリティ評価装置500は、入力部510と、処理部520と、出力部530とを含む。
【0133】
入力部510は、第1の実施形態で説明した入力部110と同等である。
【0134】
処理部520は、顕著マップ作成部121と、非コンテンツ領域検出部528と、各領域顕著性算出部529と、ユーザビリティ情報生成部522とを含む。顕著マップ作成部121は、第1の実施形態で説明したものと同等である。
【0135】
非コンテンツ領域検出部528は、入力部510から受信した画像情報G20について、有用な情報を含まない非コンテンツ領域を検出する。そして、非コンテンツ領域検出部528は、評価対象画像G10全域をコンテンツ領域と非コンテンツ領域とに分ける諸元情報P50を生成する。図19は、諸元情報P50の一例を示す図である。図19に示すように諸元情報P50は、画像情報G20中の各ピクセルの位置座標(x座標、y座標)M11と領域識別子P53とを関連付けた情報である。図19に示す諸元情報P50は、例として、評価対象画像G10が「640×480」ピクセルの場合を示している。例えば、最上端かつ最左端のピクセルの位置座標M11は、x座標が「1」、y座標が「1」であり、領域識別子P53は、「4」である。また、最下端かつ最右端のピクセルの位置座標M11は、x座標が「640」、y座標が「480」であり、領域識別子P53は、「5」である。
【0136】
非コンテンツ領域検出方法の例として、非特許文献3に記載された手法がある。この非コンテンツ領域検出手法は、まず、ウェブページをテキストユニットに分解し、各ユニットが非コンテンツ領域か否かを人が判断して入力し、学習のための教師データを作成する。そして、この非コンテンツ領域検出手法は、作成した教師データを使って教師あり学習を行い、チャンキングモデルを生成することで非コンテンツ領域を自動的に検出する。
【0137】
これは非コンテンツ領域検出部528の一例であり、非コンテンツ領域を検出する手段はこれに限らない。
【0138】
領域顕著性算出部529は、顕著マップM10と諸元情報P50とに基づいて各領域の顕著性値(後述するコンテンツ領域顕著性値M53及び非コンテンツ領域顕著性値M55)を算出する。領域顕著性算出部529は、例えば、領域内の各ピクセルが保持する顕著性値M12の総和をその領域の顕著性値とすることで、各領域の顕著性値を算出する。そして、領域顕著性算出部529は、図20に示すようなコンテンツ領域顕著リストM50と図21に示すような非コンテンツ領域顕著リストM51を作成する。
【0139】
図20は、コンテンツ領域顕著リストM50のデータの一例を示す図である。図20に示すようにコンテンツ領域顕著リストM50は、コンテンツ領域識別子M52とコンテンツ領域顕著性値M53とを対応付けた組を1つ以上含む。図21は、非コンテンツ領域顕著リストM51のデータの一例とを示す図である。図21に示すように非コンテンツ領域顕著リストM51は非コンテンツ領域識別子M54と非コンテンツ領域顕著性値M55とを対応付けた組を1つ以上含む。
【0140】
ユーザビリティ情報生成部522は、コンテンツ領域顕著リストM50及び非コンテンツ領域顕著リストM51に基づいて、ユーザビリティ情報を生成する。
【0141】
まず、ユーザビリティ情報生成部522は、例えば、各コンテンツ領域顕著性値M53と各非コンテンツ領域顕著性値M55とを比較する。非コンテンツ領域顕著性値M55のいずれかが、コンテンツ領域顕著性値M53のいずれか以上の場合、ユーザビリティ情報生成部522は、異種領域顕著性差に問題ありを示すユーザビリティ情報を生成する。また、全ての非コンテンツ領域顕著性値M55がいずれのコンテンツ領域顕著性値M53未満の場合、ユーザビリティ情報生成部522は、異種領域顕著性差に問題なしを示すユーザビリティ情報を生成する。
尚、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53に替えて、予め定められた数値と非コンテンツ領域とを比較するようにしてもよい。同様に、ユーザビリティ情報生成部522は、非コンテンツ領域顕著性値M55に替えて、予め定められた数値とコンテンツ領域顕著性値M53とを比較するようにしてもよい。
【0142】
更に、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53どうしを相互に比較する。比較した結果、コンテンツ領域顕著性値M53間の差のいずれかが予め定められた差分閾値d以上の場合、ユーザビリティ情報生成部522はコンテンツ領域顕著性差に問題ありを示すユーザビリティ情報を生成する。コンテンツ領域顕著性値M53間の差の全てが予め定められた差分閾値d未満の場合、ユーザビリティ情報生成部522はコンテンツ領域顕著性差に問題なしを示すユーザビリティ情報を生成する。
【0143】
尚、ユーザビリティ情報生成部522は、更に、ユーザビリティ情報生成部122と同様のユーザビリティ情報を生成してもよい。
【0144】
また、本実施形態は、第2の実施形態、第3の実施形態及び第4の実施形態のいずれを含むようにしても良い。
【0145】
出力部530は、処理部520の処理結果を表示する。処理結果は、上述のユーザビリティ情報、評価対象画像G10上にその評価対象画像G10のコンテンツ領域と非コンテンツ領域とを描いた図(この情報も、ユーザビリティ情報とも呼ばれる)、及びコンテンツ領域顕著リストM50(この情報も、ユーザビリティ情報とも呼ばれる)、非コンテンツ領域顕著リストM51(この情報も、ユーザビリティ情報とも呼ばれる)などである。
【0146】
次に、図18から図22を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。
【0147】
図22は、本実施形態の処理部520の動作を示すフローチャートである。
【0148】
図22に示す動作に先立って、入力部510は、画像情報G20の入力を受け付け、これを顕著マップ作成部121及び非コンテンツ領域検出部528に送信する。
【0149】
まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部522及び領域顕著性算出部529に送信する(ステップS501)。
【0150】
次に、非コンテンツ領域検出部528は、受信した画像情報G20内の非コンテンツ領域を検出し、非コンテンツ領域及びそれ以外のコンテンツ領域の諸元情報P50を操作対象オブジェクト顕著性算出部224に送信する(ステップS502)。
【0151】
次に、領域顕著性算出部529は、顕著マップM10と諸元情報P50とに基づいて各コンテンツ領域顕著性値M53及び非コンテンツ領域顕著性値M55を算出してコンテンツ領域顕著リストM50、非コンテンツ領域顕著リストM51を作成し、ユーザビリティ情報生成部522に送信する(ステップS503)。
【0152】
次に、ユーザビリティ情報生成部522は、顕著マップM10、コンテンツ領域顕著リストM50及び非コンテンツ領域顕著リストM51を受信する。続けて、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53と非コンテンツ領域顕著性値M55とを比較する(ステップS504)。
【0153】
そして、非コンテンツ領域顕著性値M55のいずれかが、コンテンツ領域顕著性値M53のいずれか以上の場合(ステップS504でYES)、ユーザビリティ情報生成部522は、異種領域顕著性差に問題ありを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS505)。
【0154】
また、全ての非コンテンツ領域顕著性値M55が、いずれのコンテンツ領域顕著性値M53未満の場合(ステップS504でNO)、ユーザビリティ情報生成部522は、異種領域顕著性差に問題なしを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS506)。
【0155】
次に、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53を相互に比較する(ステップS507)。
【0156】
そして、コンテンツ領域顕著性値M53間の差が予め定められた差分閾値d以上の場合(ステップS506でYES)、ユーザビリティ情報生成部522は、コンテンツ領域顕著性差に問題ありを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS508)。
【0157】
また、コンテンツ領域顕著性値M53間の差が予め定められた差分閾値d未満の場合(ステップS506でNO)、ユーザビリティ情報生成部522は、コンテンツ領域顕著性差に問題なしを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS509)。
【0158】
次に、ユーザビリティ情報生成部522は、評価対象画像G10の上に対応する顕著マップM10とコンテンツ領域と非コンテンツ領域とを描いた図を生成する。続けて、ユーザビリティ情報生成部522は、コンテンツ領域顕著リストM50と非コンテンツ領域顕著リストM51と生成した図とを出力部530に送信する(ステップS510)。
【0159】
以上で処理部520の動作は終了し、これら一連の動作に続いて出力部530は、受信したユーザビリティ情報を表示する。また、出力部530は、受信したコンテンツ領域顕著リストM50と、非コンテンツ領域顕著リストM51と、評価対象画像G10上にその評価対象画像G10のコンテンツ領域と非コンテンツ領域とを描いた図を表示する。
【0160】
上述の表示を確認することで、ユーザビリティ評価装置500の使用者は、非コンテンツ領域にユーザの注意が誘導されないか否かを評価する。
【0161】
上述した本実施形態における効果は、第1の実施形態の効果に加え、非コンテンツ領域にユーザの注意が誘導されるか否かを評価することが可能になる点である。
【0162】
その理由は、画面全域内の非コンテンツ領域を検出し、コンテンツ領域と非コンテンツ領域の顕著性を比較してユーザビリティ情報を生成するようにしたからである。
[第6の実施形態]
次に、本発明の第6の実施形態について図面を参照して詳細に説明する。
【0163】
図23は、本実施形態の構成を示すブロック図である。図23に示すように、本実施形態に係るユーザビリティ評価装置600は、ユーザビリティ情報生成部122を含む。
【0164】
ユーザビリティ情報生成部122は、例えば図2に示すような評価対象画像G10の、図3に示すような顕著マップM10に含まれる、単位要素(例えば、ピクセル)毎の顕著性値M12に基づいて、評価対象画像G10のユーザビリティ情報を生成する。尚、例えば、図3に示す顕著マップM10は、メモリ(図示しない)上に、図示しない手段によって展開されていてもよい。
【0165】
上述した本実施形態における効果は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になる点である。
【0166】
その理由は、評価対象画像G10の顕著性値M12に基づいて、評価対象画像に注意を向けるべきか否かを評価するためのユーザビリティ情報を生成するようにしたからである。
[実施形態の変形]
以上の各実施形態は、それぞれの一部或いは全部を組み合わせて変形してもよい。例えば、実施形態3の処理部320に操作対象オブジェクト顕著性算出部224を追加し、ユーザビリティ情報生成部322は、第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成するようにしてもよい。また、例えば第4の実施形態の処理部420に注視位置予測部325を追加し、ユーザビリティ情報生成部422は、第3の実施形態のユーザビリティ情報生成部322と同様のユーザビリティ情報を生成するようにしてもよい。
【0167】
以上の各実施形態で説明した各構成要素は、例えば、CPU(Central Processing Unit)と記憶媒体とを含むコンピュータによって構成されても良い。この場合、記憶媒体は、コンピュータによって各構成要素を機能させるためのプログラムを記憶してもよい。
【0168】
以上の各実施形態で説明した各構成要素は、必ずしも個々に独立した存在である必要はない。例えば、各構成要素は、複数の構成要素が1個のモジュールとして実現されたり、一つの構成要素が複数のモジュールで実現されたりしてもよい。また、各構成要素は、ある構成要素が他の構成要素の一部であったり、ある構成要素の一部と他の構成要素の一部とが重複していたり、といったような構成であってもよい。
【0169】
また、以上説明した各実施形態では、複数の動作をフローチャートの形式で順番に記載してあるが、その記載の順番は複数の動作を実行する順番を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の順番は内容的に支障しない範囲で変更することができる。
【0170】
更に、以上説明した各実施形態では、複数の動作は個々に相違するタイミングで実行されることに限定されない。例えば、ある動作の実行中に他の動作が発生したり、ある動作と他の動作との実行タイミングが部分的に乃至全部において重複していたりしていてもよい。
【0171】
更に、以上説明した各実施形態では、ある動作が他の動作の契機になるように記載しているが、その記載はある動作と他の動作の全ての関係を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の関係は内容的に支障のない範囲で変更することができる。また各構成要素の各動作の具体的な記載は、各構成要素の各動作を限定するものではない。このため、各構成要素の具体的な各動作は、各実施形態を実施する上で機能的、性能的、その他の特性に対して支障をきたさない範囲内で変更されて良い。
【0172】
尚、以上説明した各実施形態における各構成要素は、必要に応じ可能であれば、ハードウェアで実現されても良いし、ソフトウェアで実現されても良いし、ハードウェアとソフトウェアの混在により実現されても良い。
【0173】
また、各構成要素の物理的な構成は、以上の実施形態の記載に限定されることはなく、独立して存在しても良いし、組み合わされて存在しても良いしまたは分離して構成されても良い。
【0174】
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0175】
(付記1)
画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
【0176】
(付記2)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記1記載のユーザビリティ評価装置。
【0177】
(付記3)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記1または2記載のユーザビリティ評価装置。
【0178】
(付記4)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記2記載のユーザビリティ評価装置。
【0179】
(付記5)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記1乃至4のいずれかに記載のユーザビリティ評価装置。
【0180】
(付記6)
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記1乃至5記載のユーザビリティ評価装置。
【0181】
(付記7)
メモリ上に展開された画像の顕著性を示す単位要素毎の要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する
方法。
【0182】
(付記8)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する
付記7記載の方法。
【0183】
(付記9)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
ユーザの注視位置を予測して注視位置座標を検出し、
前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記7または8記載の方法。
【0184】
(付記10)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出し、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力し、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記8記載の方法。
【0185】
(付記11)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出し、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力し、
各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記7乃至10のいずれかに記載の方法。
【0186】
(付記12)
予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記7乃至11記載の方法。
【0187】
(付記13)
メモリ上に展開された画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する処理を
コンピュータに実行させるプログラム。
【0188】
(付記14)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する処理を
コンピュータに実行させる付記13記載のプログラム。
【0189】
(付記15)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
ユーザの注視位置を予測して注視位置座標を検出し、
前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13または14記載のプログラム。
【0190】
(付記16)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出し、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力し
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記14記載のプログラム。
【0191】
(付記17)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出し、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力し、
各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13乃至16のいずれかに記載のプログラム。
【0192】
(付記18)
予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13乃至17記載のプログラム。
【0193】
(付記19)
画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
【0194】
(付記20)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記19記載のユーザビリティ評価装置。
【0195】
(付記21)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記19または20記載のユーザビリティ評価装置。
【0196】
(付記22)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記20記載のユーザビリティ評価装置。
【0197】
(付記23)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記19乃至22のいずれかに記載のユーザビリティ評価装置。
【0198】
(付記24)
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記19乃至23記載のユーザビリティ評価装置。
【符号の説明】
【0199】
100 ユーザビリティ評価装置
110 入力部
120 処理部
121 顕著マップ作成部
122 ユーザビリティ情報生成部
130 出力部
200 ユーザビリティ評価装置
210 入力部
220 処理部
222 ユーザビリティ情報生成部
223 操作対象オブジェクト検出部
224 操作対象オブジェクト顕著性算出部
230 出力部
300 ユーザビリティ評価装置
310 入力部
320 処理部
322 ユーザビリティ情報生成部
325 注視位置予測部
330 出力部
400 ユーザビリティ評価装置
410 入力部
420 処理部
422 ユーザビリティ情報生成部
423 操作対象オブジェクト検出部
426 意味的類似度算出部
427 選択オブジェクト予測部
430 出力部
500 ユーザビリティ評価装置
510 入力部
520 処理部
522 ユーザビリティ情報生成部
528 非コンテンツ領域検出部
529 領域顕著性算出部
530 出力部
600 ユーザビリティ評価装置
G10 評価対象画像
M10 顕著マップ
M11 位置座標
M12 顕著性値
M20 顕著リスト
M21 操作対象オブジェクト識別子
M22 顕著性値
M50 コンテンツ領域顕著リスト
M51 非コンテンツ領域顕著リスト
M52 コンテンツ領域識別子
M53 コンテンツ領域顕著性値
M54 非コンテンツ領域識別子
M55 非コンテンツ領域顕著性値
P10 諸元情報
P40 諸元情報
P50 諸元情報
P53 領域識別子
Q40 ユーザ操作対象オブジェクト情報
S40 意味的類似度リスト
S42 意味的類似度値
W40 文字列
W41 文字列

【特許請求の範囲】
【請求項1】
画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
【請求項2】
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
請求項1記載のユーザビリティ評価装置。
【請求項3】
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
請求項1または2記載のユーザビリティ評価装置。
【請求項4】
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
請求項2記載のユーザビリティ評価装置。
【請求項5】
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
請求項1乃至4のいずれかに記載のユーザビリティ評価装置。
【請求項6】
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
請求項1乃至5記載のユーザビリティ評価装置。
【請求項7】
単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する
方法。
【請求項8】
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する
請求項7記載の方法。
【請求項9】
単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する処理を
コンピュータに実行させるプログラム。
【請求項10】
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する処理を
コンピュータに実行させる請求項9記載のプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate