説明

表示制御装置、表示制御プログラムおよび表示制御方法

【課題】番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できる。
【解決手段】表示制御装置8は、供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する情報取得部164と、情報取得部164によって取得された画像データおよび特徴データを人物毎に記憶する出演者情報152と、前記画像に対して指定された位置の最も近くにある顔画像を検出する顔認識部167と、出演者情報152に記憶された人物の画像データに基づいて、顔認識部167によって検出された顔画像の人物を特定する表示情報生成部166と、特定された人物に対する特徴データを表示する表示部13とを有する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、表示制御装置等に関する。
【背景技術】
【0002】
テレビ番組の視聴者は、視聴画面内の出演者に関する情報を知りたい場合がある。かかる場合に、視聴画面内の対象とする人物における顔がカーソル表示によって囲われたとき、囲われた顔の画像データ内の人物を人物情報テーブルに基づいて特定し、特定した人物についての人物情報を人物情報テーブルから抽出して表示する技術がある。人物情報テーブルには、複数の人物についての人物特定情報および人物情報があらかじめ記憶されている。これにより、視聴者は、知りたい出演者に関する人物情報を知ることができる。
【0003】
また、テレビ番組を再生するビデオプレイヤでは、アクションが定義された表示オブジェクトを含む動画データに基づいて動画を再生表示する技術がある。かかる技術では、ビデオプレイヤは、再生表示されている動画に含まれる表示オブジェクトの選択を視聴者から受け付けると、選択を受け付けた表示オブジェクトに定義された説明情報を自動的に表示する。これにより、視聴者は、選択を受け付けた表示オブジェクト内の知りたい出演者に関する説明情報を知ることができる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2008−250654号公報
【特許文献2】特開2008−66925号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できないという問題がある。すなわち、テレビ番組を再生する従来のビデオプレイヤは、番組について再生表示される動画にアクションが定義された表示オブジェクトを含んでいれば、視聴者から選択された表示オブジェクトに含まれる所望の人物の説明情報を表示できる。つまり、ビデオプレイヤは、動画の作成元で、動画に表示オブジェクトを含むように作成された番組しか、対象となる人物の情報を表示できない。さらに、ビデオプレイヤは、番組について再生表示される動画に表示オブジェクトを含んでいなければ、所望の人物の顔を視聴者がカーソル表示によって囲んでも、囲んだ人物の情報を表示できないのは同様である。
【0006】
なお、上記課題は、番組に出演している人物に限らず、番組に出ている物品でも同様に生ずる。
【0007】
開示の技術は、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できることを目的とする。
【課題を解決するための手段】
【0008】
1つの側面では、表示制御装置は、供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、前記特定部によって特定された人物に対する特徴データを表示する表示部とを有する。
【発明の効果】
【0009】
本願の開示する表示制御装置の一つの態様によれば、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できる。
【図面の簡単な説明】
【0010】
【図1】図1は、実施例に係る表示制御システムの構成を示す機能ブロック図である。
【図2】図2は、番組情報のデータ構造の一例を示す図である。
【図3】図3は、出演者情報のデータ構造の一例を示す図である。
【図4】図4は、MPEG2のフレーム構成を説明する図である。
【図5】図5は、Pフレームの動き補償ブロックと動きベクトルを説明する図である。
【図6】図6は、Pフレームがタッチされた場合のIフレームに対応する座標を計算する方法を説明する図(1)である。
【図7】図7は、Pフレームがタッチされた場合のIフレームに対応する座標を計算する方法を説明する図(2)である。
【図8】図8は、各フレームの対応座標を計算する方法を説明する図である。
【図9】図9は、実施例に係る情報取得部の処理手順を示すフローチャートである。
【図10】図10は、実施例に係る顔認識部の処理手順を示すフローチャート(1)である。
【図11】図11は、実施例に係る顔認識部の処理手順を示すフローチャート(2)である。
【図12】図12は、実施例に係る顔認識部の処理手順を示すフローチャート(3)である。
【図13】図13は、実施例に係る表示制御装置の表示画面の一例を示す図である。
【図14】図14は、表示制御プログラムを実行するコンピュータの一例を示す図である。
【発明を実施するための形態】
【0011】
以下に、本願の開示する表示制御装置、表示制御プログラムおよび表示制御方法の実施例を図面に基づいて詳細に説明する。しかし、本実施例によりこの発明が限定されるものではない。
【実施例】
【0012】
図1は、実施例に係る表示制御システムの構成を示す機能ブロック図である。図1に示すように、表示制御システム1は、放送局2と、映像サーバ3と、番組情報サーバ4と、検索エンジン5と、情報提供サーバ6と、ネットワーク7と、表示制御装置8とを有する。表示制御装置8は、放送局2と接続し、インターネットなどのネットワーク7を介して検索エンジン5および情報提供サーバ6と接続する。放送局2は、映像サーバ3および番組情報サーバ4と接続する。
【0013】
放送局2は、衛星放送波、地上波、ケーブルテレビ網、またはデータ通信網を通じてデジタルテレビ放送のデータを配信する。
【0014】
映像サーバ3は、放送局2から配信されるデジタルテレビ放送の映像データを記憶する。映像データは、MPEG規格により圧縮される。例えば、MPEG2(Moving Picture Experts Group phase2)の圧縮方式が採用される。
【0015】
番組情報サーバ4は、放送局2から配信されるデジタルテレビ放送の番組情報(番組表)を提供する。番組情報には、例えば番組名、放送日時、番組内容や出演者情報などが含まれる。すなわち、放送局2は、番組情報サーバ4から提供される番組情報を放送データにミックスして、ミックスした放送データを配信する。この番組情報を提供するサービスを電子番組案内(EPG:Electronic Program Guide)という。EPGは、ARIB標準規格ARIBSTD−B10「デジタル放送に使用する番組配列情報」やARIB技術資料ARIBTR−B14「地上デジタルテレビジョン放送運用規定」で規定されている。そして、EPGは、番組情報をEIT(Event Information Table)と呼ばれるデータ形式で提供する。
【0016】
検索エンジン5は、ネットワーク7上にある画像などの情報を検索する機能を提供するサーバまたはシステムを含む。例えば、検索エンジン5には、画像検索の場合、Googleの画像検索、Yahooの画像検索、Bingの画像検索、Baiduの画像検索がある。情報提供サーバ6は、各種の情報を提供するサーバである。例えば、情報提供サーバ6は、人物に関する情報を提供したり、商品に関する情報を提供したりする。
【0017】
表示制御装置8は、チューナ11と、ネットワークインタフェース部12と、表示部13と、入力部14と、記憶部15と、制御部16とを有する。チューナ11は、放送局2から配信された放送データを受信する。そして、チューナ11は、受信した放送データのうち映像データを映像処理部161に出力し、受信した放送データのうち番組情報をデータ処理部163に出力する。
【0018】
ネットワークインタフェース部12は、ネットワーク7を介して、検索エンジン5や情報提供サーバ6とデータ通信を行う処理部である。
【0019】
表示部13は、映像や、映像に関する情報を表示する表示装置である。例えば、表示部13は、ディスプレイ、タッチパネルに対応する。入力部14は、視聴者が各種の情報を表示制御装置8に入力するための入力装置である。この入力部14によって、視聴者が表示部13に表示された映像を指定操作できる(以下、タッチするともいう)。すなわち、入力部14は、表示部13に表示された映像の中で視聴者が知りたい人物や商品またはこれらの近辺をタッチした位置を表示制御装置8に入力する。例えば、入力部14は、キーボード、マウス、タッチパネルに対応する。
【0020】
記憶部15は、番組情報151および出演者情報152を記憶する。記憶部15は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
【0021】
番組情報151は、EPGで提供される番組情報である。番組情報151は、EITで構成される。ここで、番組情報151のデータ構造について、図2を参照して説明する。図2に示すように、番組情報151には、番組名151a、項目名151b、項目内容151cが対応付けられる。
【0022】
項目名151bおよび項目内容151cは、項目名151bの数分だけ繰り返される。番組名151aは、番組の名称であり、例えば96バイト以下且つ全角40文字以下で表される。項目名151bは、番組に関する各種項目の名称であり、例えば16バイト以下且つ全角8文字以下で表される。項目名151bに挙げられる語句には、例えば出演者を示す「出演」、司会者を示す「司会」のほか、キャスター、リポーター、解説者、コメンテーター、アナウンサー、実況、ナレーター、声の出演、通訳、ゲストなどがある。項目内容151cは、項目名に対応する項目の内容であり、例えば440バイト以下且つ全角200文字以下で表される。
【0023】
番組情報151は、例えば以下のようなデータ構造となる。項目名151bは、‘[ ]’や‘《 》’のような括弧で括るものとする。図2の例では、‘[ ]’を採用している。また、番組名151aと項目名151bの区切り、項目内容151cと項目名151bの区切りは、‘、’や‘,’のような区切り文字を使用する。図2の例では、‘、’を採用している。
【0024】
一例として、番組名151aが「ABCDEF」である場合、1つ目の項目名151bとして「[出演]」、項目内容151cとして「山田太郎」を記述している。2つめの項目名151bとして「[出演]」、項目内容151cとして「山田次郎」と記述している。3つめの項目名151bとして「[キャスター]」、項目内容151cとして「山田花子」と記述している。
【0025】
出演者情報152は、番組に出演する出演者に関する情報である。ここで、出演者情報152のデータ構造について、図3を参照して説明する。図3に示すように、出演者情報152には、出演者名152a、出演者画像152b、特徴情報152cが対応付けられる。出演者名152aは、出演者の名前である。出演者画像152bは、出演者名152aで示される出演者の顔の静止画像である。特徴情報152cは、出演者の特徴情報であり、例えば生年月日、出身地、出演者に関連するサイトのURL(Uniform Resource Locator)を含む。出演者情報152に含まれる各種の情報は、情報取得部164によってネットワーク7を介して取得され、データ管理部165によって管理される。
【0026】
一例として、出演者名152aが「山田太郎」である場合、出演者画像152bに山田太郎の顔画像が記憶される。また、特徴情報152cに生年月日として「1985年7月1日生まれ」、出身地として「東京都出身」、出演者に関連するサイトとして「http://〜yamadataro」が記憶される。
【0027】
制御部16は、映像処理部161、映像出力部162、データ処理部163、情報取得部164、データ管理部165、表示情報生成部166および顔認識部167を有する。例えば、制御部16は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部16は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路に対応する。
【0028】
映像処理部161は、チューナ11から出力された映像データを映像処理し、映像処理した映像データを映像出力部162に出力する。映像出力部162は、映像処理部161によって映像処理された映像データを表示部13に出力する。
【0029】
データ処理部163は、チューナ11から出力された番組情報をデータ処理し、データ処理した番組情報を情報取得部164に出力する。
【0030】
情報取得部164は、データ処理部163から番組情報を取得し、取得した番組情報を解析し、解析した番組情報からキーワードとなる出演者名を抽出する。例えば、情報取得部164は、番組情報から番組に出演している人物の人物名(項目内容)を抽出する。
【0031】
また、情報取得部164は、番組の映像を配信する配信経路と異なる経路から、番組情報から抽出した人物名をキーワードとして、人物名の顔の静止画像を取得する。すなわち、情報取得部164は、番組の映像を配信する放送局2とは異なる場所から、キーワードである人物名の顔の静止画像を取得する。例えば、情報取得部164は、ネットワーク7に接続された検索エンジン5を利用し、抽出した人物名をキーワードとした人物名の顔の静止画像を検索する。また、情報取得部164は、抽出した人物名および人物名から検索した静止画像をキーワードとして、ネットワーク7に接続された情報提供サーバ6からキーワードとした人物名の人物に関する情報を検索する。人物に関する情報として、生年月日、出身地、人物名の人物に関連するサイトが含まれる。
【0032】
なお、情報取得部164は、番組情報に含まれる番組自体が放送局2から配信されるまでに、当該番組情報を取得する。そして、情報取得部164は、番組情報に含まれる番組自体が配信されるまでに、当該番組に係る人物に関する情報を検索し、検索した情報を後述するデータ管理部165によって記憶部15に記憶する。
【0033】
データ管理部165は、情報取得部164で解析された番組情報を、記憶部15の番組情報151に記憶する。また、データ管理部165は、情報取得部164で検索された人物の顔の静止画像や人物に関する情報を出演者情報として、記憶部15の出演者情報152に記憶する。また、データ管理部165は、後述する表示情報生成部166から各種データの要求があると、要求されるデータを出演者情報152から読み出し、読み出したデータを引き渡す。
【0034】
表示情報生成部166は、後述する顔認識部167に、映像の画像に対して指定された位置の最も近くにある顔画像を検出させ、検出させた顔画像について顔認識をさせる。そして、表示情報生成部166は、顔認識の結果を受けて、照合が一致した顔画像の人物(出演者名)を、出演者情報152に記憶された出演者画像に基づいて特定する。そして、表示情報生成部166は、特定した人物に対する特徴情報を表示させるべく、出演者情報152に記憶された特徴情報に基づいて表示情報を生成する。
【0035】
また、表示情報生成部166は、データ処理部163から番組情報を取得し、取得した番組情報に記載された出演者などを所定のスイッチ操作があったとき表示させるべく、番組情報に記載された情報を含んだ表示情報を生成する。
【0036】
顔認識部167は、動画の画像に対して指定された位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。例えば、顔認識部167は、表示部13に表示された映像の画像に対して入力部14によってタッチされると、タッチされた画像のフレームの種類に応じて、当該フレームの近くの基本フレーム(以下、Iフレームともいう。)を特定する。そして、顔認識部167は、タッチされた画像中の指定座標に対応するIフレームの座標を算出する。
【0037】
ここで、圧縮方式がMPEG2である場合の映像のフレーム構成について説明する。図4は、MPEG2のフレーム構成を説明する図である。図4に示すように、MPEG2のフレームは、Iフレーム(Intra-coded Frame)と、Pフレーム(Predicted Frame)と、Bフレーム(Bidirectional Predicted Frame)の3種類のフレームを有する。
【0038】
Iフレームは、単一フレームだけで圧縮され、復号(デコード)結果の品質が高くなるように生成される。すなわち、Iフレームは、フレーム間予測を用いずに符号化されるフレームである。Pフレームは、時間軸順方向(前方向)のフレーム間予測により、Iフレームを参照し、参照したフレームからの差分情報で生成される。ビットレートの配分によってデコード結果の品質はIフレームと比較して低くなる場合がある。Bフレームは、時間軸順方向(前方向)および逆方向(後方向)のフレーム間予測により、前後のPフレームまたは前後のIフレームを参照し、参照したフレームからの差分情報で生成される。デコードの結果の品質はIフレームやPフレームと比較して低くなる。
【0039】
このようなMPEG2のフレーム構成の下、オリジナルフレームが順方向に4フレーム(フレーム1〜4)あるとする。この場合、MPEG2では、例えば順方向の一番前のオリジナルのフレーム1がIフレームとして生成される。したがって、顔認識部167は、表示部13に表示された映像のIフレームに対してタッチされると、タッチされたIフレームを特定する。
【0040】
また、Pフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とオリジナルのフレーム4との差分情報で生成される。したがって、顔認識部167は、表示部13に表示された映像のPフレームに対してタッチされると、Pフレームが参照するIフレームを特定する。
【0041】
また、最初のBフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とPフレームを生成する4番目のオリジナルのフレーム4とオリジナルのフレーム2との差分情報で生成される。さらに、次のBフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とPフレームを生成する4番目のオリジナルのフレーム4とオリジナルのフレーム3との差分情報で生成される。したがって、顔認識部167は、表示部13に表示された映像のBフレームに対してタッチされると、Bフレームが参照するPフレームを特定し、さらにPフレームが参照するIフレームを特定する。
【0042】
なお、フレーム間予測では、フレーム間の動きを補う「動き補償」の技術が用いられている。この動き補償を行うために、画像間の動きがあった部分(ブロック)の動き量を推定する「動きベクトル」を差分情報に含んで符号化される。例えば、Pフレームの動き補償が行われたブロック(以降、動き補償ブロックという。)と動きベクトルについて、図5を参照して説明する。図5は、Pフレームの動き補償ブロックと動きベクトルを説明する図である。ここでは、PフレームがIフレームを参照しているものとする。Pフレームの動き補償ブロックは、参照するIフレームの動きがあった動き補償ブロックから動きベクトル分プラスに移動した位置となる。図5の例では、Iフレームの動きがあった動き補償ブロックB1を(xa1、ya1)と(xb1、yb1)から生成される矩形とし、動きベクトルV12を(xa2−xa1、ya2−ya1)とする。すると、Pフレームの動き補償ブロックB2は、(xa2、ya2)と(xb2、yb2)から生成される矩形となる。言い換えると、Pフレームが参照するIフレームの動き補償ブロックB1は、Pフレームの動き補償ブロックB2から動きベクトルV12分マイナスに移動した位置、つまり戻した位置となる。
【0043】
続いて、図5と同じ条件において、Pフレームがタッチされた場合のタッチされた座標に対応するIフレームの座標の計算方法について、図6を参照して説明する。図6および図7は、Pフレームがタッチされた場合のIフレームに対応する座標を計算する方法を説明する図である。図6では、動き補償ブロック内の座標がタッチされた場合についての説明であり、図7では、動き補償ブロック外の座標がタッチされた場合についての説明である。
【0044】
図6に示すように、顔認識部167は、タッチされた座標P2がPフレームの動き補償ブロックB2内である場合、動きベクトルV12を使ってIフレームに対応する座標P1を計算する。すなわち、顔認識部167は、Pフレームの動き補償ブロックB2内にタッチされた座標P2から動きベクトルV12分マイナスに移動した位置、つまり戻した位置をIフレームの対応する座標P1として算出する。
【0045】
図7に示すように、顔認識部167は、タッチされた座標P3がPフレームの動き補償ブロックB2外である場合、座標P3が動きのあった部分でないので、タッチされた座標P3と同じ座標をIフレームの対応する座標として算出する。
【0046】
図1に戻って、顔認識部167は、特定したIフレーム内にある顔と認識できるオブジェクトを全て検出したうえで、検出したオブジェクトの中からIフレームの対応する座標の最も近くにあるオブジェクトを検出する。また、顔認識部167は、検出したオブジェクトを、出演者情報152に記憶された出演者画像と照合して顔認識を行い、顔認識の結果を表示情報生成部166に通知する。
【0047】
また、顔認識部167は、タッチされた座標について、経時的に変化する各フレームに対応する座標を計算する。例えば、顔認識部167は、タッチされた画像のフレームの種類に応じて、タッチされた画像中の指定座標に対応する各フレームの座標を算出する。
【0048】
ここで、Pフレームがタッチされた場合のタッチされた座標に対応する各フレームの座標の計算方法について、図8を参照して説明する。図8は、各フレームの対応座標を計算する方法を説明する図である。なお、タッチされたフレームはPフレームであり、タッチされた座標は、動き補償ブロックB31内の座標P00(xa0、ya0)である場合について説明する。
【0049】
図8に示すように、顔認識部167は、タッチされた座標P00がPフレームの動き補償ブロックB31内であるので、動きベクトルを使ってIフレームに対応する座標P01(xa1、ya1)を計算し、計算した座標を開始フレームの座標とする。すなわち、顔認識部167は、Pフレームの動き補償ブロックB31内にタッチされた座標P00から動きベクトル分マイナスに移動した位置、つまり戻した位置をIフレームの対応する座標P01として算出する。
【0050】
次に、顔認識部167は、開始フレーム以降の各Pフレームの対応座標を開始フレームの座標P00と各Pフレームの動きベクトルとから算出する。図8では、顔認識部167は、開始フレームの次のPフレームの対応座標について、開始フレームの座標P00と動きベクトルとから座標P02(xa2、ya2)を算出する。同様に、顔認識部167は、次のIフレーム前までの他のPフレームの対応座標を算出する。図8では、顔認識部167は、タッチされたPフレームの次のPフレームの対応座標をP04(xa4、ya4)と算出し、さらに次のPフレームの対応座標をP05(xa5、ya5)と算出する。そして、顔認識部167は、開始フレームの対応座標P01と最後のPフレームの対応座標P05とから算出される対応座標の移動量に基づいて、次のIフレームの対応座標P06(xa6、ya6)を予測する。図8では、顔認識部167は、以下のように予測できる。
xa6=xa1+(xa5−xa1)×5/4
ya6=ya1+(ya5−ya1)×5/4
【0051】
図1に戻って、顔認識部167は、さらに、経時的に変化する各フレームの、情報を表示する座標をそれぞれ計算する。例えば、顔認識部167は、検出したオブジェクトと重複する領域外の座標を、情報を表示する座標として算出する。例えば、顔認識部167は、開始フレームについて、検出したオブジェクトの位置と、タッチされた座標に対応する対応座標とに基づいて、検出したオブジェクトの位置と重ならないように情報を表示する座標を算出する。一例として、顔認識部167は、開始フレームについて、タッチされた座標に対応する対応座標が、検出したオブジェクトの位置と重ならない場合、情報を表示する座標を対応座標とする。また、顔認識部167は、開始フレームについて、タッチされた座標に対応する対応座標が、検出したオブジェクトの位置と重なる場合、情報を表示する座標を検出したオブジェクトの位置と重ならない座標にする。そして、顔認識部167は、開始フレームの情報を表示する座標と各フレームの動き補償とを利用して、各フレームの情報を表示する座標を算出する。なお、Iフレームの情報を表示する座標に対応する各フレームの座標を計算する方法については、図8で示したように、タッチされた座標に対応する各フレームの座標の計算方法と同様であるので、その説明を省略する。
【0052】
また、顔認識部167は、各フレームの情報を表示する座標を含む算出結果を表示情報生成部166に通知する。
【0053】
[実施例に係る情報取得部の処理手順]
次に、実施例に係る情報取得部の処理手順を、図9を参照して説明する。図9は、実施例に係る情報取得部の処理手順を示すフローチャートである。
【0054】
まず、情報取得部164は、番組情報を取得したか否かを判定する(ステップS11)。番組情報を取得していないと判定した場合(ステップS11;No)、情報取得部164は、番組情報を取得するまで判定処理を繰り返す。一方、番組情報を取得したと判定した場合(ステップS11;Yes)、情報取得部164は、取得した番組情報から出演者名を抽出する。
【0055】
そして、情報取得部164は、番組の映像を配信する配信経路と異なる経路から、番組情報から抽出した出演者名をキーワードとして、出演者の静止画と出演者に関する情報を検索する(ステップS12)。例えば、情報取得部164は、ネットワーク7に接続された検索エンジン5を利用し、出演者名をキーワードとして出演者名の顔の静止画像を検索する。そして、情報取得部164は、出演者名および検索した静止画像をキーワードとして、ネットワーク7に接続された情報提供サーバ6から出演者に関する情報を検索する。
【0056】
そして、情報取得部164は、検索した情報を、データ管理部165を通じて出演者情報152に記憶する(ステップS13)。すなわち、出演者情報152には、出演者の顔の静止画像や出演者に関する情報が記憶される。
【0057】
[実施例に係る顔認識部の処理手順]
次に、実施例に係る顔認識部の処理手順を、図10〜図12を参照して説明する。図10〜図12は、実施例に係る顔認識部の処理手順を示すフローチャートである。なお、表示部13に番組の映像が表示されているものとする。
【0058】
まず、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったか否かを判定する(ステップS201)。タッチ入力がなかったと判定した場合(ステップS201;No)、顔認識部167は、タッチ入力があるまで判定処理を繰り返す。一方、タッチ入力があったと判定した場合(ステップS201;Yes)、顔認識部167は、タッチ入力で指定された座標の最も近くの基本フレーム(Iフレーム)を特定し、指定された座標に対応する基本フレームの座標を計算する(ステップS202)。
【0059】
そして、顔認識部167は、特定した基本フレームで顔認識処理を行う(ステップS203)。例えば、顔認識部167は、特定した基本フレームで顔と認識できるオブジェクトを全て検出したうえで、検出したオブジェクトの中から、計算した基本フレームの座標の最も近くにあるオブジェクトを検出する。そして、顔認識部167は、検出したオブジェクトを、出演者情報152の出演者画像と照合して顔認識を行う。
【0060】
続いて、顔認識部167は、タッチ入力で指定された座標について、経時的に変化する各フレームの対応座標を計算する(ステップS204)。さらに、顔認識部167は、経時的に変化する各フレームの、情報を表示する座標をそれぞれ計算する(ステップS205)。例えば、顔認識部167は、基本フレームで検出したオブジェクトの位置と、各フレームの対応座標と、フレーム間の動き補償とを利用して、情報を表示する座標を計算する。
【0061】
そして、顔認識部167は、表示情報生成部166に結果を通知する(ステップS206)。すなわち、顔認識部167は、顔認識の結果および各フレームの情報を表示する座標の計算結果を表示情報生成部166に通知する。
【0062】
その後、顔認識部167は、表示制御処理を終了したか否かを判定する(ステップS207)。表示制御処理を終了していないと判定した場合(ステップS207;No)、顔認識部167は、ステップS201に移行する。一方、表示制御処理を終了したと判定した場合(ステップS207;Yes)、顔認識部167は、顔認識処理を終了する。
【0063】
[Iフレームの対応座標計算処理]
次に、図10のステップS202に示した、指定された座標に対応するIフレームの対応座標計算処理について、図11を参照して説明する。
【0064】
まず、顔認識部167は、タッチされたフレームの種類がPフレームであるか否かを判定する(ステップS21)。タッチされたフレームの種類がPフレームであると判定した場合(ステップS21;Yes)、顔認識部167は、Pフレームが参照するIフレームを特定する(ステップS22)。さらに、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS23)。タッチされた座標が動き補償ブロック内である場合(ステップS23;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出する(ステップS24)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS23;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とする(ステップS25)。そして、顔認識部167は、タッチされたフレームの種類がPフレームであった場合のIフレームの対応座標計算処理を終了する。
【0065】
ステップS21に戻って、タッチされたフレームの種類がPフレームでないと判定した場合(ステップS21;No)、顔認識部167は、タッチされたフレームの種類がBフレームであるか否かを判定する(ステップS26)。タッチされたフレームの種類がBフレームでないと判定した場合(ステップS26;No)、顔認識部167は、タッチされたフレームの種類をIフレームと特定し、タッチされた座標をIフレームの対応座標とする(ステップS27)。そして、顔認識部167は、タッチされたフレームの種類がIフレームであった場合のIフレームの対応座標計算処理を終了する。
【0066】
ステップS26に戻って、タッチされたフレームの種類がBフレームであると判定した場合(ステップS26;Yes)、顔認識部167は、Bフレームが参照する前方のIフレームまたはPフレームを選択する(ステップS28)。そして、顔認識部167は、選択した参照フレームがIフレームであるか否かを判定する(ステップS29)。参照フレームがIフレームであると判定した場合(ステップS29;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS30)。タッチされた座標が動き補償ブロック内である場合(ステップS30;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出する(ステップS31)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS30;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とする(ステップS32)。そして、顔認識部167は、ステップS40に移行する。
【0067】
一方、Iフレームでない、すなわちPフレームであると判定した場合(ステップS29;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS33)。タッチされた座標が動き補償ブロック内である場合(ステップS33;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS34)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS33;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS35)。
【0068】
続いて、顔認識部167は、Pフレームが参照するIフレームを特定する(ステップS36)。さらに、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS37)。タッチされた座標が動き補償ブロック内である場合(ステップS37;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し(ステップS38)、ステップS40に移行する。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS37;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とし(ステップS39)、ステップS40に移行する。
【0069】
ステップS40では、顔認識部167は、Bフレームが参照する後方のフレームを選択したか否かを判定する(ステップS40)。Bフレームが参照する後方のフレームを選択していないと判定した場合(ステップS40;No)、顔認識部167は、Bフレームが参照する後方のIフレームまたはPフレームを選択する(ステップS41)。そして、顔認識部167は、Iフレームの対応座標計算処理を継続すべく、ステップS29に移行する。一方、Bフレームが参照する後方のフレームを選択したと判定した場合(ステップS40;Yes)、顔認識部167は、タッチされたフレームの種類がBフレームであった場合のIフレームの対応座標計算処理を終了する。
【0070】
[各フレームの対応座標計算処理]
次に、図10のステップS204に示した、指定された座標に対応する各フレームの対応座標計算処理について、図12を参照して説明する。
【0071】
まず、顔認識部167は、タッチされたフレームの種類がIフレームであるか否かを判定する(ステップS51)。タッチされたフレームの種類がIフレームであると判定した場合(ステップS51;Yes)、顔認識部167は、タッチされたフレームを開始フレーム、次のIフレームを終了フレームとする(ステップS52)。そして、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS53)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。
【0072】
ステップS51に戻って、タッチされたフレームの種類がIフレームでないと判定した場合(ステップS51;No)、顔認識部167は、タッチされたフレームの種類がPフレームであるか否かを判定する(ステップS54)。タッチされたフレームの種類がPフレームであると判定した場合(ステップS54;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS55)。タッチされた座標が動き補償ブロック内である場合(ステップS55;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を開始フレームの座標とする(ステップS56)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS55;No)、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS57)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。
【0073】
ステップS54に戻って、タッチされたフレームの種類がPフレームでないと判定した場合(ステップS54;No)、顔認識部167は、タッチされたフレームがBフレームであるか否かを判定する(ステップS58)。タッチされたフレームがBフレームでないと判定した場合(ステップS58;No)、顔認識部167は、フレームが未知の種類であるので、処理を終了する。
【0074】
一方、タッチされたフレームがBフレームであると判定した場合(ステップS58;Yes)、顔認識部167は、前方の参照フレームがIフレームであるか否かを判定する(ステップS59)。前方の参照フレームがIフレームであると判定した場合(ステップS59;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS60)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS60;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を開始フレームの座標とする(ステップS61)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS60;No)、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS62)。
【0075】
ステップS59に戻って、前方の参照フレームがIフレームでない、すなわちPフレームであると判定した場合(ステップS59;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS63)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS63;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS64)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS63;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS65)。
【0076】
さらに、顔認識部167は、Pフレームが参照するIフレームを選択する(ステップS66)。そして、顔認識部167は、Pフレームの対応座標が動き補償ブロック内であるか否かを判定する(ステップS67)。Pフレームの対応座標が動き補償ブロック内であると判定した場合(ステップS67;Yes)、顔認識部167は、動きベクトルを使って、Iフレームの対応座標を算出し、算出した座標を開始フレームの座標候補1とする(ステップS68)。一方、Pフレームの対応座標が動き補償ブロック内でないと判定した場合(ステップS67;No)、顔認識部167は、Pフレームの対応座標を開始フレームの座標候補1とする(ステップS69)。
【0077】
次に、顔認識部167は、後方の参照フレームがIフレームであるか否かを判定する(ステップS70)。後方の参照フレームがIフレームであると判定した場合(ステップS70;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS71)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS71;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を終了フレームの座標とする(ステップS72)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS71;No)、顔認識部167は、タッチされた座標を終了フレームの座標とする(ステップS73)。
【0078】
ステップS70に戻って、後方の参照フレームがIフレームでない、すなわちPフレームであると判定した場合(ステップS70;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS74)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS74;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS75)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS74;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS76)。
【0079】
さらに、顔認識部167は、Pフレームが参照するIフレームを選択する(ステップS77)。そして、顔認識部167は、Pフレームの対応座標が動き補償ブロック内であるか否かを判定する(ステップS78)。Pフレームの対応座標が動き補償ブロック内であると判定した場合(ステップS78;Yes)、顔認識部167は、動きベクトルを使って、Iフレームの対応座標を算出し、算出した座標を開始フレームの座標候補2とする(ステップS79)。一方、Pフレームの対応座標が動き補償ブロック内でないと判定した場合(ステップS78;No)、顔認識部167は、Pフレームの対応座標を開始フレームの座標候補2とする(ステップS80)。
【0080】
そして、顔認識部167は、開始フレームの座標候補1と座標候補2から動き補償ブロックが指定されている方を選択し、選択した座標候補を開始フレームの座標とする(ステップS81)。
【0081】
続いて、顔認識部167は、開始フレームから終了フレームまでの開始フレーム以降のPフレームの対応座標を、動き補償を利用して算出する(ステップS82)。そして、顔認識部167は、タッチされた座標に対応する終了フレームの対応座標を算出する(ステップS83)。例えば、顔認識部167は、タッチされた座標に対応する開始フレームの対応座標と、最後のPフレームの対応座標とから算出される対応座標の移動量に基づいて、終了フレームの対応座標を予測する。
【0082】
そして、顔認識部167は、タッチされた座標に対応するBフレームの対応座標を算出する(ステップS84)。例えば、顔認識部167は、開始フレーム、終了フレームおよびPフレームの対応座標と、動き補償とを利用して算出する。そして、顔認識部167は、各フレームの対応座標計算処理を終了する。
【0083】
[表示制御装置の表示画面の一例]
次に、表示制御装置8の表示画面の一例について、図13を参照して説明する。図13は、実施例に係る表示制御装置の表示画面の一例を示す図である。なお、表示されている映像に係る番組の人物に関する情報は、番組が配信される前に記憶部15の出演者情報152に記憶されたものとする。図13に示すように、顔認識部167は、表示部13に表示されている映像の画像G1に対してタッチ入力があったか否かを判定し、ここでは、タッチ入力があったものと判定する。そして、顔認識部167は、タッチ入力で指定された座標をP11とする。
【0084】
そして、顔認識部167は、タッチ入力で指定された座標P11の最も近くにある画像G1中の顔と認識できるオブジェクトを検出する。ここでは、顔認識部167は、座標P11の最も近くにある画像G1中の顔と認識できるオブジェクトO1を検出する。そして、顔認識部167は、検出したオブジェクトO1を、記憶部15に記憶された出演者情報152の出演者画像と照合して顔認識を行う。
【0085】
そして、表示情報生成部166は、顔認識部167による顔認識の結果、照合が一致した顔の人物を出演者情報152に基づいて特定し、特定した人物に対する特徴情報を顔の位置と重ならないように表示部13に表示させる。ここでは、画像G2にオブジェクトO1に相当する顔の位置と重ならないように、出演者名「・・・・さん」および出演者に関連するサイト「http:://・・・」が表示される。
【0086】
なお、顔認識部167は、動画の画像に対してタッチされると、タッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。この場合、顔認識部167は、動画の画像に対してタッチされても、配信される動画の表示速度を変えない(1倍速)で、タッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。しかしながら、顔認識部167は、これに限定されず、動画の画像に対してタッチされると、タイムシフト状態に移行し、移行した状態でタッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出しても良い。ここで、タイムシフト状態とは、表示画面を一時停止し、配信されている動画を一時的に録画する状態をいう。タイムシフト状態であっても、顔認識部167は、1倍速の場合と同様、タッチされたフレームが参照するIフレームを特定し、特定したIフレームを用いてタッチされた位置の最も近くにある顔画像を検出すれば良い。
【0087】
また、顔認識部167は、動画の画像に対してタッチされると、ゆっくり表示する状態に移行し、移行した状態でタッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出しても良い。ゆっくり表示する状態であっても、顔認識部167は、1倍速の場合と同様、タッチされたフレームが参照するIフレームを特定し、特定したIフレームを用いてタッチされた位置の最も近くにある顔画像を検出すれば良い。
【0088】
[実施例の効果]
上記実施例によれば、表示制御装置8は、配信される動画に含まれる、出演者の顔の静止画像および出演者の人物に関する情報を、動画を配信する配信経路と異なる経路から検索する。そして、表示制御装置8は、検索された出演者の顔画像および人物に関する情報を出演者毎に出演者情報152に記憶する。そして、表示制御装置8は、動画の画像に対して指定された位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像に基づいて、検出された顔画像の人物を特定する。そして、表示制御装置8は、特定した人物に関する情報を表示する。かかる構成によれば、表示制御装置8は、配信される動画に含まれる出演者の顔画像および人物に関する情報を、動画を配信する配信経路と異なる経路にある検索エンジン5などから検索して出演者情報152に記憶することとした。このため、表示制御装置8は、動画で指定された位置の最も近くにある顔画像との比較に出演者情報152の顔画像を用いることにより該当する顔画像の人物に関する情報を、動画を配信する放送局2に依存しないで、どんな動画に対しても汎用的に表示できる。つまり、表示制御装置8は、動画に出演している出演者の中で視聴者が所望の出演者の情報を、放送局2に依存しないで、どんな動画であっても提供できる。
【0089】
また、上記実施例によれば、表示制御装置8は、動画に含まれる出演者の名前を放送局2から取得し、取得した出演者の名前をキーワードとして、当該出演者の名前に対応する人物の顔画像および人物に関する情報を検索する。かかる構成によれば、表示制御装置8は、動画に含まれる出演者の名前を用いて、出演者の名前に対応する人物の顔画像および人物に関する情報を検索することとしたので、容易に出演者の名前に対応する人物に関する情報を取得できる。
【0090】
また、上記実施例によれば、表示制御装置8は、位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの当該位置に対応する位置を算出する。そして、表示制御装置8は、特定した基本フレームを用いて算出した位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像と、検出された顔画像とを照合して人物を特定する。かかる構成によれば、表示制御装置8は、位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを用いて該当する顔画像を検出するので、出演者情報152に記憶された出演者の顔画像と精度良く照合することができる。この結果、表示制御装置8は、指定した位置の最も近くにある顔画像の人物に関する正確な情報を提供できる。
【0091】
また、上記実施例によれば、表示制御装置8は、動画に含まれる出演者名を動画が配信されるまでに取得し、取得した出演者名をキーワードとして、当該出演者名に対応する人物の顔画像および人物に関する情報を、動画が配信されるまでに検索する。そして、表示制御装置8は、検索された出演者の顔画像および人物に関する情報を出演者毎に出演者情報152に記憶する。かかる構成によれば、表示制御装置8は、動画が配信されるまでに、動画に含まれる出演者名を取得し、取得した出演者名をキーワードとした情報を検索することとした。このため、表示制御装置8は、実際に動画が配信されたときに出演者情報152に反映されていれば、出演者情報152を用いて視聴者が所望の出演者の情報を高速に表示できる。
【0092】
また、上記実施例によれば、表示制御装置8は、動画の画像に対して位置が指定されると、一時停止してタイムシフト状態に移行し、移行した状態で指定された位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像に基づいて、検出された顔画像の人物を特定する。かかる構成によれば、表示制御装置8は、タイムシフト状態に移行した場合であっても、検出した顔画像の人物を、出演者情報152に記憶された顔画像に基づいて特定できる。このため、表示制御装置8は、特定した顔画像の人物について、動画が配信される放送局2に依存しないで、どんな動画に対しても汎用的に表示することが可能となる。
【0093】
なお、上記実施例では、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の最も近くにある顔画像を検出し、検出した顔画像を出演者情報152の出演者画像と照合して顔認識を行う。そして、表示情報生成部166が、顔認識部167による顔認識の結果、照合が一致した顔の人物を出演者情報152に基づいて特定し、特定した人物に対する特徴情報を表示部13に表示させる。しかしながら、表示情報生成部166は、表示部13に表示させる対象を人物に対する情報に代えて、商品に対する情報としても良い。この場合、放送局2から配信される番組情報に、商品名を含むようにする。そして、情報取得部164は、番組情報を取得し、取得した番組情報を解析し、解析した番組情報からキーワードとなる商品名を抽出する。そして、情報取得部164は、例えばテレビショッピング等の番組を配信する配信経路と異なる経路から、商品名をキーワードとして、商品名の商品の静止画像やその他の特徴情報を取得し、出演者情報152に相当する商品情報に記憶する。そして、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の最も近くにある商品の画像を検出し、検出した商品の画像を商品情報の商品の静止画像と照合してパターン認識を行う。そして、表示情報生成部166が、顔認識部167によるパターン認識の結果、照合が一致した商品を商品情報に基づいて特定し、特定した商品に対する特徴情報を表示部13に表示させるようにすれば良い。
【0094】
また、上記実施例では、表示制御装置8は、動画を対象にし、動画の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにした。しかしながら、表示制御装置8は、静止画を対象にし、静止画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにしても良い。
【0095】
また、上記実施例では、表示制御装置8は、放送局2から配信された映像を対象にし、映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにした。しかしながら、表示制御装置8は、ビデオから供給された映像を対象にし、映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにしても良い。この場合、情報取得部164は、映像が供給される供給経路と異なる経路にある情報提供サーバ6から、再生するビデオのタイトルをキーワードとして、タイトルに対応する番組情報を取得する。そして、情報取得部164は、取得した番組情報を解析し、解析した番組情報からキーワードとなる人物名を抽出すれば良い。これにより、表示制御装置8は、再生するビデオの映像に含まれる人物の人物名を用いて、人物名に対応する人物の顔画像および人物に関する情報を検索でき、容易にこれらの情報を取得できる。この結果、表示制御装置8は、ビデオの動画に出演している出演者の中で視聴者が所望の出演者の情報を、映像の供給元のビデオに依存しないで、どんな動画であっても提供できる。
【0096】
[プログラムなど]
なお、表示制御装置8は、既知のパーソナルコンピュータ、ワークステーションなどの情報処理装置に、上記した情報取得部164、データ管理部165、表示情報生成部166および顔認識部167などの各機能を搭載することによって実現することができる。
【0097】
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報取得部164とデータ管理部165とを1個の部として統合しても良い。一方、顔認識部167を、指定座標の基本フレームに対応する座標を計算する計算部と、基本フレームで顔認識する顔認識部と、指定座標の各フレームに対応する座標を計算する計算部と、表示座標の各フレームに対応する座標を計算する計算部とに分散しても良い。また、出演者情報152などを記憶する記憶部を表示制御装置8の外部装置としてネットワーク7経由で接続するようにしても良い。
【0098】
また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図14を用いて、図1に示した表示制御装置8の制御部16と同様の機能を有する表示制御プログラムを実行するコンピュータの一例を説明する。
【0099】
図14は、表示制御プログラムを実行するコンピュータの一例を示す図である。図14に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータなどとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。さらに、コンピュータ200は、放送局から配信された放送データを受信するチューナ208を有する。そして、各装置201〜208は、バス209に接続される。
【0100】
ハードディスク装置207には、図1に示した制御部16と同様の機能を有する表示制御プログラム207aが記憶される。また、ハードディスク装置207には、図1に示した記憶部15に記憶された各種情報に対応する表示制御関連情報207bが記憶される。
【0101】
そして、CPU201が表示制御プログラム207aをハードディスク装置207から読み出してRAM206に展開することにより、表示制御プログラム207aは、表示制御プロセス206aとして機能するようになる。そして、表示制御プロセス206aは、表示制御関連情報207bから読み出した情報などを適宜RAM206上の自身に割り当てられた領域に展開し、この展開したデータなどに基づいて各種データ処理を実行する。
【0102】
なお、表示制御プログラム207aや表示制御関連情報207bについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に表示制御プログラム207aなどを記憶させておく。そして、コンピュータ200がこれらから表示制御プログラム207aなどを読み出して実行するようにしても良い。
【0103】
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
【0104】
(付記1)供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、
前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、
前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、
前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、
前記特定部によって特定された人物に対する特徴データを表示する表示部と
を有することを特徴とする表示制御装置。
【0105】
(付記2)前記取得部は、前記画像に含まれる人物の名前を前記画像が供給される供給経路または当該供給経路と異なる経路から取得し、取得した人物の名前から当該名前に対応する人物の画像データおよび特徴データを取得することを特徴とする付記1に記載の表示制御装置。
【0106】
(付記3)前記取得部は、前記位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの前記位置に対応する位置を算出し、特定した基本フレームを用いて前記算出した位置の最も近くにある顔画像を検出し、
前記特定部は、前記人物の画像データと、前記検出部によって検出された顔画像とを照合して人物を特定する
ことを特徴とする付記1または付記2に記載の表示制御装置。
【0107】
(付記4)前記取得部は、前記画像に含まれる人物の名前を前記画像が配信されるまでに取得し、取得した人物の名前から名前に対応する人物の画像データおよび特徴データを取得することを特徴とする付記2に記載の表示制御装置。
【0108】
(付記5)前記検出部は、前記画像に対して前記位置が指定されると、一時停止してタイムシフト状態に移行し、移行した状態で指定された前記位置の最も近くにある顔画像を検出することを特徴とする付記1から付記4のいずれか1つに記載の表示制御装置。
【0109】
(付記6)コンピュータに、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を実行させる表示制御プログラム。
【0110】
(付記7)コンピュータが表示を制御する表示制御方法であって、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を含むことを特徴とする表示制御方法。
【符号の説明】
【0111】
1 表示制御システム
2 放送局
3 映像サーバ
4 番組情報サーバ
5 検索エンジン
6 情報提供サーバ
7 ネットワーク
8 表示制御装置
11 チューナ
12 ネットワークインタフェース部
13 表示部
14 入力部
15 記憶部
151 番組情報
152 出演者情報
16 制御部
161 映像処理部
162 映像出力部
163 データ処理部
164 情報取得部
165 データ管理部
166 表示情報生成部
167 顔認識部

【特許請求の範囲】
【請求項1】
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、
前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、
前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、
前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、
前記特定部によって特定された人物に対する特徴データを表示する表示部と
を有することを特徴とする表示制御装置。
【請求項2】
前記取得部は、前記画像に含まれる人物の名前を前記画像が供給される供給経路または当該供給経路と異なる経路から取得し、取得した人物の名前から当該名前に対応する人物の画像データおよび特徴データを取得することを特徴とする請求項1に記載の表示制御装置。
【請求項3】
前記取得部は、前記位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの前記位置に対応する位置を算出し、特定した基本フレームを用いて前記算出した位置の最も近くにある顔画像を検出し、
前記特定部は、前記人物の画像データと、前記検出部によって検出された顔画像とを照合して人物を特定する
ことを特徴とする請求項1または請求項2に記載の表示制御装置。
【請求項4】
前記取得部は、前記画像に含まれる人物の名前を前記画像が配信されるまでに取得し、取得した人物の名前から名前に対応する人物の画像データおよび特徴データを取得することを特徴とする請求項2に記載の表示制御装置。
【請求項5】
コンピュータに、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を実行させる表示制御プログラム。
【請求項6】
コンピュータが表示を制御する表示制御方法であって、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を含むことを特徴とする表示制御方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2013−73392(P2013−73392A)
【公開日】平成25年4月22日(2013.4.22)
【国際特許分類】
【出願番号】特願2011−211468(P2011−211468)
【出願日】平成23年9月27日(2011.9.27)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】