説明

受信機及びプログラム

【課題】放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようにすること。
【解決手段】受信機4は、ネットワークNを介してサービスサーバ3に接続され、放送局1が放送した番組コンテンツを含んだ放送信号を受信する受信機4であって、番組コンテンツのコンテンツ音声情報と、視聴者が番組コンテンツを視聴した時に発した視聴者音声情報と、をミキシングしたミキシング音声情報を生成する関連付け部25と、関連付け部25で生成したミキシング音声情報をサービスサーバ3に送信する通信部14と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、放送と通信の連携を図る機能を有する受信機及びプログラムに関する。
【背景技術】
【0002】
近年、放送のデジタル化と通信のブロードバンド化の進展に伴い、放送通信連携サービスの実現に向けた研究開発が行われている。
【0003】
また、この放送通信連携サービスにおいては、放送と通信という異なる伝送路を用いて複数のコンテンツを配信し、デジタルテレビ等の受信機において、配信された複数のコンテンツを統合して提示する形態が想定される。
【0004】
ところで、現在、データ放送では、XML(eXtensible Markup Language)をベースとした、マルチメディア符号化用に開発されたBML(Broadcast Markup Language)という放送サービスに必要な機能を拡張した言語を用いて、様々なコンテンツが提供されている(特許文献1を参照)。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2003−60931号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
ところで、データ放送では、全ての情報を放送波に多重化させる必要があるため、放送波で送信可能なデータ容量に一定の制限がある。
【0007】
そこで、放送に対して、送信可能なデータ容量に制限のない通信との連携させるシステムの実現が望まれている。
【0008】
特に、このような放送と通信の連携を図るシステムでは、通信により受信機に対して各種サービスを提供するサーバが構築される。
従って、例えば、放送局が放送したコンテンツのうち所定シーンに対する視聴者の視聴状態、例えば当該所定シーンを視聴しているときの視聴者の表情や音声等を、多数の受信機の各々から取得して、サービスに活用するサーバが現れてくることが想定される。
【0009】
この場合、仮に、データ放送等の従来の受信機が対象となっているのであれば、サーバは、所定コンテンツの所定シーンを視聴しているときの多数の視聴者の視聴状態として、所定シーンが放送局から放送された時刻(10時10分等の絶対時刻)における視聴状態を多数の受信機の各々から取得すればよい。
【0010】
しかしながら、放送と通信の連携を図るシステムでは、サーバが、同一時刻(絶対時刻)における視聴状態を多数の受信機の各々から取得したとしても、これらの視聴状態は、同一シーンについてのものであるとは必ずしも限らない。受信機が、放送と通信の同期を内部で取ることがあり、放送によるコンテンツの再生が遅延することがあるためである。即ち、複数の受信機の間では、同一時刻に同一シーンが必ずしも再生されているとは限らないためである。
【0011】
このため、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できる仕組みの実現が要望されている。
【0012】
本発明は、このような状況に鑑みてなされたものであり、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようにすることを1つの目的とする。
【課題を解決するための手段】
【0013】
本発明に係る受信機は、ネットワークを介してサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機であって、前記コンテンツの音声情報と、視聴者が前記コンテンツを視聴した時に発した音声情報と、をミキシングしたミキシング音声情報を生成するミキシング手段と、前記ミキシング手段で生成した前記ミキシング音声情報を前記サーバに送信する通信手段と、を備える構成とした。
【0014】
かかる構成によれば、ミキシング手段は、コンテンツの音声情報と、視聴者がコンテンツを視聴した時に発した音声情報と、をミキシングしたミキシング音声情報を生成する。
通信手段は、ミキシング手段で生成したミキシング音声情報をサーバに送信する。
【0015】
これにより、コンテンツの音声情報と視聴者がコンテンツを視聴した時に発した音声情報とがミキシングされ、サーバに送信される。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
【0016】
この場合、前記コンテンツを視聴した視聴者が発した音声情報を取得するマイクデバイスが接続される外部機器接続手段を備えることが好ましい。
かかる構成によれば、マイクデバイスを備えていない受信機であっても、視聴者が発した音声情報を取得するマイクデバイスを外部機器接続手段に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、受信機がマイクデバイスを備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができる受信機の必須項目からマイクデバイスを除外できるので、当該サービスを受けることができる受信機の普及を促進できる。
【0017】
また、この場合、前記コンテンツを視聴した視聴者が発した音声情報を取得するマイクデバイスを備えることが好ましい。
【0018】
かかる構成によれば、受信機が視聴状態取得手段を備えたので、放送と通信の連携を図るシステムにおいて、別途にマイクデバイスを用意しなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
【0019】
本発明に係るプログラムは、ネットワークを介してサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機を制御するコンピュータを、前記コンテンツの音声情報と、視聴者が前記コンテンツを視聴した時に発した音声情報と、をミキシングしたミキシング音声情報を生成するミキシング手段、前記ミキシング手段により生成された前記ミキシング音声情報を前記サーバに送信する制御を実行する通信手段、として機能させる構成とした。
かかる構成によれば、本発明に係る受信機と同様の作用効果を奏する。
【発明の効果】
【0020】
本発明によれば、放送と通信という異なる伝送路から配信される複数のコンテンツを統合して提示するサービスにおいて、受信機で提示されたコンテンツのシーンと正確に対応した視聴者の視聴状態についての情報を得ることができる受信機及びプログラムを提供できる。
【図面の簡単な説明】
【0021】
【図1】本発明の一実施形態に係る放送通信連携システムの全体構成図である。
【図2】デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。
【図3】放送通信連携システムの概要を示す図である。
【図4】受信機の機能構成を示すブロック図である。
【図5】XML形式で記述されたAITの一例を示す図である。
【図6】デバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。
【図7】デバイス接続部の概念を示す図である。
【図8】視聴状況取得等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図である。
【図9】デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。
【図10】視聴状況取得等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとして受信機の内蔵機器を用いる場合のシーケンス図である。
【図11】関連付け部の機能構成を示すブロック図である。
【図12】図11の関連付け部の処理の流れを説明するフローチャートである。
【発明を実施するための形態】
【0022】
以下、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の一実施形態に係る放送通信連携システム100の全体構成図である。放送通信連携システム100は、放送局1と、放送用アンテナ2と、サービスサーバ3(配信サーバ)と、受信機4とを含んで構成される。この放送通信連携システム100では、受信機4において、ISDB(Integrated Services Digital Broadcasting:統合デジタル放送サービス)方式によって放送局1から提供される放送サービスと、インターネット等により構成される通信ネットワークNを介してサービスサーバ3から提供される通信サービスとが連携される。これにより、放送通信連携サービスが受信機4のユーザに提供される。
本実施形態では、放送通信連携システム100は、Hybridcast(登録商標)システムであるものとする。Hybridcastとは、同報性、高品質、高信頼という放送の特徴と、視聴者の個別の要求に応えることができるという通信の特徴とを生かしたシステムを構築するための仕組みである。Hybridcastシステムは、放送サービスを中心に置きながら、通信の活用によってサービスを強化するという観点で、放送と通信のハイブリッドサービスを実現することができる。
【0023】
放送局1は、番組編成設備と、番組送出設備と、送信設備とを含んで構成される一般的なデジタル放送用の放送設備(図示省略)を備える。
放送局1は、放送設備によって、コンテンツや、イベント情報(Event Information Table:EIT)や、AIT(以下、アプリケーション管理情報とも適宜呼ぶ)等を制作する。そして、放送局1は、放送設備によって、これらコンテンツ、イベント情報及びAIT等を多重化した放送信号を生成し、当該放送信号を放送波に変調して放送用アンテナ2から送信する。
【0024】
このような放送波に含まれるコンテンツとしては、放送スケジュールに従って放送される番組を構成する映像や音声の各データを含むコンテンツ(以下、番組コンテンツと呼ぶ)の他、番組コンテンツとは非同期に発生するコンテンツ、例えば緊急地震速報等を含むコンテンツ(以下、緊急コンテンツと呼ぶ)も存在する。
【0025】
イベント情報は、番組コンテンツの名称、番組コンテンツの放送日時、番組コンテンツの説明等、コンテンツに関するメタ情報を含む。以下、テーブル形式のイベント情報をEITと呼ぶ。
AIT(アプリケーション管理情報)は、受信機4で実行可能な1以上のアプリケーションを管理するための情報である。AITには、1以上のアプリケーションのそれぞれに対応し、当該1以上のアプリケーションのそれぞれを管理するための個別管理情報が含まれる。個別管理情報には、管理対象のアプリケーションを識別するアプリケーションID、当該アプリケーションのライフサイクルを制御するライフサイクル制御情報、当該アプリケーションの所在を示すロケーション情報等が含まれている(後述の図5参照)。
【0026】
アプリケーションにより提供されるコンテンツには、番組コンテンツに連動するコンテンツ及び番組コンテンツに連動しないコンテンツが含まれる。以下、アプリケーションにより提供されるコンテンツをアプリ用コンテンツという。
【0027】
放送信号は、従来のデジタル放送の放送信号と同一であり、ARIB(登録商標)(Association of Radio Industries and Broadcast:社団法人電波産業会)標準規格で規定される。
【0028】
図2は、デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。図2に示すように、デジタル放送によって提供される映像、音声等の各種データは、国際標準規格MPEG−2 Systemsで規定されるTSパケット(トランスポートストリームパケット)に格納されて、時分割で多重伝送される。
【0029】
TSパケットには、図2に示すように、セクション(Section)に対してPSI(Program Specific Information)/SI(Service Information)が規定されている。PSI/SIには、TSパケットに格納されているデータの種別を示す情報や、コンテンツの種別を示す情報が含まれている。上述のEITは、SIに含まれている。
【0030】
TSパケットによるデータ伝送は、セクションを用いてデータを伝送する方式とPES(Packetized Elementary Stream)パケットを用いてデータを伝送する方式(データストリーム伝送方式)とに分類される。
【0031】
セクションを用いてデータを伝送する方式には、データカルーセル伝送方式と、イベントメッセージ伝送方式がある。
【0032】
データカルーセル伝送方式は、1以上のデータを一定周期で繰り返し伝送する伝送方式である。データカルーセル伝送方式によって伝送される個々のデータ(モジュール)には、それらを一意に識別するための識別情報が付されている。データカルーセル伝送方式は、受信機4側に個々のデータを任意のタイミングで取得させるために用いられる。
【0033】
イベントメッセージ伝送方式は、放送局1から受信機4に対して、トリガ信号を送るための方式である。イベントメッセージ伝送方式は、データ量が少ないメッセージを放送局1から受信機4に伝送する場合に用いられる。
【0034】
データストリーム伝送方式は、伝送するデータをPESパケットに収容してストリームとして伝送する伝送方式である。データストリーム伝送方式は、映像、音声、字幕データ等のリアルタイム型のデータや、他のストリームとの同期を要するデータの伝送に用いられる。
【0035】
ここで、AITは、TSパケットを用いて様々な方法によって伝送可能である。
即ち、AITは、TSパケットのSIに含まれるEITに対して記述することによって伝送可能である。
【0036】
また、AITは、セクションを用いてデータカルーセル伝送方式により伝送可能である。AITをデータカルーセル伝送方式により伝送する場合、受信機4側でAITであることを認識できるようにモジュールに対して識別情報が付される。
【0037】
また、AITは、PESとしてコンテンツの映像や音声に多重させて伝送可能である。
【0038】
また、AITは、バイナリ表現又はXML(Extensible Markup Language)によるテキスト表現で記述して、TSパケットに格納することができる。
本実施形態では、AITの伝送方法は、上記の伝送方法の少なくともいずれかに予め規定されているものとする。
【0039】
なお、XMLをベースとした、マルチメディア符号化用に開発されたBMLは、W3C(登録商標)(World Wide Web Consortium)が定義したxHTMLを基礎とし、手続き型言語にはJavaScript(登録商標)を基礎としたECMAScriptを用いて国際標準との整合性を考慮して定義された規格である。
【0040】
サービスサーバ3は、図示は省略するが、放送済みの番組コンテンツや、アプリ用コンテンツを配信するコンテンツ配信サーバと、受信機4で動作する各種のアプリケーションを配信するアプリケーション配信サーバとを備える。
【0041】
サービスサーバ3は、放送局1の設備と通信可能に接続されており、番組コンテンツや、番組コンテンツのメタデータを放送局1から受信する。
サービスサーバ3は、受信機4から番組コンテンツの取得要求を受け付けたことに応じて、受信機4に対して番組コンテンツを送信する。
【0042】
また、サービスサーバ3は、受信機4からアプリケーションの取得要求を受け付けたことに応じて、受信機4に対してアプリケーションを送信する。さらに、サービスサーバ3は、受信機4においてアプリケーションが実行されている場合に、映像や音声等の各データを含むアプリ用コンテンツを受信機4に送信する。
【0043】
また、サービスサーバ3は、必要に応じて、番組コンテンツに対してAITを多重化させて受信機4に送信する。また、サービスサーバ3は、受信機4からAITの取得要求を受け付けたことに応じて、受信機4に対してAITを送信する。
【0044】
また、サービスサーバ3は、番組コンテンツの音声情報と、視聴者が番組コンテンツを視聴した時に発した音声情報と、をミキシングしたミキシング音声情報にユーザIDを関連付けたミキシングされたアップリンク情報を受信機4から受信する。
【0045】
また、サービスサーバ3は、受信機4から受信したミキシングされたアップリンク情報をもとに、番組コンテンツの音声情報からシーンを特定し、当該シーンにおける視聴者の発話内容や周囲の暗騒音区間を抽出し、この抽出の結果を用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や当該シーンに関連する情報を生成し、当該情報を受信機4や受信機4に接続された携帯端末等に送信する。
【0046】
受信機4は、放送局1からの放送又はサービスサーバ3との通信を介して受信する番組コンテンツに対して所定の処理を行うことにより、番組コンテンツを構成する映像や音声を同期して出力する。また、受信機4は、AITに基づいて、アプリケーションを適宜取得し、取得したアプリケーションを起動して実行する。また例えば、受信機4は、実行されているアプリケーションによってサービスサーバ3からアプリ用コンテンツを取得し、番組コンテンツに連携させて出力することも可能である。なお、アプリ用コンテンツの出力は、必ずしも番組コンテンツに連携させる必要はない。
以下、このような受信機4の機能について詳述する。
【0047】
まず、理解を容易にするため、図3を参照して、受信機4が有する機能の一部の概要を説明する。
図3は、放送通信連携システム100の概要を示す図である。
【0048】
図3の例では、視聴状態情報として、視聴者が発声した音声のデータが採用されている。このため、視聴者の音声を入力するためのマイクロフォンデバイス6(以下、マイクデバイス6と略称する)が、受信機4に接続されている。なお、図3においては、マイクデバイス6は受信機4からみて外部機器となっているが、これはあくまでも例示であって、後述するように、マイクデバイス6は受信機4に内蔵されていてもよい。また、受信機4は、スマートフォンや携帯電話機等で構成される携帯端末10と連動して動作することもできる。
【0049】
受信機4は、放送局1が放送した番組コンテンツを含んだ放送信号を受信して、当該番組コンテンツを再生する。
このとき、受信機4は、当該番組コンテンツにおける所定シーンを再生させているときに、番組コンテンツの音声情報と、マイクデバイス6から入力した視聴者の音声のデータを音声情報として取得する。
次に、受信機4は、これら取得した情報をミキシングした情報(以下、ミキシング音声情報と呼ぶ)を生成する。
そして、受信機4は、ミキシング音声情報を、通信によりサービスサーバ3に提供する。
【0050】
サービスサーバ3は、ミキシング音声情報を受信すると、これに対するサービスフィードバック情報として、当該番組コンテンツの所定シーンに関連する各種情報や、当該視聴者に推薦する別の番組コンテンツの情報を、受信機4や携帯端末10に送信する。
【0051】
さらに以下、図4を参照して、受信機4について詳述する。
図4は、受信機4の機能構成を示すブロック図である。
受信機4は、放送波受信部11と、第1分離部12と、放送AIT取得部13と、通信部14と、第2分離部15と、通信AIT取得部16と、アプリケーション実行制御部17と、音声制御部18と、表示制御部19と、スピーカ20と、ディスプレイ21と、メモリ22と、AIT記憶部23、外部機器接続手段としてのデバイス接続部24と、ミキシング手段としての関連付け部25とを備える。
【0052】
放送波受信部11は、放送用アンテナ2を介して放送局1から送信されている放送波を受信する。
【0053】
第1分離部12は、放送波受信部11に受信された放送波を復調することによって、放送信号、即ちTSパケットを抽出する。そして、第1分離部12は、TSパケットのPSI/SIを参照して、TSパケットに含まれているデータの種別を判別し、映像、音声、EIT等の各種データを分離して抽出する。また、第1分離部12は、予め規定されているAITの伝送方法に応じて、セクションやPESを参照してAITを分離して抽出する。
【0054】
続いて、第1分離部12は、TSパケットのPESに含まれているデータが音声データである場合、この音声データを音声制御部18に出力する。また、第1分離部12は、TSパケットのPESに含まれているデータが映像データである場合、この映像データを表示制御部19に出力する。
【0055】
また、第1分離部12は、抽出したEITやその他の各種データをメモリ22に記憶させる。また、第1分離部12は、AITを抽出した場合、抽出したAITを放送AIT取得部13に出力する。
【0056】
放送AIT取得部13は、第1分離部12から出力されたAITを取得し、AIT記憶部23に記憶させる。
【0057】
通信部14は、通信ネットワークNを介するサーバ群3との間で各種情報を送受信したり、リモートコントローラR(以下、リモコンRと略記する)からの操作信号を受信したり、携帯端末10との間で各種情報を送受信する。
【0058】
第2分離部15は、サーバ群3から通信ネットワークNを介して送信されてきて通信部14に受信されたデータの種別を判別し、その判別結果に基づいてデータの出力先を分離する。例えば、第2分離部15は、受信したデータがAITであると判別した場合、このAITを通信AIT取得部16に出力する。また、第2分離部15は、受信したデータがアプリケーションであると判別した場合、このアプリケーションをアプリケーション実行制御部17に出力する。
【0059】
また、第2分離部15は、受信したデータがTSパケットであると判別した場合、映像、音声、AIT等の各種データをTSパケットから分離して抽出する。そして、第2分離部15は、AITを抽出した場合、このAITを通信AIT取得部16に出力し、AIT以外のデータを抽出した場合、このデータをアプリケーション実行制御部17に出力する。
【0060】
通信AIT取得部16は、第2分離部15から出力されたAITを取得し、AIT記憶部23に記憶させる。
【0061】
アプリケーション実行制御部17は、AIT又はリモコンRを介したユーザの実行指示に基づいてアプリケーションを取得し、取得したアプリケーションの実行を制御する。例えば、アプリケーション実行制御部17は、関連付け情報を生成して出力するアプリケーションを起動した場合、当該アプリケーションの実行によって、メモリ22に記憶されたユーザを特定するユーザIDを関連付け部25に出力する。
【0062】
メモリ22は、EIT等の番組コンテンツのメタ情報やその他各種情報を記憶する。
AIT記憶部23は、放送AIT取得部13及び通信AIT取得部16によって取得されたAITを記憶する。
【0063】
デバイス接続部24は、マイクデバイス6等のデバイスを接続し、当該デバイスからの入力情報を視聴状態情報として関連付け部25に供給する。
具体的には、デバイス接続部24は、アプリケーション実行制御部17により実行されたアプリケーションによって、マイクデバイス6から入力された視聴者の音声のデータを、視聴者音声情報として取得して、関連付け部25に出力する。
なお、デバイス接続部24に接続されるデバイスは、マイクデバイス6に限られず、その他例えば、視聴者の動作を撮影するカメラデバイスや、視聴者の位置情報を取得可能なジャイロセンサや、視聴者の動作を検知可能な光センサであってもよい。
さらに、デバイス接続部24に接続とは、外部機器に接続することのみを意味せず、内蔵機器に接続することも意味する。従って、マイクデバイス6は、外部機器である必要は特になく、受信機4に内蔵されていてもよい。
なお、デバイス接続部24のさらなる詳細については、図6乃至図10を参照して後述する。
【0064】
関連付け部25は、番組コンテンツの音声データをコンテンツ音声情報として音声制御部18から取得する。関連付け部25は、視聴者が番組コンテンツを視聴した時に発した音声データを視聴者音声情報としてデバイス接続部24から取得する。関連付け部25は、ユーザID等のID情報をメモリ22から取得する。
関連付け部25は、これらの取得した情報、即ち、コンテンツ音声情報と視聴者音声情報とをミキシングしたミキシング音声情報にユーザIDを関連付けたミキシングされたアップリンク情報を生成して、通信部14を介してサービスサーバ3に送信する。
なお、関連付け部25のさらなる詳細については、図11及び図12を参照して後述する。
【0065】
さらに以下、このような機能的構成を有する受信機4のうち、デバイス接続部24について、図6乃至図10を参照して説明する。
【0066】
上述の如く、デバイス接続部24には、マイクデバイス6といったデバイスが接続される。ただし、デバイス接続部24は、デバイスが単に物理的に接続されたとしても、当該デバイスを発見して認識しなければ、当該デバイスからの情報を視聴状態情報として関連付け部25に出力することはできない。
【0067】
図6は、このようなデバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。
図6に示すように、Hybridcast機能のレイヤとしては、下層から上層に向かう順に、ハードウェア、システムソフトウェア、ヴァーチャルマシン、Hybridcast基本ライブラリ及び拡張ライブラリ、及び、Hybridcastアプリケーションが存在する。
デバイス接続部24におけるデバイスの発見の動作は、本実施形態では、拡張ライブラリ(ソフトウェアプログラム)の1つである機器発見ライブラリによって行われる。
【0068】
図7は、デバイス接続部24の概念を示す図である。
図7に示すように、アプリケーション実行制御部17により実行されるHybridcastアプリケーションが、デバイス接続部24に設けられるデバイスマネージャやHID(Human Interface Device)等とやり取りをする。
ここで、一般的なフィジカルネットワーク層におけるデバイスマネージャインプリメンテイションやHIDインプリメンテイションは、本実施形態では、従来から存在するものが流用される。このため、図8乃至図10のシーケンス図に示すような各種各様のリスナーを実装し、同シーケンス図に示すような各種イベント等を生成して処理するクラスとして、デバイスマネージャやHIDを含むインプリメンテイションクラスを実装することにより、デバイス接続部24が実現される。
【0069】
図8は、視聴状況取得等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図を示している。
ステップS1において、関連付け部25は、ユーザID等のID情報をメモリ22から取得する。ただし、ID情報の取得は、ステップS1の処理タイミングだけではなく、放送局1からの番組コンテンツの変わり目等で随時行われる。
【0070】
次に、デバイスマネージャによる機器発見部分のシーケンスとして、次のようなステップS2乃至S9の処理が実行される。
ステップS2において、アプリケーション実行制御部17により実行されるHybridcastアプリケーション(図8乃至図10のシーケンス図の説明ではアプリと略称する)は、デバイス接続部24において、デバイスマネージャインスタンスを登録する。
ステップS3において、デバイスマネージャは、関連付け部25に対してアプリを通知する。
ステップS4において、関連付け部25は、関連付け部物理情報をデバイスマネージャに通知する。ここで、関連付け部物理情報とは、音声データを物理的にどこに流すべきかを示す情報である。
ステップS5において、アプリは、デバイスディスカバリーリスナを生成する。即ち、デバイスディスカバリイベントが登録される。
ステップS6において、デバイスマネージャが、HIDに対してデバイスの発見を試みる。
ステップS7において、HIDは、その応答をデバイスマネージャに返す。
ステップS8において、デバイスマネージャは、ステップS7の応答から得られたデバイス情報と、ステップS4において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
ステップS9において、デバイスマネージャは、デバイス情報をアプリに送ることによって、新しいデバイスをアプリに通知する。
【0071】
このようにして、デバイスマネージャによる機器発見部分のシーケンスとして、ステップS2乃至S9の処理が実行されると、それに引き続き、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、次のようなステップS10乃至S14の処理が実行される。
ステップS10において、アプリは、デバイスインスタンスに対して、デバイスステイタスリスナーを登録する。
ステップS11において、デバイスインスタンスは、デバイスの状況(例えば電源状態がON状態なのかOFF状態なのかといった状況)を、HIDに対して確認する。
ステップS12において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、デバイスの電源状態がOFF状態の場合には、さらに図9に示す処理が必要になるが、この処理については後述する。
ステップS13において、デバイスインスタンスは、HIDから通知されたデバイスの状況を、アプリに通知する。
ステップS14において、デバイスインスタンスは、デバイスの入力データ(音声のデータであって、視聴者音声情報になるデータ)を関連付け部25に出力する制御を実行すべく、関連付け部25の通知をHIDに対して行う。
【0072】
ここで、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスについて説明する。
先ず、デバイスの電源状態によらず、ステップS11の処理は実行されるが、デバイスの電源状態がOFF状態である場合には、ステップS12の処理の代わりに、図9のシーケンス図に従った処理が実行される。
図9は、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。
ステップS12−1の処理は、ステップS12と実質同一の処理である。ただし、ステップS12−1においては、電源状態がOFF状態である旨がデバイスインスタンスに通知される。
そこで、ステップS33において、デバイスインスタンスは、デバイスの電源状態をON状態に遷移させる要求(以下、デバイス電源ON要求と呼ぶ)を、デバイスマネージャに対して行う。
ステップS34において、デバイスマネージャは、デバイスの電源状態をON状態に遷移させる。
ステップS12−2において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、この場合、電源状態がON状態である旨がデバイスインスタンスに通知される。
その後、上述した図8のステップS13及びS14の処理が実行される。
【0073】
このようにして、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、図8のステップS10乃至S14の処理(デバイスの電源状態がOFF状態の場合図9の処理)が実行されると、次に引き続き、次のようなステップS15乃至S19の処理が実行される。
ステップS15において、アプリは、デバイスインスタンスに対して、入力イベントを要求する。
ステップS16において、デバイスインスタンスは、HIDに対して、入力イベントを要求する。
ステップS17において、デバイスは、即ちここでは外部機器であるマイクデバイス6は、音声のデータをHIDに入力する。
ステップS18において、HIDは、ステップS17の処理で入力された音声のデータを、入力データとして関連付け部25に提供する。なお、関連付け部25は、当該入力データを視聴者音声情報として取得する。
ステップS19において、音声制御部18は、番組コンテンツの音声データを関連付け部25に提供する。
これ以降、アプリから入力イベントが要求される毎に、ステップS15乃至S19の処理が繰り返し実行される。
【0074】
以上まとめると、デバイス接続部24においては、デバイスマネージャが機能する。このデバイスマネージャの主な機能は、HID(デバイス)を発見し、発見したデバイスのデバイス情報と、関連付け部情報とを一緒に用いてデバイスインスタンスを生成することである。
また、このようにしてデバイスマネージャにより生成されたデバイスインスタンスの機能は、アプリから入力イベントを受け取り、HIDと関連付け部25とを制御することである。
また、関連付け部25の機能は、デバイス(HID)からの入力データ(音声のデータであって、視聴者音声情報となるデータ)と、受信機4の内部情報(ID情報)とを関連付けることである。
【0075】
ところで、デバイス接続部24に接続されるデバイスは、上述したように、外部機器に特に限定されず、受信機4の内蔵機器であってもよい。
【0076】
図10は、視聴状況取得等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとして受信機4の内蔵機器を用いる場合のシーケンス図を示している。
図10と図8とを比較するに、図10のステップS51乃至S54は、図8のステップS1乃至S4と同様の処理である。
しかしながら、図10においては、図8のステップS5乃至S7に相当する処理は存在しない。内蔵機器の発見は不要だからである。このため、図10のステップS55においては、デバイスマネージャは、内蔵機器の既知情報と、ステップS54において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
また、図10においては、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスが存在しない。即ち、図10においては、図8のステップS10乃至S14(デバイスの電源状態がOFF状態の場合には図9)に相当する処理は存在しない。内蔵機器の場合、ステイタスリスナーは不要だからである。即ち、デバイスマネージャから状況を変更可能だからである。
なお、図10のステップS56乃至S60は、図8のステップS15乃至S19と同様の処理である。即ち、アプリから入力イベントが要求される毎に、ステップS56乃至S60の処理が繰り返し実行される。
【0077】
以上、図4の機能的構成を有する受信機4のうち、デバイス接続部24の詳細について、図6乃至図10を参照して説明した。次に、このような受信機4のうち、関連付け部25の詳細について、図11及び図12を参照して説明する。
【0078】
図11は、関連付け部25の機能構成を示す機能ブロック図である。
関連付け部25は、視聴者音声情報取得部251と、コンテンツ音声情報取得部252と、ID(ユーザID)取得部253と、音声ミキシング部254と、によりミキシングされたアップリンク情報を生成する。
【0079】
視聴者音声情報取得部251は、デバイス接続部24から入力データとして出力された音声のデータ(図8のステップS18参照)、即ち視聴者が番組コンテンツを視聴した時に発した音声のデータを、視聴者音声情報として取得する。
コンテンツ音声情報取得部252は、音声制御部18から入力データとして出力された音声のデータ(図8のステップS19参照)を、コンテンツ音声情報として取得する。
ID(ユーザID)取得部253は、アプリケーション実行制御部17から出力されたユーザID(図8のステップS1のID情報)を取得する。
【0080】
音声ミキシング部254は、視聴者音声情報取得部251に取得された視聴者音声情報と、コンテンツ音声情報取得部252に取得されたコンテンツ音声情報とをミキシングしたミキシング音声情報にユーザIDを関連付けることによって、ミキシングされたアップリンク情報を生成する。音声ミキシング部254は、アプリケーション実行制御部17がアプリケーションを終了させるまで、随時、ミキシングされたアップリンク情報を通信部14に出力する。
【0081】
図12は、関連付け部25の処理の流れを説明するフローチャートである。
ステップS101において、関連付け部25は、視聴者音声情報取得部251で視聴者音声情報を取得し、コンテンツ音声情報取得部252でコンテンツ音声情報を取得し、ID取得部253でユーザIDを取得する。
ステップS102において、音声ミキシング部254は、ステップS101で取得した各種情報、即ち、視聴者音声情報及びコンテンツ音声情報をミキシングしたミキシング音声情報に対して、ユーザIDを関連付けることによって、ミキシングされたアップリンク情報を生成する。
ステップS103において、音声ミキシング部254は、ステップS102で生成したミキシングされたアップリンク情報を通信部14に出力する。
ステップS104において、関連付け部25は、アプリケーション実行制御部17がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS101に処理を戻し、終了させた場合は本処理を終了させる。
【0082】
関連付け部25から出力された、ミキシングされたアップリンク情報は、通信部14を介して、サービスサーバ3に送信される。
サービスサーバ3は、ミキシングされたアップリンク情報を受信し、これをもとに音声処理を行う。これにより、サービスサーバ3は、ユーザIDにより特定される視聴者が「どのシーンで笑った」、「どのシーンで興味を失った」等の情報を推定し、視聴者に特別な動作をさせることなく、コンテンツの各シーンにおける視聴者の視聴状態を的確に推定することが可能となる。
【0083】
本実施形態によれば、以下のような効果がある。
(1)受信機4の関連付け部25は、コンテンツの音声情報と、視聴者がコンテンツを視聴した時に発した音声情報と、をミキシングしたミキシング音声情報を生成する。
通信部14は、関連付け部25で生成したミキシング音声情報をサーバに送信する。
これにより、コンテンツの音声情報と、視聴者がコンテンツを視聴した時に発した音声情報とがミキシングされ、サーバに送信される。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
【0084】
(2)受信機4は、マイクデバイス6を備えていなくとも、視聴者が発した音声情報を取得するマイクデバイスをデバイス接続部24に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、受信機がマイクデバイスを備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができる受信機の必須項目からマイクデバイスを除外できるので、当該サービスを受けることができる受信機の普及を促進できる。
【0085】
(3)受信機4は、マイクデバイス6を備えたので、放送と通信の連携を図るシステムにおいて、別途にマイクデバイスを用意しなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
【0086】
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
本実施形態では、番組コンテンツのコンテンツ音声情報とマイクデバイスにより取得した視聴者の視聴者音声情報をミキシングしているが、コンテンツのシーンと当該シーンを視聴した視聴者の視聴状態とを関連付けできる限り、番組コンテンツのコンテンツ画像とカメラデバイスにより取得した視聴者の視聴者画像とをミキシングしたミキシング画像情報を生成し、このミキシング画像情報をサービスサーバに送信してもよい。
【符号の説明】
【0087】
1 放送局
3 サービスサーバ
4 受信機
25 関連付け部(ミキシング手段)
14 通信部
N ネットワーク

【特許請求の範囲】
【請求項1】
ネットワークを介してサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機であって、
前記コンテンツの音声情報と、視聴者が前記コンテンツを視聴した時に発した音声情報と、をミキシングしたミキシング音声情報を生成するミキシング手段と、
前記ミキシング手段で生成した前記ミキシング音声情報を前記サーバに送信する通信手段と、
を備える受信機。
【請求項2】
前記コンテンツを視聴した視聴者が発した音声情報を取得するマイクデバイスが接続される外部機器接続手段を備える請求項1に記載の受信機。
【請求項3】
前記コンテンツを視聴した視聴者が発した音声情報を取得するマイクデバイスを備える請求項1に記載の受信機。
【請求項4】
ネットワークを介してサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機を制御するコンピュータを、
前記コンテンツの音声情報と、視聴者が前記コンテンツを視聴した時に発した音声情報と、をミキシングしたミキシング音声情報を生成するミキシング手段、
前記ミキシング手段により生成された前記ミキシング音声情報を前記サーバに送信する制御を実行する通信手段、
として機能させるプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate