説明

コンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラム

【課題】コンピュータを使って、講師による講義を受講者に配信する遠隔配信システムを提供する。
【解決手段】ホスト端末10は、講義の資料をデスクトップに表示する講義資料表示部131と、デスクトップの画像を送信するデスクトップ画像送信部132とを備える。エンコード端末20は、講師の講義風景を撮影した講師撮影データを生成する講師撮影データ生成部231と、講師撮影データに同期して、ホスト端末10から受信したデスクトップの画像からアニメーションデータを生成するアニメーションデータ生成部234と、講師撮影データ及び前記アニメーションデータとを含むコンテンツデータを送信するコンテンツデータ送信部237とを備える。クライアント端末300は、コンテンツデータを受信するコンテンツデータ受信部3011と、コンテンツデータを再生して、出力装置305に出力するコンテンツデータ再生部3012とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、コンピュータを使って、講師による講義に関するコンテンツを生成するコンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラムに関する。
【背景技術】
【0002】
従来、学内、社内、講演会などで行われた講師の講義内容を映像データや音声データとして取り込み、これらをネットワークを介して遠隔地の受講者に提供する遠隔配信システムが提案されている。この遠隔配信システムは、イーラーニング(e-learning)とも呼ばれ、場所や時間を問わずに受講者に受講させることができる。この利用のしやすさから、大学などの教育現場、社内の社員教育など、様々な場所で用いられている。
【0003】
しかし、講義内容を撮影した動画を配信して受講者に受講させる方法では、単調な講義を受け身で視聴するのみになってしまう問題がある。これにより、受講者のモチベーションの低下を招くことになり、受講者に効果的な教育を受けさせることができない問題点がある。
【0004】
そこで、講義内容を受講者に配信する際に、講師側が行う配信操作の負担を軽減すると共に、一方で受講者側が講義を受講する際に、より実際の講義に近い臨場感ある講義を受講することができるシステムがある(例えば、特許文献1参照。)。この特許文献1に記載のシステムでは、事前に講師資料を動画ファイルに変換して受講者端末に配信する。講義開始と共に講師の映像及び音声を含む映像音声データと、講師が選択した講師資料の番号と、スクリーン上のポインタの位置データと、講師がホワイトボードに記載した文字若しくは図形データと、講師資料に含まれる動画情報を受講者に自動配信する。
【特許文献1】特開2006−325156号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
しかしながら上記の特許文献1に記載のシステムによると、事前に資料を準備しなければならない問題点があった。
【0006】
具体的には、講義の状況や教室内の受講者の反応等に応じて新たな資料を出したい場合、受講者にはその資料を配布する手段がなかった。このため講師は、遠隔配信で講義を受講する受講生のために、予め決めた資料の通りに授業を進めなければならなかった。これにより、講義がどうしても単調になってしまい、受講者のモチベーションを低下させてしまう可能性があった。
【0007】
そこで、受講者のモチベーションを保てる様に、より実際の講義に近い臨場感ある講義のためのコンテンツの提供が期待されている。
【0008】
一方、講師が講義に専念できるように、コンテンツ作成についての講師の操作負担を軽減する必要がある。
【0009】
本発明は、上記問題を鑑みてなされたものであり、その目的は、講師による講義に関するコンテンツを生成する際に、講師側が行う配信操作の負担を軽減するとともに、受講者が講義を受講する際に、より実際の講義に近い臨場感ある講義を受講することができるコンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラムを提供することである。
【課題を解決するための手段】
【0010】
本発明は、上記問題を鑑みてなされたものであり、その目的は、講師による講義に関するコンテンツを生成する際に、講師側が行う配信操作の負担を軽減するとともに、受講者が講義を受講する際に、より実際の講義に近い臨場感ある講義を受講することができるコンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラムを提供することである。
【0011】
上記課題を解決するために、本発明の第1の特徴は、コンピュータを使って、講師による講義に関するコンテンツを生成するコンテンツ生成システムに関する。即ち本発明の第1の特徴に係るコンテンツ生成システムは、講師が操作するホスト端末と、前記ホスト端末に接続されたコンテンツ生成装置と、を備える。ホスト端末は、講義の資料を表示装置に表示する講義資料表示部と、表示装置に表示された表示画像データを送信する表示画像送信部と、を備える。コンテンツ生成装置は、講師の講義風景を撮影した講師撮影データを、前記コンテンツ生成装置の記憶装置に逐次記憶する講師撮影データ生成部と、講師撮影データに同期して、前記ホスト端末から受信した表示画像データから、アニメーションデータを生成して前記記憶装置に記憶するアニメーションデータ生成部と、を備える。
【0012】
ここで、アニメーションデータは、前記ホスト端末から逐次送信される前記表示画像データから生成された複数のフレームデータを備え、コンテンツ生成装置の前記アニメーションデータ生成部は、所定のタイミングで、変換された前記フレームデータの数とフレームレートから再生時間を算出して、前記再生時間が前記講師撮影データの再生時間に一致するように、前記フレームデータの追加または削除をして前記アニメーションデータを生成しても良い。
【0013】
また、コンテンツ生成システムは、さらに、前記コンテンツ生成装置に接続され前記受講者が操作するクライアント端末を備えても良い。コンテンツ生成装置は、さらに、記憶装置から前記講師撮影データ及び前記アニメーションデータを読み出して、前記講師撮影データ及び前記アニメーションデータとを含むコンテンツデータを、前記クライアント端末に送信するコンテンツデータ送信部を備える。クライアント端末は、コンテンツデータを受信するコンテンツデータ受信部と、コンテンツデータを再生して、出力装置に出力するコンテンツデータ再生部と、を備え、クライアント端末の前記コンテンツデータ再生部は、前記コンテンツデータを再生する際に、所定のタイミングで、前記講師撮影データの再生時間と前記アニメーションデータの再生時間が異なる場合に、前記アニメーションデータの再生時間を、前記講師撮影時間の再生時間に変更する。
【0014】
本発明の第2の特徴は、コンピュータを使って、講師による講義に関するコンテンツを生成するコンテンツ生成装置に関する。即ち本発明の第2の特徴に係るコンテンツ生成装置は、講師の講義風景を撮影した講師撮影データを、記憶装置に逐次記憶する講師撮影データ生成部と、講師が操作するホスト端末から、前記ホスト端末の表示装置に表示された表示画像データを受信し、前記講師撮影データに同期して、前記表示画像データから、アニメーションデータを生成して前記記憶装置に記憶するアニメーションデータ生成部と、記憶装置から前記講師撮影データ及び前記アニメーションデータを読み出して、前記講師撮影データ及び前記アニメーションデータとを含むコンテンツデータを送信するコンテンツデータ送信部と、を備える。
【0015】
ここで、アニメーションデータは、前記ホスト端末から逐次送信される表示画像データから生成された複数のフレームデータを備え、アニメーションデータ生成部は、所定のタイミングで、変換された前記フレームデータの数とフレームレートから再生時間を算出して、前記再生時間が前記講師撮影データの再生時間に一致するように、前記フレームデータの追加または削除をして前記アニメーションデータを生成しても良い。
【0016】
本発明の第3の特徴は、コンピュータを使って、講師による講義に関するコンテンツを生成するコンテンツ生成プログラムに関する。即ち本発明の第3の特徴に係るコンテンツ生成プログラムは、講師の講義風景を撮影した講師撮影データを、記憶装置に逐次記憶する講師撮影データ生成部と、講師が操作するホスト端末から、前記ホスト端末の表示装置に表示された表示画像データを受信し、前記講師撮影データに同期して、前記表示画像データから、アニメーションデータを生成して前記記憶装置に記憶するアニメーションデータ生成部と、記憶装置から前記講師撮影データ及び前記アニメーションデータを読み出して、前記講師撮影データ及び前記アニメーションデータとを含むコンテンツデータを送信するコンテンツデータ送信部として、前記コンピュータを機能させる。
【0017】
ここで、アニメーションデータは、前記ホスト端末から逐次送信される表示画像データから生成された複数のフレームデータを備え、アニメーションデータ生成部は、所定のタイミングで、変換された前記フレームデータの数とフレームレートから再生時間を算出して、前記再生時間が前記講師撮影データの再生時間に一致するように、前記フレームデータの追加または削除をして前記アニメーションデータを生成しても良い。
【発明の効果】
【0018】
本発明によれば、講義内容を受講者に配信する際に、講師側が行う配信操作の負担を軽減するとともに、受講者が講義を受講する際に、より実際の講義に近い臨場感ある講義を受講することができるコンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラムを提供することができる。
【発明を実施するための最良の形態】
【0019】
以下、図面を参照して本発明の実施の形態を説明する。
【0020】
(コンテンツ生成システム)
図1は、本発明の実施の形態に係るコンテンツ生成システム1のシステム概要図である。このコンテンツ生成システム1は、ホスト側システム100、コンテンツサーバ200及びクライアント端末300を備える。ホスト側システム100、コンテンツサーバ200及びクライアント端末300は、それぞれ、インターネットなどの通信ネットワークを介して、インターネットプロトコル等によって相互に接続されている。ホスト側システム100で、講師が行う講義内容をリアルタイムでクライアント端末300に配信するとともに、クライアント端末300からの要求によりその講義内容をクライアント端末300に配信する。
【0021】
(ホスト側システム)
ホスト側システム100は、講義者(若しくはプレゼンター)が、実際に講義(若しくはプレゼンテーション)を行う教室若しくは会議室等に設けられたシステムである。このホスト側システム100は、ホスト端末10、エンコード端末(コンテンツ生成装置)20及び講師撮影用カメラ60を備える。ホスト端末10及びエンコード端末20は、ハブ90を介してLANケーブルで接続されている。ホスト側システム100は更に、スクリーン30、プロジェクター40、ポインタ位置検出用カメラ50、講師が手に持つレーザーポインタ70、ホワイトボード80を備えても良い。
【0022】
ホスト端末10は、講師が操作する端末である。ホスト端末10は、講義の資料をホスト端末10の表示装置に表示するとともに、表示装置に表示された画像データをエンコード端末20に送信する。ここで表示装置に表示された画像は、いわゆるデスクトップに表示された画像である。
【0023】
ホスト端末10は、プロジェクター40と映像用ケーブルで接続されている。プロジェクター40は、スクリーン30に、ホスト端末10の表示装置に表示された講義内容に関する資料を投影する。スクリーン30は、ホスト側システム100が設けられた教室等に設置されている。
【0024】
スクリーン30に投影された画像は、教室等の受講生が閲覧することができるとともに、後述する講師撮影用カメラ60の撮影対象にもなる場合もある。
【0025】
エンコード端末20は、ホスト端末10に接続されるとともに、講師撮影用カメラ60、ポインタ位置検出カメラ50及びホワイトボード80に接続される。
【0026】
講師撮影用カメラ60は、講師を撮影するためのカメラである。必要に応じてスクリーン30や、ホワイトボード80を撮影することができる。講師の移動にともなって、講師撮影用カメラ60の撮影対象も変更されるのが好ましい。講師撮影用カメラ60による撮影エリアの切り替え指示は、エンコード端末20などから行われる。
【0027】
ポインタ位置検出用カメラ50は、講師がスクリーン30上に指し示したポインタを撮影して、そのポインタの位置を検出するものである。このポインタの位置は、コンテンツ再生時にポインタの位置を再現するために用いられる。ポインタ位置検出用カメラ50は、スクリーン30を撮影可能な位置に固定して、配置される。
【0028】
ポインタの位置の検出方法として、例えば、赤外線レーザーを具備するレーザーポインタ70を用いる方法がある。このレーザーポインタ70は、光源として赤外線レーザーを具備している。ポインタ位置検出用カメラ50は、赤外線レーザーのみ透過するフィルタが設けられている。ポインタ位置検出用カメラ50でスクリーン30を撮影することにより、ポインタ位置検出用カメラ50は、スクリーン30上に指し示されたレーザーポインタの赤外光だけを選択的に撮影することができる。このようなポインタ位置検出用カメラ50によれば、スクリーン30周辺の外乱光の影響を受けずにポインタの位置のみを精度良く検出することができる。
【0029】
ホワイトボード80は、講師がホワイトボード80上に書いた文字や図を電子データ化して、エンコード端末20に出力する機能を有している。このホワイトボード80は、ボード面の下に、数十本程度の細長いループ型のセンサコイルが、X軸方向とY軸方向にそれぞれ、格子状に積層配列された構成を有している。講師が使用するペンの先端に巻線コイルが一つ埋め込まれており、コンデンサと接続してLC共振回路が形成されている。このボード面のセンサコイル群に一定時間の交流電流を流して磁界を発生させておく。講師がボード面上にペンを接触させると、ペンに誘導電流が流れ、コンデンサに蓄電される。ここでボード面のセンサコイルに流れる電流を止めると、ペン側のコンデンサに蓄電された電気を源にしてペン側のコイルに電流が流れて磁界が発生する。さらに、この磁界の影響を受けて、ボード面のセンサコイルに誘導電流が流れる。そこで電流が流れたコイルの位置を検出することでペンの位置(座標)を知ることができる。この検出を1秒間に数十回程度繰返し行うことで、ボード面上に書かれた文字や図をコンピュータが認識することができる。尚、上述したホワイトボード以外にペン側に圧力センサを設けておき、筆圧によりボード上の座標を検出するものもある。本実施の形態においては、ホワイトボード上に記入された文字情報をコンピュータで取得できれば、どのような構成を有するホワイトボードでも適用しても良い。
【0030】
(ホスト端末)
次に図2を参照して、ホスト端末10の具体的な構成を説明する。ホスト端末10は、講師が使用する端末である。具体的には、講師は、講義中に受講者に見せたい資料をホスト端末10の表示装置に表示する。これにより、ホスト端末10に接続されたプロジェクター40によってスクリーン30に、出力装置12に表示された画像データを表示することにより、事前に配布していない資料や、質問等に応じて提示する資料についても、受講生に提示することができる。
【0031】
図2に示すようにホスト端末10は、入力装置11、出力装置12、処理制御装置(CPU)13、通信制御装置14、記憶装置15、主記憶装置16等を少なくとも備えている。
【0032】
ホスト端末10は、一般的なコンピュータである。入力装置11は、キーボード、マウス等であって、出力装置12は、モニタ等である。通信制御装置15は、ホスト端末10が、ハブ90及び通信ネットワークを介してエンコード端末20と接続するためのインタフェースとなる装置である。主記憶装置16は、処理制御装置13の処理におけるコマンドや一次データ等を記憶する記憶装置である。
【0033】
所定の処理を実行するプログラムがホスト端末10にインストールされることにより、処理制御装置13に、講義資料表示部131、表示画像送信部132及びインデックス信号送信部133が実装される。ホスト端末10の記憶装置15は、講義資料記憶部151及び講義情報記憶部152を備える。
【0034】
記憶装置15の講義資料記憶部151には、講師が作成した講義資料データが記憶される。講義情報記憶部152には、講師による講義の属性情報等が記憶される。属性情報とは具体的に、講義名、講師名、講義日時及び複数の講義が存在する場合はその講義のグループ名等である。
【0035】
講義資料表示部131は、記憶装置15から講義資料記憶部151に記憶された講義資料データを読み出して、ホスト端末10のデスクトップである出力装置(表示装置)12に表示する。ここで講義資料データとは、例えば、ホスト端末10で実行される所定のプレゼンテーションのソフトウェアのドキュメント及び画像、ホスト端末10のデスクトップに表示される画像、インターネットブラウザで表示されるホームページ、写真ブラウザなどの様々なアプリケーションのデータである。出力装置12に表示された講義資料データは、ホスト端末10に接続されたプロジェクター40を介して、スクリーン30に投影される。
【0036】
表示画像送信部132は、ホスト端末10の出力装置12に表示された画像を、ハブ90を介してエンコード端末20に送信する手段である。この出力装置12に表示された画像の送信においては、例えば、VNC(ヴァーチャル・ネットワーク・コンピューティング:Virtual Network Computing)ソフトウェアが用いられる。表示画像送信部132は、講義の収録中、随時ホスト端末10のデスクトップの画像をエンコード端末20に送信する。このとき表示画像送信部132は、送信するデータ量を少なくするために、差分のデータのみ送信する方法等が採用されていることが好ましい。
【0037】
インデックス信号送信部133は、講師によって、講義中に、講義の区切りとなる時間に指示が入力されることにより、インデックス信号をエンコード端末20に送信する。このインデックス信号は、講義の妨げにならないように、ホットキーなどに予め設定されることにより、容易に入力されるのが好ましい。
【0038】
(エンコード端末)
次に図3を参照してエンコード端末(コンテンツ生成装置)20の具体的な構成を説明する。エンコード端末20は、講師撮影用カメラ60で撮影された講師の講義風景や、ホスト端末10から取得した表示画面データに基づいて、講義に関するコンテンツデータを生成する。エンコード端末20は、講師の講義中にリアルタイムでコンテンツデータを作成することができる。また、エンコード端末20において生成されたコンテンツデータに対して、インデックスを付加するなど、更に編集されたコンテンツデータを生成しても良い。
【0039】
図3に示すようにエンコード端末20は、入力装置21、出力装置22、処理制御装置(CPU)23、通信制御装置24、記憶装置25、主記憶装置26等を少なくとも備えている。
【0040】
エンコード端末20は、一般的なコンピュータである。入力装置21は、キーボード、マウス等であって、出力装置22は、モニタ等である。エンコード端末20は、更に、映像入力部211、音声入力部212、ポインタキャプチャー入力部213、ホワイトボード画像入力部214、表示画像入力部215及びインデックス信号入力部216を備える。通信制御装置25は、エンコード端末20が、ハブ90及び通信ネットワークを介してホスト端末10及びコンテンツサーバ200と接続するためのインタフェースとなる装置である。主記憶装置26は、処理制御装置23の処理におけるコマンドや一次データ等を記憶する記憶装置である。
【0041】
所定の処理を実行するプログラムがエンコード端末20にインストールされることにより、処理制御装置23に、講師撮影データ生成部231、ポインタ座標データ生成部232、ホワイトボードデータ生成部233、アニメーションデータ生成部234、サムネイルデータ生成部235、コンテンツデータ編集部236及びコンテンツデータ送信部237が実装される。エンコード端末20の記憶装置25は、講師撮影データ記憶部251、ホワイトボードデータ記憶部252、アニメーションデータ記憶部253、サムネイルデータ記憶部254、管理データ記憶部255を備える。
【0042】
映像入力部211は、講師撮影用カメラ60で撮像された映像データを取得する。又、音声入力部212は、講師撮影用カメラ60に接続されたマイクを介して取得された音声データを取得する。ポインタキャプチャー入力部213は、ポインタ位置検出用カメラ50で撮像された映像データを取得する。ホワイトボード画像入力部214は、ホワイトボード80上に記載された文字等の座標データ及び色データを取得する。表示画像入力部215は、ホスト端末10から表示画像データを取得する。インデックス信号入力部216は、ホスト端末10から入力されたインデックス信号を取得する。
【0043】
講師撮影データ生成部231は、映像入力部211及び音声入力部212を介して取得した映像データ及び音声データから、講師撮影データを生成する。講師撮影データ生成部231は、生成した講師撮影データを、記憶装置25の講師撮影データ記憶部251に記憶する。ここで、講師撮影データは、例えば、MPEG等の動画データである。講師撮影データ生成部231は、講義中にリアルタイムで映像データおよび音声データを取得して、講師撮影データを生成するのが好ましい。
【0044】
ポインタ座標データ生成部232は、ポインタキャプチャー入力部213を介して取得したポインタの画像を画像処理して、ポインタの指し位置をスクリーン30における座標データとして算出する。算出されたポインタの指し位置の情報は、講師撮影データ生成部231によって、講師撮影データ251の時間情報に関連づけられて記憶される。例えば、講師撮影データ251がMPEGデータである場合、MPEGデータのスクリプトとして、ポインタの位置情報が関連づけられても良い。
【0045】
ホワイトボードデータ生成部233は、ホワイトボード画像入力部214を介して取得した文字の座標データ及び色情報を一定時間ごと(例えば、1秒間に数十回)に取得して、講義の時間情報に関連づけて、ホワイトボードデータを生成する。ホワイトボードデータ生成部233は、生成したホワイトボードデータを、ホワイトボードデータ記憶部252に記憶する。
【0046】
アニメーションデータ生成部234は、表示画像入力部215を介して取得したホスト端末10の出力装置(表示装置)12に表示された画像を、アニメーション化してアニメーションデータ253を生成する。アニメーションデータ生成部234は、生成したアニメーションデータを、記憶装置25のアニメーションデータ記憶部253に記憶する。このとき、講師撮影データやホワイトボードデータを同時に再生したときに、タイミングがずれないように、講師撮影データと同期させてアニメーションデータが生成されることが好ましい。
【0047】
サムネイルデータ生成部235は、インデックス信号入力部216を介してホスト端末10からインデックス信号が入力されると、そのときの講師撮影データの画像からサムネイルデータを作成し、インデックス信号の識別子とサムネイルデータとを関連づけて、サムネイルデータ記憶部254に記憶する。このとき、サムネイルデータ生成部235は、コンテンツデータの区切りとしてインデックスを作成し、その情報を管理データ記憶部255の管理データに更新する。
【0048】
コンテンツデータ編集部236は、講師撮影データ記憶部251に記憶された講師撮影データ、ホワイトボードデータ記憶部252に記憶されたホワイトボードデータ、アニメーションデータ記憶部253に記憶されたアニメーションデータ、サムネイルデータ記憶部254に記憶されたサムネイルデータ及び管理データ記憶部255に記憶されたコンテンツの管理データ等を含むコンテンツデータを編集する。具体的にはコンテンツデータ編集部236は、講師がインデックス信号を入力し忘れた場合に、所定のタイミングでサムネイルデータを作成したり、コンテンツのタイトルを付与するなどの処理をすることができる。
【0049】
管理データ記憶部255の管理データには、講師撮影データ生成部231、ポインタ座標データ生成部232、ホワイトボードデータ生成部233、アニメーションデータ生成部234及びサムネイルデータ生成部235による各処理において、コンテンツの配信や再生に必要なデータが記憶される。
【0050】
コンテンツデータ送信部236は、コンテンツデータを、コンテンツサーバ200に送信する。コンテンツデータは、講師撮影データ記憶部251に記憶された講師撮影データ、ホワイトボードデータ記憶部252に記憶されたホワイトボードデータ、アニメーションデータ記憶部253に記憶されたアニメーションデータ、サムネイルデータ記憶部254に記憶されたサムネイルデータ及び管理データ記憶部255に記憶されたコンテンツの管理データ等を含む。コンテンツデータ送信部236によって、コンテンツデータは、講師が講義する一方でリアルタイムに送信されても良いし、コンテンツデータ編集部236によるコンテンツデータの編集が完了してから送信されても良い。
【0051】
(コンテンツサーバ)
次に図4を参照してコンテンツサーバ200の具体的な構成を説明する。このコンテンツサーバ200は、処理制御装置(CPU)201、通信制御装置202、記憶装置203、主記憶装置204等を少なくとも備えている。
【0052】
コンテンツサーバ200は、一般的なコンピュータである。通信制御装置202は、コンテンツサーバ200が、通信ネットワークを介してエンコーダ端末20及びクライアント端末300と接続するためのインタフェースとなる装置である。主記憶装置204は、処理制御装置201の処理におけるコマンドや一次データ等を記憶する記憶装置である。
【0053】
所定の処理を実行するプログラムがコンテンツサーバ200にインストールされることにより、処理制御装置201に、コンテンツデータ受信部2011及びコンテンツデータ配信部2012が実装される。コンテンツサーバ200の記憶装置203は、講師撮影データ記憶部2031、ホワイトボードデータ記憶部2032、アニメーションデータ記憶部2033、サムネイルデータ記憶部2034、管理データ記憶部2035を備える。
【0054】
コンテンツデータ受信部2011は、エンコーダ端末20から送信されたコンテンツデータを受信し、記憶装置203に記憶する手段である。コンテンツデータ受信部2011が記憶装置203に記憶するデータは、具体的には、講師撮影データ記憶部2031に記憶される講師撮影データ、ホワイトボードデータ記憶部2032に記憶されるホワイトボードデータ、アニメーションデータ記憶部2033に記憶されるアニメーションデータ、サムネイルデータ記憶部2034に記憶されるサムネイルデータ及び管理データ記憶部2035に記憶される管理データ等である。
【0055】
コンテンツデータ配信部2012は、記憶装置203からコンテンツデータを読み出し、講義中にリアルタイムに、或いはクライアント端末300からの要請に基づいて、コンテンツデータを配信する。コンテンツデータ配信部2012がクライアント端末300に配信するデータは、具体的には、講師撮影データ記憶部2031、ホワイトボードデータ記憶部2032、アニメーションデータ記憶部2033、サムネイルデータ記憶部2034、管理データ記憶部2035に記憶される各データである。
【0056】
(クライアント端末300)
次に図5を参照してクライアント端末300の具体的な構成を説明する。このクライアント端末300は、処理制御装置(CPU)301、通信制御装置302、記憶装置303、主記憶装置304、出力装置305等を少なくとも備えている。
【0057】
クライアント端末300は、一般的なコンピュータである。通信制御装置302は、クライアント端末300が、通信ネットワークを介してコンテンツサーバ200と接続するためのインタフェースとなる装置である。主記憶装置304は、処理制御装置301の処理におけるコマンドや一次データ等を記憶する記憶装置である。出力装置305は、モニタ、スピーカー等で、処理制御装置301の処理結果を出力する装置である。
【0058】
クライアント端末300には、ブラウザと呼ばれるソフトウェアがインストールされており、このブラウザによって、処理制御装置301にコンテンツデータ受信部3011及びコンテンツデータ再生部3012が実装される。クライアント端末300の記憶装置303は、講師撮影データ記憶部3031、ホワイトボードデータ記憶部3032、アニメーションデータ記憶部3033、サムネイルデータ記憶部3034及び管理データ3035を備える。
【0059】
コンテンツデータ受信部3011は、コンテンツサーバ200から送信されたコンテンツデータを受信し、記憶装置303に記憶する。コンテンツデータ受信部3011が記憶装置303に記憶するデータは、具体的には、講師撮影データ記憶部3031に記憶される講師撮影データ、ホワイトボードデータ記憶部3032に記憶されるホワイトボードデータ、アニメーションデータ記憶部3033に記憶されるアニメーションデータ、サムネイルデータ記憶部3034に記憶されるサムネイルデータ及び管理データ記憶部3035に記憶される管理データである。記憶装置303に記憶される各データは、コンテンツサーバ200の記憶装置203に記憶される各データに対応するデータである。
【0060】
コンテンツデータ再生部3012は、クライアント端末300の記憶装置303に記憶された各データを再生し、出力装置305に出力する。このとき、講師撮影データ、ホワイトボードデータ及びアニメーションデータは、講義の進捗に併せて同期をとって再生される。
【0061】
(講義配信方法)
次に、図6、図7を参照して、本発明のコンテンツ生成システム1の動作について説明する。予め、図1に示したように各種機材を接続し、各種機材の電源をONにする。
【0062】
ステップS1において、ホスト端末10は、エンコード端末20にエンコーダ開始の指示を送信する。エンコード端末20は、エンコーダの開始の指示を受信すると、エンコード端末20に接続された各種機器の状態を確認する。エンコード可能であれば、ステップS2において、エンコード端末20は、応答信号を送信する。このとき、エンコード端末20は、各種装置からデータの受信を開始するとともに、管理データを生成し管理データ記憶部255に記憶する。エンコード端末20は、応答信号を送信する際に、後述するステップS6ないしステップS10の処理を一斉に開始する。
【0063】
講師は、エンコード端末20から応答信号が送信されたことを確認すると、ステップS4において、講義を開始する。
【0064】
以下、ステップS5乃至ステップS13は全て同時並行に処理が行われるが説明の関係上ステップごとに区切って説明を行う。
【0065】
講義が開始されると、ステップS5において、ホスト端末10の表示画像送信部132によって、ホスト端末10の表示画像が、エンコード端末20に随時送信される。ステップS6において、エンコード端末20の表示画像入力部215によって表示画像データが入力される。更に、ステップS6で受信された表示画像データから、ステップS7において、エンコード端末20のアニメーションデータ生成部234によって、アニメーションデータが生成される。生成されたアニメーションデータは、記憶装置25のアニメーションデータ記憶部253に記憶される。
【0066】
一方、ステップS8において、エンコード端末20の映像入力部211及び音声入力部212によって講師による講義風景の撮影データが取得され、ステップS9においてポインタキャプチャーが取得されると、講師撮影データ生成部231及びポインタ座標データ生成部232によって、講師撮影データが生成される。生成された講師撮影データは、講師撮影データ記憶部251に記憶される。
【0067】
一方、ステップS10において、エンコード端末20のホワイトボード画像入力214によってホワイトボード80に記載された文字等のデータが取得されると、ホワイトボードデータ生成部233によって、ホワイトボードデータが生成される。生成されたホワイトボードデータは、ホワイトボードデータ記憶部252に記憶される。
【0068】
ステップS11において、講義中に講師によってインデックス信号が送信されると、ステップS12において、エンコード端末20のサムネイルデータ生成部235によって、サムネイルが作成される。作成されたサムネイルは、サムネイルデータ記憶部254に記憶される。更に、ステップS13において、インデックス信号が送信されたタイミングと生成されたサムネイルを関連づけた管理データを生成し、ステップS13において管理データ記憶部255を更新する。これにより、講義中に複数のインデックスを付与することで、受講生が任意のテーマについて受講しやすくすることができる。
【0069】
このように、講義中にステップS5乃至ステップS13の処理が随時同時並行で実行され、エンコード端末20において、コンテンツデータが生成される。
【0070】
更に、ステップS5乃至ステップS13の処理に平行して、ステップS21において、エンコード端末20によって、ステップS5乃至ステップS13の処理で生成されたコンテンツデータがコンテンツサーバ200に送信される。コンテンツサーバ200のコンテンツデータ受信部2011はコンテンツデータを受信すると、ステップS22において受信したコンテンツデータを記憶装置203に記憶する。ステップS21及びステップS22の処理は、リアルタイムでコンテンツデータを配信する場合、ステップS5乃至ステップS13の処理と同時並行で実行される。一方、リアルタイムで配信しない場合、ステップS21及びステップS22の処理は、任意のタイミングで実行される。
【0071】
更に、ステップS23において、コンテンツサーバ200のコンテンツデータ配信部2012によって、記憶装置203に記憶されたコンテンツデータがクライアント端末300aに送信される。このとき、リアルタイムでコンテンツを配信する場合、ステップS5乃至ステップS13、ステップS21及びステップS22の処理と平行して、ステップS23におけるコンテンツデータの配信処理が実行される。
【0072】
クライアント端末300aは、コンテンツデータ受信部3011によってコンテンツデータを受信するとともに、ステップS24において、コンテンツデータ再生部3012によってコンテンツデータを再生し、出力装置305に出力する。クライアント端末300aを操作する受講者は、出力装置305から出力されるコンテンツを閲覧及び視聴して学習する。
【0073】
ステップS5乃至ステップS24の処理は、コンテンツデータをリアルタイムで配信する場合は、講義中に随時実行される。
【0074】
ステップS25において講義が終了すると、ステップS26においてホスト端末10からエンコード端末20に、エンコーダ終了の指示が送信される。エンコーダ20は、エンコーダ終了の指示を受信すると、エンコーダ端末20に接続された各種装置からのデータの受信を終了し、ステップS27において、ホスト端末10に応答信号を送信する。
【0075】
以上の処理で、講義中のコンテンツの作成処理は終了するが、より質の高いコンテンツを作成するために、ステップS28において、エンコーダ端末20において、コンテンツデータ編集部236によって、コンテンツデータが編集されても良い。具体的には、コンテンツデータへのインデックスの挿入、コンテンツデータの再生時のレイアウト配置の変更、コンテンツ再生時のプレイリストの変更などの各種の設定を変更することができる。コンテンツデータが編集されると、コンテンツデータ編集部236によって管理データ記憶部255の管理データに反映される。ステップS29において、コンテンツデータ送信部237によってコンテンツデータがコンテンツサーバ200に送信されると、ステップS30において、コンテンツサーバ200のコンテンツ受信部2011によってコンテンツデータが受信されるとともに、記憶装置203のコンテンツデータが更新される。
【0076】
このようにコンテンツサーバ200に登録されたコンテンツデータは、クライアント端末300からリクエストを送信することにより、任意のタイミングでコンテンツを配信することができる。
【0077】
具体的には、ステップS31において、クライアント端末300bからコンテンツの配信リクエストが送信されると、コンテンツサーバ200のコンテンツ配信部2012は、記憶装置203からリクエストされたコンテンツデータを取得する。更にコンテンツ配信部2012は、取得したコンテンツデータを、ステップS32においてクライアント端末300bに送信する。クライアント端末300bでは、受講者の都合の良いタイミングで、取得したコンテンツデータを再生し、学習することができる。
【0078】
(コンテンツデータ)
次に図8を参照して、本発明の最良の実施の形態におけるコンテンツデータを説明する。コンテンツデータは、講師撮影データ、ホワイトボードデータ、アニメーションデータを備える。講義の形態やカメラの台数に応じて、コンテンツデータは他のデータを備えても良い。
【0079】
講師撮影データは、映像データ、音声データ及びスクリプトデータを備える。映像データ及び音声データは、講師撮影用カメラ60によって撮影された講師の画像及び音声のデータである。スクリプトデータは、講師撮影データに付随するデータであって、本実施形態においては、講師がレーザーポインタ70によって指し示したスクリーン30上の位置を示すデータである。この映像データ、音声データ及びスクリプトデータは、講義のタイムラインに従って同期されている。
【0080】
ホワイトボードデータは、ホワイトボード80に記載された文字等のデータである。ホワイトボードデータも、講義のタイムラインに従って、講師撮影データと同期されている。
【0081】
アニメーションデータは、ホスト端末10の出力装置12に表示された表示画像に基づくデータである。アニメーションデータも、講義のタイムラインに従って、講師撮影データと同期されている。
【0082】
コンテンツデータは、クライアント端末300において、例えば図9に示す様なコンテンツ表示画面P301によって表示される。
【0083】
コンテンツ表示画面P301は、映像フレームF301、表示画像フレームF302、ホワイトボードフレームF303、サムネイルフレームF304及びレーザーポインタF305を備える。
【0084】
映像フレームF301は、講師撮影データ記憶部3031の講師撮影データのうち映像データが再生されるフレームである。尚、講師撮影データのうち音声データは、音声信号に変換されスピーカーで出力される。
【0085】
表示画像フレームF302は、アニメーションデータ記憶部3033のアニメーションデータが再生されるフレームである。表示画像フレームF302には、ホスト端末10のデスクトップで表示された画像であって、スクリーン30に投影された画像がアニメーションデータとして再生される。ここで表示画像フレームF302には、講師撮影データ中にポインタ座標データとして格納されているレーザーポインタの位置が、レーザーポインタF305として再現されている。これにより、クライアント端末300において、講義中にプロジェクターに投影された画像と、講師が指し示したレーザーポインタの位置とを再現することができる。
【0086】
ホワイトボードフレームF303は、ホワイトボードデータ記憶部3032のホワイトボードデータが再生されるフレームである。
【0087】
サムネイルフレームF304は、サムネイルデータ記憶部3034に記憶されたサムネイル画像が表示されている。サムネイルフレームF305のサムネイルのいずれかが選択されることにより、そのサムネイルに関連づけられた時刻からコンテンツデータが再生される。
【0088】
このコンテンツ表示画面P301において、レイアウトを変更し、適宜各フレームの位置や大きさを変更することができる。
【0089】
(コンテンツ編集)
次に図10及び図11を参照して、本発明の最良の実施の形態において、エンコード端末20において、コンテンツデータ編集部236がコンテンツデータを編集する画面を説明する。
【0090】
図10は、コンテンツの編集画面P201である。編集画面P201は、プレビュー表示部F201、編集制御部F202、インデックスリスト表示部F203、削除リスト表示部F204及びタイムライン表示部F205を備えている。
【0091】
プレビュー表示部F201は、クライアント端末300において、実際にコンテンツデータがどのように表示されるかを示したプレビュー画面である。
【0092】
編集制御部F202は、プレビュー表示部F201に表示するための再生、停止、早送り、巻き戻しなどの指示を入力するインタフェースである。又、編集制御部F202は、インデックス追加アイコンI201、削除開始アイコンI202及び削除終了アイコンI203を備えている。
【0093】
インデックス追加アイコンI201は、所定のタイミングでインデックス追加アイコンI201がクリックされると、そのタイミングでサムネイルデータ生成部235によりサムネイルデータが生成され、コンテンツの区切りが生成される。ここで生成された各インデックスは、インデックスリスト表示部F203において表示される。
【0094】
このとき、図11に示す様なインデックス追加画面P202が表示される。ここには、インデックスを追加する時間を指定する時間指定部F251、当該インデックス以降のコンテンツの表示レイアウトを指定するリエアウト指定部F252、当該インデックス以降のコンテンツ再生時に表示するべき画像データを指定する外部ファイル指定部F253などを備えている。
【0095】
一方、削除開始アイコンI202及び削除終了アイコンI203は、コンテンツデータの再生において無音部分などの不要な部分を削除するためのアイコンである。各アイコンによりコンテンツデータの削除が指示されると、削除された部分が、削除リスト表示部F204に表示される。削除リスト表示部F204に表示された部分は、コンテンツのプレイリストから外され、コンテンツの再生時に、削除された部分はスキップされて再生される。プレイリストを用いてコンテンツを再生することにより、各装置から取得したデータを変更することなく、任意に再生する内容を変更することができる。
【0096】
タイムライン表示部F205は、現在プレビュー表示部F201において再生されている時間位置、設定されたインデックスの時間位置、削除された時間位置など、講義中のタイムラインに従った講義全般の時間情報が表示されている。
【0097】
(ポインタ座標データ生成部)
ここで、エンコード端末(コンテンツ生成装置)20のポインタ座標データ生成部232によるポイント座標データを生成する処理を説明する。ポインタ座標データ生成部232は、ポインタキャプチャー入力部213を介して取得したポインタの画像を画像処理して、ポインタの指し位置をスクリーン30における座標データとして算出する。
【0098】
本発明の最良の実施の形態においては、ポインタ位置検出用カメラ50が、レーザーポインタ70によって照射されるスクリーン30を撮影して、画像処理することにより、レーザーポインタ70によって照射された位置を取得する。
【0099】
具体的には、講義が開始される前にポインタ位置検出用カメラ50が設置されると、その設置位置からスクリーン30を撮影する。図12(a)は、このように撮影されたスクリーン基準データ261の一例である。スクリーン基準データ261には、スクリーン30aが含まれており、スクリーン30aには、プロジェクター40によって映写される映写領域30bが含まれている。プロジェクター40によって映写されるデータは、ホスト端末10の表示装置12に表示された表示画像データ等である。映写領域は、プロジェクター40によって表示される領域であるので、一般的には長方形である。しかし、プロジェクター40とスクリーン30の距離や角度、ポインタ位置検出用カメラ50の設置位置等によっては、図12(a)に示すように、映写領域30bは、四角が直角ではなく、矩形になってしまう場合がある。ポインタ座標データ生成部232は、このように、映写領域30bがゆがんだ場合でも、ポインタ位置71の位置を正確に把握する必要がある。
【0100】
ポインタ座標データ生成部232は、講義開始前に撮影されたスクリーン基準データ261において、映写領域30bの輪郭の情報を取得する。例えば、操作者が入力装置によって、スクリーン基準データ261上の映写領域の矩形の四角を指定することにより、ポイント座標データ生成部232は、映写領域30bの輪郭の情報を取得することができる。
【0101】
さらに、ポインタ座標データ生成部232は、映写領域30bの輪郭を取得すると、図12(b)に示す補正データ262において、映写領域30bを長方形に座標変換する。図12(b)に示す補正データ262は、クライアント端末300a等でアニメーションデータを表示する際の領域の大きさまたは解像度に対応している。例えば、アニメーションデータを表示する領域が、800×600画素の場合、補正データ262も、800×600画素である。
【0102】
ポインタ座標データ生成部232は、ポインタ位置検出用カメラ50からの画像データを取得すると、画像データ中の各画素値を検索して、赤外光の位置を取得する。赤外光の位置が画像データ中で白く出る場合、画像データ中の各画素についてRGBの値が高い座標を赤外光の位置として取得する。さらに、補正データ262を用いて、取得した赤外光の位置を、補正データ262上の位置に変換して、ポインタ位置の座標を取得する。具体的には、図12(a)において、映写領域30bにおけるポインタ位置71の相対位置と、補正データ262上のポインタ位置71aの相対位置が同じになるように、ポインタ位置71aを決定する。
【0103】
このように、講義開始前に、スクリーン基準データ261を取得し、補正データ262を生成することにより、プロジェクター40、スクリーン30およびポインタ位置検出力カメラ50等の設置位置に関係なく、適切なポインタ位置を検出することができる。
【0104】
(コンテンツデータ生成時の同期)
次に、コンテンツデータ生成時の同期処理、特にアニメーションデータと講師撮影データの同期処理について説明する。
【0105】
エンコード端末(コンテンツ生成装置)20は、講師撮影用カメラ60で取得した講師撮影データと、ホスト端末10から取得した表示画面データと同期させて、コンテンツデータを生成する。講師撮影データと表示画像データとは、異なる装置から、異なる処理で取得するので、一つの講義に関するデータであっても、各装置の処理能力に応じて時間のずれが生じてしまうおそれがある。また、アニメーションデータ生成部234において、表示画像データからフレームデータを生成する際の処理の負荷等の様々な事情により、フレームデータが欠落してしまうおそれがある。
【0106】
この場合、クライアント端末300a等で2時間などの長時間の講義のコンテンツデータを再生する場合、講師撮影データとアニメーションデータを同時に再生しても、その時間のずれが大きくなってしまい、大変見づらいものとなるおそれがある。そこで、本願の最良の実施の形態においては、時間のずれを小さくするように、アニメーションデータを調整している。
【0107】
アニメーションデータ生成部234が生成するアニメーションデータは、ホスト端末10から逐次送信される表示画像データから生成された複数のフレームデータを備えている。アニメーションデータ生成部234は、所定のタイミングで表示画像データを取得するたびに、フレームデータに変換して、そのフレームデータを結合することにより、アニメーションデータを生成する。ここで、アニメーションデータ生成部234は、アニメーションデータを所定のデータサイズに分けて作成することが好ましい。これにより、再生や停止などの操作におけるオーバーヘッドタイムを少なくすることができる。また、一つのファイルのサイズを小さくすることで、必要なファイルのみを編集したり送信することができる。
【0108】
アニメーションデータ生成部234は、所定のタイミングで、変換されたフレームデータの数とフレームレートから再生時間を算出して、再生時間が講師撮影データの再生時間に一致するように、フレームデータの追加または削除をしてアニメーションデータを生成する。
【0109】
ここでフレームレートが10fps(Frames Per Second)の場合について説明する。アニメーションデータ生成部234は、0.1秒毎に、ホスト端末10から表示画像データを取得し、フレームデータを生成する。アニメーションデータ生成部234は、例えば10秒ごとに講師撮影データの再生時間を問い合わせて、アニメーションデータ生成部234におけるアニメーションの再生時間が同じになるように、アニメーションデータにフレームデータを追加または削除する。
【0110】
例えば、フレームレートが10fpsの場合、10秒経過したときには、1000のフレームデータが生成されているはずである。しかし、フレームデータの欠落が発生し、995のフレームデータしか作成されていない場合がある。フレームデータの欠落は、アニメーションデータ生成部234における処理遅延などにより生成されるべきフレームデータが生成されない、ホスト端末10との通信障害等などにより、発生する。この場合、不足分の5つのフレームデータをアニメーションデータに挿入することにより、講師撮影データとの同期を取ることができる。
【0111】
図13を参照して説明する。図13に示すように、講師撮影データは、時間軸tに従って再生される一方、アニメーションデータは、時間軸Tに従って再生される。講師撮影データとアニメーションデータは、講義開始時に同時にスタートするので、t0=T0である。
【0112】
そこで、アニメーションデータ生成部234は、Δs毎にホスト端末10から表示画像データを受信して、フレームデータFを生成する。そこで、所定時間が経過したタイミングで、アニメーションデータの再生時間T1と、講師撮影データ251の再生時間t1とを比較する。ここでアニメーションデータの再生時間は、生成したフレームデータ数とフレームレートとの乗算により再生時間を取得する。T1=t1の場合、フレームデータを増減しない。
【0113】
しかし図13に示すように、フレームデータF7をの作成において時間を要してしまった場合など、アニメーションデータ生成部234が、フレームデータF8を作成することなく、フレームデータF9を作成する場合がある。この場合、本来であれば、T2からT3までの間に3枚のフレームデータが作成されていなければならないところ、F8が作成されなかったため、2枚のフレームデータしか作成されていない。作成したフレームデータの数から算出したアニメーションデータの再生時間は、講師撮影データ251の再生時間に比べて、1フレームデータ分だけ、少なくなってしまう。
【0114】
そこでアニメーションデータ生成部234は、フレームデータF8を補完して、T3=t3となるように、アニメーションのフレームデータ数を調整する。挿入するフレームデータF8は、フレームデータF7またはF9のコピーであっても良い。
【0115】
上記では、フレームデータが作成されなかった場合について説明したが、ホスト端末10から表示画像データが送信されなかった場合についても同様にフレームデータが欠落する場合もある。この場合も同様に、アニメーションデータのフレームの数から再生時間を算出して、フレームデータを追加することができる。
【0116】
また、ホスト端末10において画像の更新がない場合、ホスト端末10から画像の更新がない旨のデータを受信すると、フレームデータF4およびF5に示すように、空フレームを挿入する。これにより、画像の更新がない場合でも、アニメーションデータ253の再生時間と講師撮影用データ251の再生時間のタイミングをとりつつ、アニメーションデータ253のデータサイズを抑制することができる。また図13においては、アニメーションデータ253は、所定サイズ(例えば5Mバイトなど)で分割されている。
【0117】
図14を参照して、アニメーションデータ生成部234によるアニメーションデータ生成処理を説明する。図14においては、講師撮影データとの同期を説明するために、講師撮影データ生成部231による講師撮影データ生成処理の一部の処理も記載している。
【0118】
予めステップS101においてアニメーションデータ生成部234は、アニメーションデータの再生時間Tを初期化して、表示画像データの取得を開始する。一方、講師撮影データ生成部231も、講師撮影データの撮影時間tを初期化して、講師撮影データの生成を開始する。ここで、アニメーションデータ生成部234によるアニメーションデータ生成処理と、講師撮影データ生成部231による講師データ生成処理は、図6のステップS2に示す応答信号送信により、講義開始とともに同時に開始される。
【0119】
ステップS102においてアニメーションデータ生成部234は、ホスト端末10に表示画像を問い合わせる。ここでステップS102における表示画像データの問合せは、所定時間毎に実行される。ステップS103において、表示画像データに変化がない旨のデータを受信した場合、ステップS106に進み、所定時間を経過していない場合、ステップS102において再び、ホスト端末10に表示画像データを問い合わせる。
【0120】
一方、ステップS103において表示画像データを受信した場合、ステップS104においてアニメーションデータ生成部234は、表示画像データからフレームデータを生成する。さらに、ステップS105において必要に応じて空フレームデータを生成する。具体的には、一つ前の処理で、ステップS103において表示画像に変化がないとのデータを受信した場合、その変化がないとのデータを受信した回数に基づいて、空フレームデータを生成する。これにより、表示画像データの差分データのみ、フレームデータを生成するとともに、再生タイミングがずれることがない。
【0121】
ステップS106において所定時間が経過すると、アニメーションデータの再生時間と、講師撮影用データの再生時間とを同期させる処理をする。具体的には、ステップS107においてアニメーションデータ生成部234は、ステップS104で生成したフレームデータの数と、ステップS105で生成した空フレームデータの数とを合計したデータの数と、フレームレートを乗算して、再生時間ΔTiを算出する。さらに、ステップS108において、前回同期した時点での再生時間T(i−1)と、ステップS107で算出したΔTiとを乗算することにより、現時点でのアニメーションデータの再生時間Tiを取得する。
【0122】
一方、ステップS202において、講師撮影データの現時点での再生時間tiを取得する。ステップS109においてアニメーションデータ生成部234は、ステップS108で算出したTiと、ステップS202で取得したtiが一致するか否かを判定する。
具体的には、図13に示す例において、フレームデータF9を生成したタイミングで同期する場合、アニメーションデータについて、T2から2つのフレームデータを生成しているので、ΔT3は、2*n(n=フレームレート)で算出される。ここで、T3は、T2+ΔT3で算出される。
【0123】
一方、講師撮影データの再生時刻は、t3と取得されるので、ステップS109において、t3と、T2+ΔT3が一致するか否かが判定される。ここでは、フレームデータF8が欠落しているので、本来であれば、ΔT3は、3*nでなければならないところ、2*nと算出されている。従って、t3と、T2+ΔT3と比較しても、アニメーションデータの再生時間は、講師撮影データの撮影時間に比べて、1*n時間だけ短いことになる。
ステップS109において、T3=t3であると判定された場合、処理は、ステップS111に進む。一方ステップS109において、T3=t3でないと判定された場合、処理は、ステップS110に進む。
【0124】
ステップS110において、(ti−Ti)/フレームレートの数のフレームを、アニメーションデータに補完する。上述の例の場合、ti−Tiは、1*nになるので、1つのフレームデータをアニメーションデータに補完する。これにより、新たに算出されるT3はt3に一致するので、アニメーションデータと講師撮影データと同期することができる。
【0125】
ステップS111において、講義終了の指示が入力されていない場合、ステップS102に進み、アニメーションデータ生成部234はホスト端末10に、再び表示画像データを問い合わせる。一方ステップS111において、講義終了の指示が入力されると、そのまま処理を終了する。
【0126】
上記では、アニメーションデータのフレームデータが欠落する場合について説明した。アニメーションデータの再生時間の方が長い場合、アニメーションデータのフレームデータを間引くことにより、アニメーションデータと講師撮影データとの同期を取ることができる。
【0127】
(効果)
このように、本発明の最良の実施の形態によれば、講義の様子を様々な手段で取得したデータを一つの画面で同期させて表示することができるので、実際の講義に近い臨場感のあるイーラーニングコンテンツを提供することができる。これにより、受講者のモチベーションを維持し、高い教育成果を上げることが期待できる。
【0128】
又、一般的には、イーラーニング用のコンテンツを作成するにあたり、コンテンツの編集などに膨大な時間を要するが、本発明の最良の実施の形態によれば、講師が講義の開始と終了の合図をして講義を行うだけで、リアルタイムでイーラーニングコンテンツを作成することができる。これにより、コンテンツの作成や編集の時間を短縮することができ、容易に質の高いイーラーニングのコンテンツを提供することができる。
【0129】
また、本発明の最良の実施の形態においては特に、表示装置に表示された画像データを、講義中にリアルタイムでアニメーション化することができる。従来は、イーラーニング用のコンテンツの録画においては、予め定められた講義スケジュールによって進めるのみであったので、講師はその講義スケジュールに従って講義しなければならなかった。しかし、本発明の最良の実施の形態によれば、講師は、講義スケジュールに従うことなく、例えば、教室で講義を受講している受講生の反応を見ながら、講義を進めることができる。これにより、イーラーニングとしてコンテンツを配信した場合でも、臨場感のある講義を提供することができる。
【0130】
さらに、本発明の最良の実施の形態においては、コンテンツデータの生成時に、講義内容をアニメーションデータとして記録するとともに、講師撮影データと同期させる。これにより、受講生がコンテンツデータを快適に閲覧することができる。またコンテンツデータは複数のデータで構成されているので、コンテンツデータの再生時にも、各データごとにずれが生じる可能性がある。しかし本発明の最良の実施の形態においては、再生時にも、所定時間毎に同期を取るので、受講生がコンテンツデータを快適に閲覧することができる。
【図面の簡単な説明】
【0131】
【図1】図1は、本発明の実施の形態に係るコンテンツ生成システムのシステム概要図である。
【図2】図2は、本発明の実施の形態に係るホスト端末のハードウェア構成例を示す概略ブロック図である。
【図3】図3は、本発明の実施の形態に係るエンコーダ端末のハードウェア構成例を示す概略ブロック図である。
【図4】図4は、本発明の実施の形態に係るコンテンツサーバのハードウェア構成例を示す概略ブロック図である。
【図5】図5は、本発明の実施の形態に係るクライアント端末のハードウェア構成例を示す概略ブロック図である。
【図6】図6は、本発明の実施の形態に係るコンテンツ生成システムの動作を説明するためのシーケンス(その1)である。
【図7】図7は、本発明の実施の形態に係るコンテンツ生成システムの動作を説明するためのシーケンス(その2)である。
【図8】図8は、本発明の実施の形態に係るコンテンツ生成システムのコンテンツデータを説明するための図である。
【図9】図9は、本発明の実施の形態に係るクライアント端末でコンテンツデータの再生時に表示される画面の一例を示す図である。
【図10】図10は、本発明の実施の形態に係るエンコード端末でコンテンツの編集時に表示される画面の一例を示す図である。
【図11】図11は、本発明の実施の形態に係るエンコード端末でコンテンツの編集時にインデックスを追加するときに表示される画面の一例を示す図である。
【図12】図12は、本発明の最良の実施の形態に係るポインタ座標データ生成部の処理を説明する図である。
【図13】図13は、本発明の最良の実施の形態に係るアニメーションデータ生成部の処理を説明する図である。
【図14】図14は、本発明の最良の実施の形態に係るアニメーションデータ生成部の処理を説明するフローチャートである。
【符号の説明】
【0132】
1…遠隔配信システム
10…ホスト端末
11、21…入力装置
12、22、305…出力装置
13、23、201、301…処理制御装置
14、24、202、302…通信制御装置
15、25、203、303…記憶装置
16、26、204、304…主記憶装置
20…エンコード端末
30…スクリーン
40…プロジェクター
50…ポインタ位置検出用カメラ
60…講師撮影用カメラ
70…レーザーポインタ
80…ホワイトボード
90…ハブ
100…ホスト側システム
131…講義資料表示部
132…デスクトップ画像送信部
133…インデックス信号送信部
151…講義資料記憶部
152…講義情報記憶部
200…コンテンツサーバ
211…映像入力部
212…音声入力部
213…ポインタキャプチャー入力部
214…ホワイトボード画像入力部
215…デスクトップ画像入力部
216…インデックス信号入力部
231…講師撮影データ生成部
232…ポインタ座標データ生成部
233…ホワイトボードデータ生成部
234…アニメーションデータ生成部
235…サムネイルデータ生成部
236…コンテンツデータ編集部
237…コンテンツデータ送信部
251、2031、3031…講師撮影データ記憶部
252、2032、3032…ホワイトボードデータ記憶部
253、2033、3033…アニメーションデータ記憶部
254、2034、3034…サムネイルデータ記憶部
255、2035、3035…管理データ記憶部
300…クライアント端末
2011、3011…コンテンツデータ受信部
2012…コンテンツデータ配信部
3012…コンテンツデータ再生部

【特許請求の範囲】
【請求項1】
コンピュータを使って、講師による講義に関するコンテンツを生成するコンテンツ生成システムであって、
前記講師が操作するホスト端末と、前記ホスト端末に接続されたコンテンツ生成装置と、を備え、
前記ホスト端末は、
前記講義の資料を表示装置に表示する講義資料表示部と、
前記表示装置に表示された表示画像データを送信する表示画像送信部と、
を備え、
前記コンテンツ生成装置は、
前記講師の講義風景を撮影した講師撮影データを、前記コンテンツ生成装置の記憶装置に逐次記憶する講師撮影データ生成部と、
前記講師撮影データに同期して、前記ホスト端末から受信した表示画像データから、アニメーションデータを生成して前記記憶装置に記憶するアニメーションデータ生成部と、
を備えることを特徴とするコンテンツ生成システム。
【請求項2】
前記アニメーションデータは、前記ホスト端末から逐次送信される前記表示画像データから生成された複数のフレームデータを備え、
前記コンテンツ生成装置の前記アニメーションデータ生成部は、所定のタイミングで、変換された前記フレームデータの数とフレームレートから再生時間を算出して、前記再生時間が前記講師撮影データの再生時間に一致するように、前記フレームデータの追加または削除をして前記アニメーションデータを生成する
ことを特徴とする請求項1に記載のコンテンツ生成システム。
【請求項3】
前記コンテンツ生成システムは、さらに、前記コンテンツ生成装置に接続され前記受講者が操作するクライアント端末を備え、
前記コンテンツ生成装置は、さらに、
前記記憶装置から前記講師撮影データ及び前記アニメーションデータを読み出して、前記講師撮影データ及び前記アニメーションデータとを含むコンテンツデータを、前記クライアント端末に送信するコンテンツデータ送信部を備え、
前記クライアント端末は、
前記コンテンツデータを受信するコンテンツデータ受信部と、
前記コンテンツデータを再生して、出力装置に出力するコンテンツデータ再生部と、
を備え、
前記クライアント端末の前記コンテンツデータ再生部は、前記コンテンツデータを再生する際に、所定のタイミングで、前記講師撮影データの再生時間と前記アニメーションデータの再生時間が異なる場合に、前記アニメーションデータの再生時間を、前記講師撮影時間の再生時間に変更する
ことを特徴とする請求項1または2に記載のコンテンツ生成システム。
【請求項4】
コンピュータを使って、講師による講義に関するコンテンツを生成するコンテンツ生成装置であって、
前記講師の講義風景を撮影した講師撮影データを、記憶装置に逐次記憶する講師撮影データ生成部と、
前記講師が操作するホスト端末から、前記ホスト端末の表示装置に表示された表示画像データを受信し、前記講師撮影データに同期して、前記表示画像データから、アニメーションデータを生成して前記記憶装置に記憶するアニメーションデータ生成部と、
前記記憶装置から前記講師撮影データ及び前記アニメーションデータを読み出して、前記講師撮影データ及び前記アニメーションデータとを含むコンテンツデータを送信するコンテンツデータ送信部と、
を備えることを特徴とするコンテンツ生成装置。
【請求項5】
前記アニメーションデータは、前記ホスト端末から逐次送信される表示画像データから生成された複数のフレームデータを備え、
前記アニメーションデータ生成部は、所定のタイミングで、変換された前記フレームデータの数とフレームレートから再生時間を算出して、前記再生時間が前記講師撮影データの再生時間に一致するように、前記フレームデータの追加または削除をして前記アニメーションデータを生成する
ことを特徴とする請求項4に記載のコンテンツ生成装置。
【請求項6】
コンピュータを使って、講師による講義に関するコンテンツを生成するコンテンツ生成プログラムであって、
前記講師の講義風景を撮影した講師撮影データを、記憶装置に逐次記憶する講師撮影データ生成部と、
前記講師が操作するホスト端末から、前記ホスト端末の表示装置に表示された表示画像データを受信し、前記講師撮影データに同期して、前記表示画像データから、アニメーションデータを生成して前記記憶装置に記憶するアニメーションデータ生成部と、
前記記憶装置から前記講師撮影データ及び前記アニメーションデータを読み出して、前記講師撮影データ及び前記アニメーションデータとを含むコンテンツデータを送信するコンテンツデータ送信部
として、前記コンピュータを機能させることを特徴とするコンテンツ生成プログラム。
【請求項7】
前記アニメーションデータは、前記ホスト端末から逐次送信される表示画像データから生成された複数のフレームデータを備え、
前記アニメーションデータ生成部は、所定のタイミングで、変換された前記フレームデータの数とフレームレートから再生時間を算出して、前記再生時間が前記講師撮影データの再生時間に一致するように、前記フレームデータの追加または削除をして前記アニメーションデータを生成する
ことを特徴とする請求項6に記載のコンテンツ生成プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2009−3446(P2009−3446A)
【公開日】平成21年1月8日(2009.1.8)
【国際特許分類】
【出願番号】特願2008−134347(P2008−134347)
【出願日】平成20年5月22日(2008.5.22)
【出願人】(000201674)全日本空輸株式会社 (10)
【出願人】(504066276)株式会社アーネット (3)
【Fターム(参考)】