説明

アバター編集サーバ及びアバター編集プログラム

【課題】多様な演出により面白さを向上させたアバターを表示するアバター編集サーバ及びアバター編集プログラムを提供する。
【解決手段】端末7に対して通信ネットワーク5を介して接続され、端末7で再生するアバターを編集するアバター編集サーバ3は、端末7のアバターの基本になる画像データを記憶する基本アバターテーブル31と、端末7から送信された音声データを受け付ける音声受付部11と、音声受付部11により受け付けた音声データを、基本アバターテーブル31に記憶された画像データに関連付けて記憶する音声テーブル32と、端末7からの操作に応じて、音声テーブル32に記憶された音声データに関連付けられた画像データに動作を加えて、動作付きのアバターを生成するアバター生成部15と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、アバターを編集するアバター編集サーバ及びアバター編集プログラムに関する。
【背景技術】
【0002】
従来、ユーザの分身であるキャラクタ画像のアバターを、ユーザの端末に対して通信ネットワークを介して接続されたサーバに記憶して、アバターをブログ等のユーザ自身の自己紹介ページに配置することで、コミニュケーションツールとして他の端末に自己紹介ページを表示させることが行われている。また、アバターの用途は、ブログ等に限らない。例えば、バーチャルなミーティングルームに、ユーザが所望のコンテンツと、そのユーザのアバターとを表示して、アバターが、コンテンツを視聴しているかのように表現したコンテンツの配信を行うコンテンツ視聴システムが提案されている(例えば、特許文献1)。
【特許文献1】特開2007−115117号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
特許文献1に記載のコンテンツ視聴システムは、アバター等の画像データと、ユーザが所望の音声等の音声データを含むコンテンツとを表示し、アバターが所定の動作をしたときに、コンテンツの表示を開始する。よって、特許文献1に記載のコンテンツ視聴システムにおいて、アバターは、コンテンツの表示の開始時に、視覚的な演出をするための画像にすぎず、面白さに欠けるものであった。
そこで、本発明は、多様な演出により面白さを向上させたアバターを表示するアバター編集サーバ及びアバター編集プログラムを提供することを目的とする。
【課題を解決するための手段】
【0004】
本発明は、以下のような解決手段により、前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。また、符号を付して説明した構成は、適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。
【0005】
請求項1の発明は、端末(7)に対して通信ネットワーク(5)を介して接続され、前記端末で再生するアバターを編集するアバター編集サーバ(3)において、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部(31)と、前記端末から送信された音声データを受け付ける音声受付部(11)と、前記音声受付部により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて記憶する音声記憶部(32)と、前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成部(15)と、を備えること、を特徴とするアバター編集サーバである。
請求項2の発明は、請求項1に記載のアバター編集サーバ(3)において、前記音声記憶部(32)に記憶された前記音声データの再生位置を視覚的に表示するタイムラインを生成して、前記端末(7)に出力するタイムライン生成部(12)と、前記アバターを構成するパーツであるパーツデータを記憶するパーツ記憶部(33)と、前記端末で前記パーツに動作を付与するための表示である動作付与表示が前記タイムラインの上に配置されたことに応じて、前記動作付与表示と前記動作付与表示に対応する前記再生位置とを含む動作データを、前記端末から受け付ける動作データ受付部(14)と、を備え、前記アバター生成部(15)は、前記動作データ受付部により受け付けた前記動作データに基づき、前記画像データを構成する前記パーツデータに動作を加えて動作付きのアバターを生成すること、を特徴とするアバター編集サーバである。
請求項3の発明は、請求項2に記載のアバター編集サーバ(3)において、前記パーツ記憶部(33)に記憶された前記パーツデータは、座標データの形態のものであり、前記アバター生成部(15)は、前記動作データに含む前記動作付与表示から前記動作付与表示に対応する前記パーツデータを前記パーツ記憶部から抽出し、抽出した前記パーツデータに対して連続動作を表現するパーツの前記座標データをレンダリングして、前記アバターを生成すること、を特徴とするアバター編集サーバである。
請求項4の発明は、請求項2又は請求項3に記載のアバター編集サーバ(3)において、前記動作データ受付部(14)は、前記端末(7)において異なる動作を示す複数の前記動作付与表示を前記タイムラインの上の同一の範囲に配置した前記動作データを、前記端末から受け付けること、を特徴とするアバター編集サーバである。
請求項5の発明は、請求項2から請求項4のいずれか1項に記載のアバター編集サーバ(3)において、前記動作データ受付部(14)は、前記端末(7)において異なる動作を示す複数の前記動作付与表示を、前記タイムラインの上に複数配置した前記動作データを、前記端末から受け付け、前記アバター生成部(15)は、前記タイムラインの上に隣り合って配置された2つの前記動作付与表示に対応する前記動作データに基づき前記動作付きのアバターを生成し、生成した前記動作付きのアバターを連続して動作をさせるように、生成した2つの前記動作付きのアバターの間を補完する前記動作付きのアバターを生成するアバター補完部(15A)を備えること、を特徴とするアバター編集サーバである。
請求項6の発明は、請求項1から請求項5のいずれか1項に記載のアバター編集サーバ(3)において、前記通信ネットワーク(5)を介して接続された他の端末(7)からの前記アバターの表示要求を受け付けることで、前記アバター生成部(15)により生成された前記動作付きのアバターと、前記アバターに対応付けて前記音声記憶部(32)に記憶された音声データとを前記他の端末に再生可能に送信する再生データ送信部(17)を備えること、を特徴とするアバター編集サーバである。
請求項7の発明は、請求項6に記載のアバター編集サーバ(3)において、前記音声受付部(11)は、前記再生データ送信部(17)により送信され、前記他の端末(7)で再生された音声データに対応する他の音声データを受け付け、前記音声記憶部(32)は、前記他の音声データを、前記音声データに対応付けて記憶すること、を特徴とするアバター編集サーバである。
請求項8の発明は、請求項7に記載のアバター編集サーバ(3)において、前記アバター生成部(15)は、前記他の端末(7)のアバターを生成して、前記端末(7)の前記動作付きのアバターに対して合成して、合成アバターを新たに生成すること、を特徴とするアバター編集サーバである。
請求項9の発明は、請求項7に記載のアバター編集サーバ(3)において、前記アバター生成部(15)は、前記基本アバター記憶部(31)に記憶された前記他の端末(7)の前記画像データを、前記端末(7)の前記動作付きのアバターと共に表示するように合成アバターを生成すること、を特徴とするアバター編集サーバである。
【0006】
請求項10の発明は、端末(7)に対して通信ネットワーク(5)を介して接続され、前記端末(7)で再生するアバターを編集するアバター編集サーバ(3)が、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部(31)を備え、前記アバター編集サーバにおいて実行されるアバター編集プログラム(39)であって、前記アバター編集サーバを、前記端末から送信された音声データを受け付ける音声受付手段と、前記音声受付手段により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて音声記憶部(32)に記憶させる音声記憶手段と、前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成手段と、して機能させること、を特徴とするアバター編集プログラムである。
【発明の効果】
【0007】
本発明によれば、以下の効果を奏することができる。
(1)本発明は、音声データを端末から受け付けたことで、端末とその端末のアバターの基本になる画像データと関連付け、端末からの操作に応じて、画像データに動作を加えて動作付きのアバターを生成する。よって、音声データに動作付きの画像データを関連付けることができるので、アバターに、歌い、踊っているかのような面白い演出をさせることができる。
【0008】
(2)本発明は、音声データの再生位置を視覚的に表示するタイムラインを生成して端末に出力するので、端末のユーザは、アバターを構成するパーツに動作を付与するための動作付与表示をタイムライン上に配置することができる。また、本発明は、配置した動作付与表示に対応する動作データを端末から受け付けることで、好みの動作をアバターに与えることができる。よって、タイムライン上に動作付与表示を配置するという、直感的に分かり易く、しかもユーザにとって簡単なユーザインタフェースを用いて、動作付きのアバターを生成することができる。
【0009】
(3)本発明は、座標データの形態であるパーツデータを用いて、動作付きアバターを生成するので、端末7において、生成されたアバターを端末7で再生することができる。
(4)本発明は、タイムライン上の同一の範囲に複数の動作付与表示を配置できるので、様々な複雑な動作をアバターに付与することができる。
(5)本発明は、タイムライン上に隣り合って配置された2つの動作付与表示から生成した動作付きのアバターを補完する動作付きのアバターをさらに生成するので、タイムライン上に隣り合って配置された2つの動作の間を滑らかにつなぐことができる。
【0010】
(6)本発明は、生成した動作付きのアバターと音声データとを、音声データを送信した端末とは異なる端末に送信するので、ユーザが作成した動作付きのアバターと音声データとからなるコンテンツを、他のユーザが視聴することができる。
(7)本発明は、生成した動作付きのアバターと音声データとからなるコンテンツに、音声データを追加し、別のアバターを生成して合成アバターを新たに作成する。よって、元の楽曲にハモリを加えたり、合唱やデュエット等をしたりする様子を演出できる。また、別のアバターに代えて、画像データを追加することで、アバター編集サーバの処理の負荷を軽減しつつ、ハモリやデュエット等を演出できる。
【発明を実施するための最良の形態】
【0011】
本発明は、多様な演出により面白さを向上させたアバターを表示するアバター編集サーバ及びアバター編集プログラムを提供するという目的を、端末に対して通信ネットワークを介して接続され、端末で再生するアバターを編集するアバター編集サーバが、端末のアバターの基本になる画像データを記憶する基本アバター記憶部と、端末から送信された音声データを受け付ける音声受付部と、音声受付部により受け付けた音声データを、基本アバター記憶部に記憶された画像データに関連付けて記憶する音声記憶部と、端末からの操作に応じて、音声記憶部に記憶された音声データに関連付けられた画像データに動作を加えて、動作付きのアバターを生成するアバター生成部と、を備えることによって実現した。
【0012】
(実施形態)
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
図1は、本実施形態に係るアバターシステム1の構成及びアバター編集サーバ3の機能ブロックを示す図である。アバターシステム1は、アバター編集サーバ3と、複数の端末7と、アバター編集サーバ3及び端末7を接続する通信ネットワーク5とを備える。アバターシステム1は、アバター編集サーバ3が、端末7から音声データを受信し、音声データからタイムラインを生成して端末7に送信する。また、アバター編集サーバ3が、端末7から動作データを受け付け、動作付きのアバターを生成して、動作付きのアバターと、音声データとを端末7に送信する。そして、端末7に、動作付きのアバターを表示させる。
【0013】
なお、本実施形態において、音声データとは、例えば、ユーザの歌声等、端末7のユーザが入力した音に関するデータをいう。また、動作付きアバターとは、3D(3−Dimensional)のレンダリングにより、アバターに、動作が追加されたアバターをいう。
【0014】
アバター編集サーバ3を構成するハードウェアの数に制限はない。必要に応じて、1又は複数で構成してよい。また、アバター編集サーバ3のハードウェアは、必要に応じてWeb(ウェブ)サーバ、DB(データベース)サーバ、アプリケーション・サーバ等の各種サーバを含んで構成してよく、1台のサーバで構成しても、それぞれ別のサーバで構成してもよい。さらに、アバター編集サーバ3は、ウェブサービスを行うサーバと同一のサーバでも異なるサーバでもよいが、ここでは、同一のサーバであるものとして説明する。
【0015】
端末7は、ウェブサービスのコンテンツを表示する表示部40とユーザが操作可能な操作部41とを備えたものである。端末7は、パソコン(パーソナルコンピュータ)の他、携帯電話機、携帯情報端末等であってもよい。端末7には、音声を出力するスピーカ42と、音声を入力するマイク43とが接続されている。
通信ネットワーク5は、アバター編集サーバ3及び端末7の間の通信を行うための、例えばインターネット等の通信網である。
【0016】
アバター編集サーバ3は、制御部10、通信インタフェース部25及び記憶部30を備えている。制御部10は、音声受付部11、タイムライン生成部12、動作データ受付部14、アバター生成部15、再生データ送信部17を有する。また、アバター生成部15は、アバター補完部15Aを有する。各手段の詳細については後述する。
制御部10は、情報の演算、及び処理を行う情報演算処理装置(CPU)であり、当該アバター編集サーバ3の全体を制御するものである。制御部10は、後述する記憶部30に記憶された各種プログラムを適宜読み出して実行することにより、アバター編集サーバ3のハードウェアと協働し、本発明に係る各種機能を実現している。
【0017】
通信インタフェース部25は、当該アバター編集サーバ3を専用ネットワーク又は公共ネットワークを介して端末7や、ウェブサービスを提供する別のサーバと接続できるようにするためのネットワーク・アダプタである。通信インタフェース部25は、モデム、ケーブルモデム及びイーサネット(登録商標)・アダプタを含んでよい。
【0018】
記憶部30は、本発明の機能を実現するアバター編集プログラム39を記憶する。また、基本アバターテーブル31、音声テーブル32、パーツテーブル33、動作付きアバターテーブル34、楽曲コンテンツテーブル35を有する。各テーブルの詳細については後述する。
記憶部30は、制御部10と組み合わせてプログラムの実行に使用するメモリを含んでよい。記憶部30を実現するものとして、電気的、磁気的、光学的、電磁的に実現するものを含んでよい。より具体的には、半導体記憶装置、磁気ディスク、ランダム・アクセス・メモリ(RAM)、リードオンリー・メモリ(ROM)等が含まれる。アバター編集サーバ3と外部接続することができる磁気テープ、CD−ROMとCD−R/WとDVDとを含む光ディスクや、メモリカード等の補助記憶装置も含む概念である。
【0019】
次に、生成した動作付きアバターを端末7の表示部40に表示する例について説明する。
図2は、本実施形態に係る表示部40に表示されるTOPページ50を示す図である。
TOPページ50は、アバター編集サーバ3から配信され、例えば、端末7に備えられたブラウザの機能を用いて表示部40に表示されたウェブページである。TOPページ50の上部左方には、このTOPページ50が提供するサービスの名称である「○○○○!」の文字と、その右方に、ユーザのユーザ名51A及びユーザのアバター51Bを含むユーザ部51とが表示されている。また、TOPページ50は、フレーム分割がされており、左側のフレームには、メニュー部52が配置されている。メニュー部52から、ユーザが、端末7の操作部41を操作して好みのメニューを選択することで、メニュー部52の右側のフレームのメイン部53に、選択されたメニューに関する情報が表示される。
【0020】
メイン部53は、コンテンツ情報表示部54、コンテンツ部55、歌選択メニュー部56、ブログパーツ選択メニュー部57、評価部58、コメント表示部59が、各々配置されている。
コンテンツ情報表示部54は、コンテンツ部55に表示されたコンテンツに関する情報として、例えば、曲名、コンテンツの位置情報、コンテンツのタグ情報等を表示する。
制御部10は、コンテンツ部55に、例えば、Flash(登録商標)を用いてコンテンツを表示する。その場合、コンテンツは、Flashを用いて再生するため、「.swf」の拡張子であるデータを用いることで、端末7で処理をしながらコンテンツを再生することができる。ここで、コンテンツとは、アバター編集サーバ3の制御部10(再生データ送信部17)により送信された音声データと、動作付きのアバターのデータとに基づき、端末7の表示部40で再生されるものをいう。
歌選択メニュー部56は、歌声を録音して音声データを取得するための楽曲や、他人のコンテンツを選択するメニューを表示する。
【0021】
ブログパーツ選択メニュー部57は、このTOPページ50を他のブログに貼り付けるためのTOPページ50のネットワーク上の位置データを含むHTML(HyperText Markup Language)タグを表示する。
評価部58は、コンテンツを閲覧したユーザによる、再生したコンテンツに対する評価を、一見して把握できるように、例えば、レーダーチャートの形式で表示する。また、操作部41を操作して、評価を評価部58に入力して送信することで、アバター編集サーバ3は、ユーザからの評価を反映する。
コメント表示部59は、寄せ書きのように、端末7でコンテンツを視聴したユーザが、コンテンツに関する感想や意見をコメントとして記載して登録することで、コンテンツに関するコメントを表示する。
【0022】
次に、歌選択メニュー部56について説明する。歌選択メニュー部56には、「1人で歌う」メニュー56Aと、「今見ている動画に声を重ねる」メニュー56Bとが設けられている。歌選択メニュー部56のメニュー56Aを選択することで、制御部10は、表示部40に、例えば、別ページを表示して、コンテンツ情報表示部54に示された楽曲のカラオケを再生する。楽曲のカラオケは、後述する楽曲コンテンツテーブル35に記憶された楽曲データを用いて実現できる。そして、アバター編集サーバ3は、端末7のマイク43(図1)からの音声の入力を受け付け可能にする。その後、アバター編集サーバ3は、受け付けた音声データを、音声テーブル32に記憶する。
【0023】
また、メニュー56Bを選択することで、表示部40に、例えば、別ページが表示され、コンテンツ部55に表示された再生中のコンテンツと再生中のコンテンツの歌詞とが表示される。そして、アバター編集サーバ3は、端末7のマイク43からの音声の入力を受け付け可能にする。その後、アバター編集サーバ3は、端末7から受け付けた音声データを、再生中のコンテンツの音声データに対応付けて、音声テーブル32に記憶する。
なお、歌声を録音して音声データを取得することは、歌選択メニュー部56から行う以外に、メニュー部52から表示された投稿可能曲のリストを選択して、そこから楽曲のカラオケを再生して行ってもよい。
【0024】
ここで、コンテンツ部55に表示するコンテンツを構成する、アバターを格納する基本アバターテーブル31、音声データを格納した音声テーブル32、楽曲のデータを格納した楽曲コンテンツテーブル35について説明する。
図3は、本実施形態に係る基本アバターテーブル31、音声テーブル32及び楽曲コンテンツテーブル35を示す図である。
【0025】
図3(a)の基本アバターテーブル31は、ユーザ及びユーザに対応するアバターに関するデータを記憶するテーブルであり、ユーザID311、アバターID312、基本アバター画像313、ページデータ314の各項目からなる。
ユーザID311には、ユーザを一意に表す記号を格納する。アバターID312には、ユーザに対応するアバターを一意に表す記号を格納する。基本アバター画像313には、アバターIDに対応するユーザのアバターの画像データを格納する。
【0026】
ページデータ314には、ユーザに関する情報が掲載されたページであるマイページのページデータを格納する。マイページは、ウェブページの一種であり、そのユーザのお気に入りのコンテンツやそのコンテンツの評価等を掲載するものである。アバターには、そのアバターに対応したマイページを表示する機能を有することで、例えば、コンテンツの作成ユーザの詳細を知りたい場合に、ユーザが、操作部41によりコンテンツ上のアバターを選択することで、このマイページを表示することができる。このように、制御部10は、選択されたアバターのマイページを表示することで、ユーザは、そのユーザのお気に入りのコンテンツや、そのユーザが作成した他のコンテンツ等の情報を簡単に知ることができる。そして、ユーザは、他のユーザのお気に入りのコンテンツから、新たに気に入るコンテンツを見つけることができる。
【0027】
図3(b)の音声テーブル32は、コンテンツを記述する音声データに関するデータを記憶するテーブルであり、音声ID321、楽曲コンテンツID322、ユーザID323、音声データ324、評価データ325、コピー元音声ID326の各項目からなる。
音声ID321には、音声データ324に格納する音声データを一意に表す記号を格納する。音声ID321に格納する音声IDは、例えば、音声データを受け付けた都度、制御部10が新たな記号を付与する。楽曲コンテンツID322には、次に説明する図3(c)の楽曲コンテンツテーブル35に対応する楽曲コンテンツを一意に表す記号を格納する。ユーザID323には、図3(a)の基本アバターテーブル31に対応するユーザを一意に表す記号を格納する。音声データ324には、受け付けた音声データそのものを格納する。音声データは、例えば、拡張子が「.mp3」で表される形式のデータである。評価データ325には、後述する音声データに記憶された歌の上手さの度合いに応じて格納される評価値を格納する。コピー元音声ID326には、コンテンツをコピーした場合の元になる音声IDが格納される。コンテンツのコピーについては、後述する。
【0028】
図3(c)の楽曲コンテンツテーブル35は、いわゆるカラオケ演奏を行うための楽曲コンテンツに関するデータを記憶するテーブルであり、楽曲コンテンツID351と楽曲データ352の項目からなる。
楽曲コンテンツID351には、楽曲コンテンツを一意に表す記号を格納する。また、楽曲データ352には、楽曲を出力するためのデータを格納する。楽曲データ352に格納するデータは、例えば、MIDI(Musical Instruments Digital Interface)形式である。また、楽曲データ352に格納するデータは、テロップとして歌詞を表示するための歌詞のデータ及びテロップを切り替えるための位置データに関連付けられている。
【0029】
次に、アバター編集サーバ3におけるアバター投稿処理の流れを説明する。
図4は、本実施形態に係るアバター投稿処理のフローチャートである。アバター投稿処理により、端末7において、図2で示すTOPページ50のコンテンツ部55に、投稿したアバターのコンテンツを表示できる。
まず、ステップS1では、制御部10は、投稿する楽曲を受け付ける。つまり、ユーザが歌いたい楽曲を決定する。楽曲は、例えば、図2の歌選択メニュー部56やメニュー部52から受け付けることができる。
次に、ステップS2では、制御部10は、楽曲コンテンツテーブル35(図3)に記憶された該当の楽曲データを再生する。
【0030】
ステップS3では、制御部10(音声受付部11)は、端末7から音声データを受け付ける。つまり、制御部10は、端末7から受信した音声データを記憶(録音)する。
【0031】
ここで、音声データを受け付ける録音ページ60について説明する。
図5は、本実施形態に係る録音ページ60を示す図である。
図5(a)は、楽曲を受け付けたことで、表示部40(図1)に表示される録音ページ60を示す。録音ページには、殺風景な背景62をバックに、ユーザのアバター61(画像データ)がページの中央に表示されている。ユーザのアバター61は、基本アバターテーブル31(図3)のユーザID311に対応する基本アバター画像313に格納されたアバターの画像データである。また録音ページ60の下方には、録音時間表示部63、ステータスバー64、録音開始ボタン65が表示されている。録音時間表示部63は、楽曲の全体の時間の長さと、そのうちの録音時間とを表示する。この例では、全体の長さが2分間であり、録音時間が録音開始前のため0であることを示す。また、録音時間表示部63に対応して、ステータスバー64が表示されている。録音開始ボタン65は、操作部41(図1)を操作して押下することで、次に説明する録音停止ボタン66に変更される。また、録音開始ボタン65が押下されたタイミングで、楽曲の出力を開始すると共に、録音を開始する。
【0032】
図5(b)は、録音途中の録音ページ60を示す。背景62は、録音中の音声データから判断された歌の上手さの度合いによって変更される。歌の上手さの度合いは、手本になる歌のリズム、音程等を基準にして音声データのずれ具合により制御部10が判断する。制御部10は、歌の上手さの度合いが高いと判断した場合には、背景62を、より華やかなものに変更し、アバターが豪華なステージで歌っているかのような演出をする。他方、制御部10は、歌の上手さの度合いが低いと判断した場合には、背景62を、より質素なものに変更する。録音ページの下方の録音時間表示部63及びステータスバー64は、楽曲の途中であることを示している。また、録音ページ60には、現時点での歌詞67が表示され、楽曲に合わせて歌詞を出力する。さらに、図5(a)の録音開始ボタン65の位置には、録音停止ボタン66が表示されている。
【0033】
図5(c)は、楽曲の出力が終了した時点での録音ページ60を示す。背景62は、歌い終わった時点において、録音した音声データから最終的な歌の上手さの度合いによって変更される。なお、最終的な歌の上手さの度合いである評価値は、音声データと共に図3で説明した音声テーブル32の評価データ325に記憶される。録音ページの下方の録音時間表示部63及びステータスバー64は、楽曲の出力が終了したことを示している。また、図5(b)の録音停止ボタン66が削除され、代わって決定ボタン68が表示される。
【0034】
図4に戻り、ステップS4では、制御部10(タイムライン生成部12)は、タイムラインを生成して端末7に送信する。
【0035】
ここで、端末7の表示部40に表示されるアクション作成ページ70について説明する。
図6は、本実施形態に係るアクション作成ページ70を示す図である。
アクション作成ページ70は、ページの上方に配置された検索部71と、その下方に設けられたアクション作成部72とからなり、視覚的に表示された音声データを見ながら、ユーザがアバターにアクション(動作)を付与して、動作付きのアバターを生成して、アバターを躍らせるような演出を行うためのページである。検索部71は、後からアバターにアクションを付けたい場合等に、ユーザ名や曲名を入れて検索するためのものである。そして、制御部10は、検索結果の音声データを記憶部30から読み出して、タイムラインを生成して表示する。
【0036】
アクション作成部72は、楽曲の曲名や音声データの元である発声元のユーザ名等を表示する曲名部73と、音声データに合わせてアクションを付けるためのタイムライン部74(タイムライン)とからなる。タイムライン部74は、楽曲の長さを横軸に表して、曲の拍や小節の単位で区切りの印を入れて表示する。タイムライン部74は、縦軸側に、上から下に向かって、アバターにアクションを付与するためのアクション構成部75、音声データを視覚的に表示する音声表示部76、曲の歌詞を表示する歌詞表示部77を有する。音声表示部76には、録音した音声データを分析して、例えば、音量や音の高低を波形を表示させる。歌詞表示部77には、上述した楽曲データに関連付けられたテロップとして歌詞を表示するための歌詞のデータと、テロップを切り替えるための位置データとを用いて、歌詞を表示させる。
【0037】
アクション構成部75には、ユーザが操作部41を操作することで、好みの場所にアクション選択ボックス78を表示させる。そして、好きなアクション名を選択して、アクション構成部75に貼り付けることで、アクション構成部75には、アクション名(動作付与表示)が配置される。このようにすることで、アバターを構成するパーツに、該当のアクションを付けることができる。アクション選択ボックス78には、パーツテーブル33に記憶されたものを表示させる。
【0038】
ここで、パーツテーブル33について説明する。
図7は、本実施形態に係るパーツテーブル33を示す図である。
パーツテーブル33は、パーツID331、アクション名332、パーツデータ333の各項目からなる。
パーツID331には、アクションのパーツを一意に表す記号を格納する。アクション名332には、アクション構成部75(図6)に表示するアクションの名称を格納する。また、アクション選択ボックス78(図6)には、このアクション名332に格納されたアクション名を表示する。パーツデータ333には、座標データの形態であるパーツのアクション自体のデータを格納する。
【0039】
図6に戻って、アクション構成部75に配置するアクションの長さは、操作部41を操作することで、好みの長さに変更できる。また、アクション構成部75に配置するアクションは、一度貼り付けたパーツを操作部41の操作によって移動することができる。さらに、同じタイミングの場所に、複数のアクションを付与することもできる。例えば、手を挙げるというアバターの手に関する動作と、歩くという足に関する動作とであれば、同じタイミングの場所に付与することができる。プレビューボタン79は、ユーザが確認できるように、付与したアクションを再生するためのボタンである。決定ボタン80は、アクション構成部75に付与したアクションを、動作データとしてアバター編集サーバ3に送信するためのボタンである。
【0040】
このように、アバター編集サーバ3は、音声データの再生位置を視覚的に表示するタイムライン部74を含むアクション作成ページ70を生成して端末7に出力するので、端末7のユーザは、アクション名をアクション構成部75上に配置することができ、配置したアクション名に対応する動作データを端末7から受け付けることで、好みの動作をアバターに与えることができる。よって、アクション構成部75上にアクション名を配置するという、直感的に分かり易く、しかもユーザにとって簡単なユーザインタフェースを用いて、動作付きのアバターを生成することができる。
また、アバター編集サーバ3は、アクション構成部75上の同一の範囲に複数のアクション名を配置できるので、様々な複雑な動作をアバターに付与することができる。
さらに、アバター編集サーバ3は、端末7から受け付けた音声データとアバターの画像データとを関連付けるので、動作を加えることで、アバターに、歌い、踊っているかのような演出を与えることができる。
【0041】
図4に戻り、ステップS5では、制御部10(動作データ受付部14)は、端末7から動作データを受け付ける。具体的には、上述の図6のように、端末7で決定ボタン80が選択されたことで動作データが送信されるため、制御部10は、その動作データを受け付ける。
ステップS6では、制御部10(アバター生成部15)は、動作付きアバター生成処理を行う。
【0042】
ここで、動作付きアバター生成処理について説明する。
図8は、本実施形態に係る動作付きアバター生成処理のフローチャートである。
まず、ステップS11では、アバター生成部15は、動作データに含む動作付与表示から、当該動作付与表示に対応するパーツデータを、パーツテーブル33から抽出する。
ステップS12では、アバター生成部15は、パーツデータに対して連続動作を表現するパーツの座標データをレンダリングして、アバターを生成する。そして、アバター生成部15は、生成したアバターの動作データを、動作付きアバターテーブル34に記憶する。
【0043】
ここで、動作付きアバターテーブル34について説明する。
図9は、本実施形態に係る動作付きアバターテーブル34を示す図である。
動作付きアバターテーブル34は、アバターID341、音声ID342、時間位置343、アバター動作データ344の各項目からなる。
アバターID341には、図3(a)の基本アバターテーブル31に対応するアバターを一意に表す記号を格納する。音声ID342には、図3(b)の音声テーブル32に対応する音声データを一意に表す記号を格納する。時間位置343には、秒単位での時間を格納する。アバター動作データ344には、座標データの形態であるアバターのアクション自体のデータを格納する。
【0044】
ステップS13では、アバター生成部15は、全ての動作データに対して処理をしたか否かを判断する。全ての動作データに対して処理を行った場合(ステップS13:YES)には、アバター生成部15は、処理をステップS14に移す。他方、全ての動作データに対して処理を行っていない場合(ステップS13:NO)には、アバター生成部15は、処理をステップS11に移す。
ステップS14では、アバター生成部15は、タイムライン上に隣り合って配置された動作付与表示があるか否かを判断する。タイムライン上に隣り合って配置された動作付与表示がある場合(ステップS14:YES)には、アバター生成部15は、処理をステップS15に移す。他方、タイムライン上に隣り合って配置された動作付与表示がない場合(ステップS14:NO)には、アバター生成部15は、本処理を終了する。
ステップS15では、アバター補完部15Aは、隣り合って配置されたアバターの間を補完するアバターを生成する。そして、アバター生成部15は、生成したアバターの動作データを、動作付きアバターテーブル34に記憶する。その後、アバター生成部15は、本処理を終了する。
【0045】
次に、レンダリング処理及び補完処理について説明する。
図10は、本実施形態に係るレンダリング処理及び補完処理の説明のための図である。
図10(a)は、連続する動作のレンダリング処理の方法を模式化したものであり、丸82と棒83とで表された部分は、アバターの腕の部分であり、丸82が関節等を、棒83が骨等を示す。時間の経過と共に、丸82と棒83とが移動することで、手を振る動作を表現する。このアバターの腕のパーツの座標データに、ポリゴンを用いて肉付けして、画像を描画する。
図10(b)は、アバターの動作を補完する補完処理を説明する図である。例えば、図6に示す例では、アクション構成部75に配置したアクションのうち「Action1」と「Action5」とは隣り合ったアクションである。ここで、「Action1」の最後のアクション(#1)と、「Action5」の最初のアクション(#2)とのパーツの位置が離れている場合、その間のアクションがないと、滑らかな動きにならない。そこで、隣り合ったアクションの間を補完するアクションを生成する。(#1)の座標データと(#2)の座標データとから、中間の位置の座標データを作成する。このように、中間の座標データにより、滑らかな動きを演出できる。
【0046】
図4に戻り、ステップS7では、制御部10は、端末7に対して再生データを送信する。再生データは、座標データからなるデータであり、再生データを受信した端末7は、座標データから画像データを生成して表示部40に表示する。例えば、図6のプレビューボタン79を選択したことで、制御部10は、上述のステップS5からこのステップS7までの処理を行う。
ステップS8では、制御部10は、端末7からアバターの投稿を受け付ける。例えば、図6の決定ボタン80を選択したことで、制御部10は、このステップS8の処理を行う。その後、制御部10は、本処理を終了する。
【0047】
このように、アバターの投稿を受け付けたことで、アバター編集サーバ3は、生成した動作付きのアバターと音声データとを、音声データを送信した端末7とは異なる端末7に送信するので、異なる端末7を操作するユーザは、音声データを送信したユーザが作成した動作付きのアバターと音声データとからなるコンテンツを、視聴することができる。
【0048】
次に、アバター合成処理について説明する。
図11は、本実施形態に係るアバター合成処理のフローチャートである。
ここで、アバター合成処理とは、再生中のコンテンツに、端末7から受け付けた音声データを追加するものであり、あたかも、再生中のコンテンツに対してハモリを加えたり、デュエットをしたりしたかのような演出を行うものである。例えば、図2において、メニュー56Bを選択した場合に行われる。なお、本処理の説明中、再生中のコンテンツを作成したユーザの端末を、端末7A、再生中のコンテンツに音声データを追加するユーザの端末を、端末7Bと記載して区別する。
【0049】
まず、ステップS21では、制御部10は、端末7Bから音声データを受け付ける。
次に、ステップS22では、制御部10は、端末7Aのユーザが作成したコンテンツであり、端末7Bで再生中のコンテンツをコピーする。具体的には、図3(b)の音声テーブル32の音声ID321に記憶された該当の音声データの音声IDを、コピー元音声ID326に記憶したレコードを新たに作成して、作成したレコードの音声ID321に、新たな音声IDを付与する。
【0050】
ステップS23では、制御部10は、受け付けた音声データを、コピーしたコンテンツに追加する。具体的には、新たな音声IDを付与したレコードの音声データ324に、受け付けた音声データを格納する。
ステップS24では、制御部10(アバター生成部15)は、音声データの受付元の端末7Bのユーザのアバターを、コピーしたコンテンツに追加する。具体的には、新たな音声IDを付与したレコードのユーザID323に、受け付けた端末7BのユーザのユーザIDを格納する。このようにすることで、新たな音声IDを付与したレコードのコンテンツを再生する場合には、当該レコードと、コピー元音声ID326に格納された音声IDのレコードと、を用いることで、アバターを合成し、音声を合成することができる。その後、制御部10は、本処理を終了する。
【0051】
このように、アバター編集サーバ3は、生成した動作付きのアバターと音声データとからなるコンテンツに、音声データを追加し、別のアバターを生成して合成アバターを新たに作成することができる。よって、元の楽曲にハモリを加えたり、合唱やデュエット等をしたりする様子を演出できる。
【0052】
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
【0053】
(変形形態)
(1)本実施形態において、アバターに動作を付与するアクションは、アクション選択ボックスに表示される予め決められたものから選択する例を示したが、これに限定されない。例えば、会員や所定の回数投稿した場合等、特典を満たした場合に、アクション選択ボックスに表示されるアクションの種類を増やしてもよい。
(2)本実施形態において、アバター合成処理では、アバターを追加する例を示したが、これに限定されない。例えば、アバターよりも画像データ量の少ないユーザの静止画等を追加することで、サーバの処理の負荷を軽減できる。
(3)本実施形態において、各種テーブルを用いてサーバでの処理を説明したが、テーブルの構成等はこれに限定されない。本機能を実現できるものであれば、テーブルの構成はどのようなものであってもよい。
【図面の簡単な説明】
【0054】
【図1】本実施形態に係るアバターシステムの構成及びアバター編集サーバの機能ブロックを示す図である。
【図2】本実施形態に係る表示部に表示されるTOPページを示す図である。
【図3】本実施形態に係る基本アバターテーブル、音声テーブル及び楽曲コンテンツテーブルを示す図である。
【図4】本実施形態に係るアバター投稿処理のフローチャートである。
【図5】本実施形態に係る録音ページを示す図である。
【図6】本実施形態に係るアクション作成ページを示す図である。
【図7】本実施形態に係るパーツテーブルを示す図である。
【図8】本実施形態に係る動作付きアバター生成処理のフローチャートである。
【図9】本実施形態に係る動作付きアバターテーブルを示す図である。
【図10】本実施形態に係るレンダリング処理及び補完処理の説明のための図である。
【図11】本実施形態に係るアバター合成処理のフローチャートである。
【符号の説明】
【0055】
1 アバターシステム
3 アバター編集サーバ
7、7A、7B 端末
10 制御部
11 音声受付部
12 タイムライン生成部
14 動作データ受付部
15 アバター生成部
15A アバター補完部
17 再生データ送信部
25 通信インタフェース部
30 記憶部
31 基本アバターテーブル
32 音声テーブル
33 パーツテーブル
34 動作付きアバターテーブル
35 楽曲コンテンツテーブル
39 アバター編集プログラム
40 表示部
41 操作部
42 スピーカ
43 マイク
70 アクション作成ページ
75 アクション構成部

【特許請求の範囲】
【請求項1】
端末に対して通信ネットワークを介して接続され、前記端末で再生するアバターを編集するアバター編集サーバにおいて、
前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部と、
前記端末から送信された音声データを受け付ける音声受付部と、
前記音声受付部により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて記憶する音声記憶部と、
前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成部と、
を備えること、
を特徴とするアバター編集サーバ。
【請求項2】
請求項1に記載のアバター編集サーバにおいて、
前記音声記憶部に記憶された前記音声データの再生位置を視覚的に表示するタイムラインを生成して、前記端末に出力するタイムライン生成部と、
前記アバターを構成するパーツであるパーツデータを記憶するパーツ記憶部と、
前記端末で前記パーツに動作を付与するための表示である動作付与表示が前記タイムラインの上に配置されたことに応じて、前記動作付与表示と前記動作付与表示に対応する前記再生位置とを含む動作データを、前記端末から受け付ける動作データ受付部と、
を備え、
前記アバター生成部は、前記動作データ受付部により受け付けた前記動作データに基づき、前記画像データを構成する前記パーツデータに動作を加えて動作付きのアバターを生成すること、
を特徴とするアバター編集サーバ。
【請求項3】
請求項2に記載のアバター編集サーバにおいて、
前記パーツ記憶部に記憶された前記パーツデータは、座標データの形態のものであり、
前記アバター生成部は、前記動作データに含む前記動作付与表示から前記動作付与表示に対応する前記パーツデータを前記パーツ記憶部から抽出し、抽出した前記パーツデータに対して連続動作を表現するパーツの前記座標データをレンダリングして、前記アバターを生成すること、
を特徴とするアバター編集サーバ。
【請求項4】
請求項2又は請求項3に記載のアバター編集サーバにおいて、
前記動作データ受付部は、前記端末において異なる動作を示す複数の前記動作付与表示を前記タイムラインの上の同一の範囲に配置した前記動作データを、前記端末から受け付けること、
を特徴とするアバター編集サーバ。
【請求項5】
請求項2から請求項4のいずれか1項に記載のアバター編集サーバにおいて、
前記動作データ受付部は、前記端末において異なる動作を示す複数の前記動作付与表示を、前記タイムラインの上に複数配置した前記動作データを、前記端末から受け付け、
前記アバター生成部は、
前記タイムラインの上に隣り合って配置された2つの前記動作付与表示に対応する前記動作データに基づき前記動作付きのアバターを生成し、
生成した前記動作付きのアバターを連続して動作をさせるように、生成した2つの前記動作付きのアバターの間を補完する前記動作付きのアバターを生成するアバター補完部を備えること、
を特徴とするアバター編集サーバ。
【請求項6】
請求項1から請求項5のいずれか1項に記載のアバター編集サーバにおいて、
前記通信ネットワークを介して接続された他の端末からの前記アバターの表示要求を受け付けることで、前記アバター生成部により生成された前記動作付きのアバターと、前記アバターに対応付けて前記音声記憶部に記憶された音声データとを前記他の端末に再生可能に送信する再生データ送信部を備えること、
を特徴とするアバター編集サーバ。
【請求項7】
請求項6に記載のアバター編集サーバにおいて、
前記音声受付部は、前記再生データ送信部により送信され、前記他の端末で再生された音声データに対応する他の音声データを受け付け、
前記音声記憶部は、前記他の音声データを、前記音声データに対応付けて記憶すること、
を特徴とするアバター編集サーバ。
【請求項8】
請求項7に記載のアバター編集サーバにおいて、
前記アバター生成部は、前記他の端末のアバターを生成して、前記端末の前記動作付きのアバターに対して合成して、合成アバターを新たに生成すること、
を特徴とするアバター編集サーバ。
【請求項9】
請求項7に記載のアバター編集サーバにおいて、
前記アバター生成部は、前記基本アバター記憶部に記憶された前記他の端末の前記画像データを、前記端末の前記動作付きのアバターと共に表示するように合成アバターを生成すること、
を特徴とするアバター編集サーバ。
【請求項10】
端末に対して通信ネットワークを介して接続され、前記端末で再生するアバターを編集するアバター編集サーバが、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部を備え、前記アバター編集サーバにおいて実行されるアバター編集プログラムであって、
前記アバター編集サーバを、
前記端末から送信された音声データを受け付ける音声受付手段と、
前記音声受付手段により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて音声記憶部に記憶させる音声記憶手段と、
前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成手段と、
して機能させること、
を特徴とするアバター編集プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate


【公開番号】特開2010−66789(P2010−66789A)
【公開日】平成22年3月25日(2010.3.25)
【国際特許分類】
【出願番号】特願2008−229681(P2008−229681)
【出願日】平成20年9月8日(2008.9.8)
【出願人】(306019111)株式会社タイトー (475)
【Fターム(参考)】