説明

ポータブル端末における立体データ生成装置及び方法並びに電子装置

【課題】ポータブル端末における立体データの再生の際に、映像データの被写体情報を利用してオーディオデータに遠近感を適用して立体音響を提供する装置及び方法を提供する。
【解決手段】本発明のポータブル端末における立体データを生成する装置は、立体データ生成のための映像データを獲得して映像データに対して立体効果を適用する映像処理部と、立体データ生成のためのオーディオデータを獲得した後、被写体の動き情報によってオーディオデータに立体効果を適用するように処理するオーディオ処理部と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ポータブル端末における立体データを生成して再生する装置及び方法並びに電子装置に関するものである。
【背景技術】
【0002】
最近の映像技術において、3次元データを実装する方法の研究が盛んに行われている。これは、より実際的でリアリティーある映像情報を表現するためである。人間の視覚特性を活用して、既存のディスプレイ装置に左視点映像と右視点映像をそれぞれ該当の位置に走査した後、左視点と右視点をユーザーの左眼と右眼に分離して像ができるようにすることで、3次元の立体感を感じとらせる方法が様々な面でその可能性が認められている。一例として、バリアーLCDを装着したポータブル端末(立体携帯電話、立体カメラ、立体カムコーダー等)や3DTVでは、ステレオスコピックコンテンツを再生してユーザーによりリアルな映像を提供することができるようになった。
【0003】
一般的に立体映像(stereo scopic image)は、既存の映像とは異なり、特定の距離だけ離隔されている二つのカメラモジュールを利用して映像を撮影した後、二つの映像を関連付けて使用する。即ち、ユーザーの右眼及び左眼で見る視点を合成して立体映像を作るのである。このような二つの映像は縦方向又は横方向に配置することができる。
【0004】
現在のステレオ映像の出力方法は大きく眼鏡方式と裸眼方式の二つに分けられる。一番目の眼鏡方式の場合、視野角の制限が少なくて立体効果が大きい方式として、主にTVのような大きい出力装置に用いられる。二番目の裸眼方式は、バリアーLCDを用いる方式により眼鏡を使用せず、ポータブル端末に相応しいが視野角に制限が大きい方式である。
【0005】
一般的に、ポータブル端末では映像データに対して立体効果を提供している。即ち、ポータブル端末で立体データを再生する場合、映像データにだけ立体効果が適用され、オーディオデータには立体効果が適用されず、平面的な音響を提供するという問題点が発生する。これはポータブル端末で獲得するオーディオデータのチャンネルが不足するためである。
【0006】
これにより、上記のような問題点を解決するためにポータブル端末でオーディオデータに立体効果を適用するための装置及び方法が要求される。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】韓国特許出願公開第10−2009−0109425号明細書
【発明の概要】
【発明が解決しようとする課題】
【0008】
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、ポータブル端末における立体音響を提供する装置及び方法並びに電子装置を提供することにある。
また、本発明の目的は、ポータブル端末においてオーディオデータ及び映像データに立体効果を適用するための立体データを生成する装置及び方法並びに電子装置を提供することにある。
また、本発明の目的は、ポータブル端末において映像データに含まれる被写体情報によってオーディオデータに遠近感を適用する装置及び方法並びに電子装置を提供することにある。
また、本発明の目的は、ポータブル端末における立体データの再生の際に、被写体情報を把握してオーディオデータに立体効果を適用する装置及び方法並びに電子装置を提供することにある。
【課題を解決するための手段】
【0009】
上記目的を達成するためになされた本発明の一態様によるポータブル端末における立体データを生成する装置は、立体データ生成のための映像データを獲得して映像データに対して立体効果を適用し、映像データの被写体の動き情報を把握する映像処理部と、立体データ生成のためのオーディオデータを獲得した後、被写体の動き情報によってオーディオデータに立体効果を適用するように処理するオーディオ処理部と、を備えることを特徴とする。
【0010】
前記映像処理部は、獲得した映像データから焦点に当たる被写体と背景とに区分する被写体確認部と、被写体の位置情報を把握する位置情報分析部と、被写体の遠近情報を把握する遠近情報分析部と、を備えることができる。
前記オーディオ処理部は、獲得したオーディオデータから被写体で発生するオーディオデータである第1オーディオデータと背景で発生するオーディオデータである第2オーディオデータとを区分する信号抽出部と、被写体の動き情報を利用して前記第1オーディオデータ及び前記第2オーディオデータに立体効果を適用する効果適用部と、を備えることができる。
前記効果適用部は、前記第1オーディオデータ又は前記第2オーディオデータを被写体の動き情報に合わせて設定することができる。
前記立体データを生成する装置は、立体効果が適用された映像データ及びオーディオデータを用いて立体データを生成して再生するように処理し、オーディオデータに対する立体効果が適用されない立体データの再生の場合、前記ポータブル端末が映像データの被写体の動き情報を確認してオーディオデータに立体効果を適用して再生することができる。
オーディオ処理部は、前記第1オーディオデータが映像データの被写体で発生した場合、オーディオデータに立体効果を適用することができる。
オーディオ処理部は、前記第1オーディオデータを周波数領域で分析した後、被写体が動く視点にオーディオ信号の変化が発生したことを確認した場合、前記第1オーディオデータが映像データの被写体で発生したと判断することができる。
【0011】
上記目的を達成するためになされた本発明の一態様によるポータブル端末における立体データを生成する方法は、立体データ生成のための映像データ及びオーディオデータを獲得する段階と、映像データで被写体の動き情報を把握する段階と、映像データに対して立体効果を適用する段階と、被写体の動き情報によってオーディオデータに立体効果を適用する段階と、を有することを特徴とする。
【0012】
上記目的を達成するためになされた本発明の一態様による電子装置は、一つ以上のプロセッサと、メモリーと、前記メモリーに保存され、前記一つ以上のプロセッサによって実行されるように構成された一つ以上のモジュールと、を備える電子装置であって、前記モジュールは、立体データ生成のための映像データ及びオーディオデータを獲得し、映像データで被写体の動き情報を把握し、映像データに対して立体効果を適用し、被写体の動き情報によってオーディオデータに立体効果を適用することを特徴とする。
【発明の効果】
【0013】
本発明によれば、立体データの再生の際に、映像データだけではなくオーディオデータにも立体効果を適用するため、よりリアリティーがある立体効果をユーザーに提供することができる。
【図面の簡単な説明】
【0014】
【図1】本発明の一実施形態による立体データを生成するポータブル端末の構成を示すブロック図である。
【図2】本発明の一実施形態による立体効果を提供する映像処理部の構成を示すブロック図である。
【図3】本発明の一実施形態による立体効果を提供するオーディオ処理部の構成を示すブロック図である。
【図4】本発明の一実施形態によるポータブル端末における立体データを生成するステップを示す流れ図である。
【図5】本発明の一実施形態によるポータブル端末におけるオーディオデータに立体効果を適用するステップを示す流れ図である。
【図6】一般的なポータブル端末における立体データの再生画面を示す図である。
【図7】本発明の一実施形態によるポータブル端末における立体データの再生画面を示す図である。
【図8】本発明の他の実施形態によるポータブル端末におけるオーディオデータに対する立体効果の適用視点を把握するステップを示す流れ図である。
【発明を実施するための形態】
【0015】
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。本発明を説明するにあたり、関係する公知機能或いは構成に対する具体的な説明が本発明の要旨を不明瞭にすることがあると判断される場合、その詳細な説明は省略する。
【0016】
以下では、本発明によるポータブル端末で多数のカメラモジュールで撮影されたステレオ映像データとオーディオデータに立体効果を適用するために、映像データの被写体情報を用いてオーディオデータに遠近感を適用する装置及び方法について説明する。ここで、ポータブル端末は、立体効果を提供することができる表示部を備え、立体移動通信端末、立体カメラ、立体カムコーダー、3DTVなどのようにステレオスコピックコンテンツを再生してユーザーに立体感を提供するディスプレイ機器を意味する。ポータブル端末は、映像データの被写体の動きを確認した後、背景オーディオ信号と主オーディオ信号に対して遠近感を補正するように処理する。
【0017】
図1〜図3は、本発明の一実施形態による映像データ及びオーディオデータに立体効果を適用するポータブル端末の構成を示すブロック図であり、図1は、本発明の一実施形態による立体データを生成するポータブル端末の構成を示すブロック図である。
【0018】
図1を参照すると、ポータブル端末は、制御部100、映像処理部102、オーディオ処理部104、メモリー部106、入力部108、表示部110、及び通信部112を含んで構成される。
【0019】
ポータブル端末の制御部100は、ポータブル端末の全般的な動作を制御する。例えば、音声通話及びデータ通信のための処理及び制御を実行し、通常的な機能に加えて、制御部100は、多数の映像データとオーディオデータを獲得した後、獲得したデータ(映像データ及びオーディオデータ)に立体効果を適用して立体データを生成し、立体データを再生するように処理する。この時、制御部100は、多数の視点に当たる映像データを結合して映像データに対する立体効果を適用し、映像データの被写体の動き情報(位置情報及び遠近情報)を利用してオーディオデータに立体効果を適用するように処理する。
【0020】
映像処理部102は、制御部100の制御を受け、立体効果の提供のための多数の映像データを獲得する。この時、映像処理部102は、それぞれ別の視点(角度)で具備されたカメラモジュールを通じて同一の被写体を同時に撮影して映像データを獲得し、獲得した映像データを合成して立体効果を提供する映像データを生成する。
【0021】
また、映像処理部102は、制御部100の制御を受け、獲得した映像データの被写体を区分し、被写体の動き情報(位置及び遠近情報)を把握してオーディオ処理部104に提供する。
【0022】
オーディオ処理部104は、御部100の制御を受け、立体効果の提供のためのオーディオデータを獲得する。この時、オーディオ処理部104は、多数のマイクを通じて映像データの被写体と背景で発生するオーディオデータを獲得した後、被写体の動き情報によってオーディオデータに立体効果を適用するように処理する。また、オーディオ処理部104は、立体効果が適用されたオーディオデータを再生して出力するスピーカーを備え、オーディオ処理部104は、被写体の遠近情報を用いてオーディオデータに立体効果を適用する。
【0023】
制御部100、映像処理部102、及びオーディオ処理部104の動作は、メモリー部106に保存されている特定のソフトウェアモジュール(命令語セット)によって実行される。
【0024】
即ち、制御部100、映像処理部102、及びオーディオ処理部104の動作は、ソフトウェア又はハードウェアで構成される。映像処理部102、オーディオ処理部104はそれぞれの制御部に定義することができる。また、制御部100をプロセッサに定義して、映像処理部102、オーディオ処理部104を更に他のプロセッサに定義することもできる。
【0025】
メモリー部106は、ROM、RAM、フラッシュ(Flash)ROMで構成される。ROMは、制御部100、映像処理部102、及びオーディオ処理部104の処理及び制御のためのプログラムのマイクロコードと各種の参照データを保存する。
【0026】
RAMは、制御部100のワーキングメモリー(working memory)として、各種のプログラム実行中に発生する一時的なデータを保存する。また、フラッシュROMは、電話帳(phone book)、発信メッセージ、及び受信メッセージのような更新可能な各種の保管用データを保存し、本実施形態によって立体効果が適用されたオーディオデータと映像データ、及びオーディオデータと映像データを用いて生成した立体データを保存する。
【0027】
メモリー部106は、制御部100、映像処理部102、及びオーディオ処理部104の動作を実行するようにソフトウェアモジュールを保存する。
【0028】
入力部108は、0〜9の数字キーボタン、メニューボタン(Menu)、取り消しボタン(消去)、確認ボタン、通話ボタン(Talk)、終了ボタン(End)、インターネット接続ボタン、ナビゲーションキー(又は方向キー)ボタン、及び文字入力キーなど多数の機能キーを備え、ユーザーが押下するキーに対応するキー入力データを制御部100に提供する。また、入力部108は、立体効果を提供する立体データ生成を要求するデータを発生させる。
【0029】
表示部110は、ポータブル端末の動作中に発生する状態情報、文字、多くの動画及び静止画などをディスプレイする。表示部110には、カラー液晶ディスプレイ装置(LCD)、AMOLED(Active Matrix Organic Light Emitting Diode)などを用いることができ、表示部110は、タッチ入力装置を備えてタッチ入力方式のポータブル端末に適用する場合、入力装置として用いることができる。また、表示部110は、本発明によって立体効果を提供することができるLCD(例:バリアーLCD)を備え、立体効果が適用された映像データを出力する。
【0030】
通信部112は、アンテナ(図示せず)を通じて入出力されるデータの無線信号を送受信処理する機能を実行する。例えば、送信の場合、送信するデータをチャンネルコーディング(Channel Coding)及び拡散(Spreading)した後、RF処理して送信する機能を実行し、受信の場合、受信したRF信号を基底帯域信号に変換して基底帯域信号を逆拡散(De−Spreading)及びチャンネル復号(Channel decoding)してデータを復元する機能を実行する。
【0031】
映像処理部102及びオーディオ処理部104の役割は、ポータブル端末の制御部100によって実行することができるが、本実施形態でこれを別々に構成して示すことは説明の便宜のための例示的な構成であって、本発明の範囲を制限しようというものではなく、当業者であれば本発明の範囲内で多様な変形の構成が可能であることが分かるだろう。例えば、これらの全てを上述の制御部100で処理するように構成することもできる。
【0032】
図2は、本発明の一実施形態による立体効果を提供する映像処理部の構成を示すブロック図である。
【0033】
図2を参照すると、映像処理部102は、映像データ獲得モジュール113、被写体確認部114、位置情報分析部115、及び遠近情報分析部116を含んで構成される。
【0034】
映像データ獲得モジュール113は、カメラモジュールを備え、カメラモジュールに入力されるデジタル映像信号を利用して多数の映像データを獲得する。この時、映像データ獲得モジュール113は、多数のカメラモジュールを備え、同一の被写体をそれぞれ別の角度で撮影して視点が異なる多数の映像データを獲得する。
【0035】
被写体確認部114は、映像データ獲得モジュール113によって獲得された映像データを被写体と背景とを区分するように処理する。ここで、被写体はユーザーが獲得しようとする映像データの焦点領域になる。
【0036】
位置情報分析部115は、被写体確認部114によって区分された被写体の位置を確認し、遠近情報分析部116は、被写体確認部114によって区分された被写体の遠近情報を確認する。この時、遠近情報分析部116は、以前の映像データの被写体の位置と現在獲得した映像データの被写体の位置を把握した後、被写体の移動による遠近情報を確認する。
【0037】
次に、映像処理部102は、位置情報分析部115及び遠近情報分析部116によって確認された被写体の動き情報をオーディオ処理部104に提供し、映像データ獲得モジュール113を通じて獲得した視点が異なる映像データを一つの映像データに合成して立体データを生成する。
【0038】
上述のように、映像処理部102の動作は、メモリー部106に保存されている特定のソフトウェアモジュール(命令語セット)によって実行され、これに応じて、映像処理部102を構成する要素の動作もソフトウェアモジュールで実行される。
【0039】
図3は、本発明の一実施形態による立体効果を提供するオーディオ処理部の構成を示すブロック図である。
【0040】
図3を参照すると、オーディオ処理部104は、オーディオデータ獲得モジュール120、信号抽出部122、効果適用部128、及びミキサー134を含み、信号抽出部122は、主信号抽出部124と背景信号抽出部126を含んで構成される。効果適用部128は、位置補正部130と遠近補正部132を更に含んで構成される。
【0041】
オーディオデータ獲得モジュール120は、少なくとも一つ以上のマイクを備え、マイクに入力されてデジタル処理されたオーディオ信号を利用して多数のオーディオデータを獲得する。この時、オーディオデータは、映像データの被写体で発生するオーディオデータと映像データの背景で発生するオーディオデータを含む。
【0042】
信号抽出部122は、被写体の位置情報(被写体の動き)を基盤にして、オーディオデータを第1オーディオデータと第2オーディオデータに分類するように処理する。これは、獲得したオーディオデータから被写体に当たる第1オーディオデータ(主信号)と背景に当たる第2オーディオデータ(背景信号)を抽出することである。
【0043】
主信号抽出部124は、被写体の動き情報を利用してオーディオデータ獲得モジュール120に入力されたオーディオデータから主信号を抽出する。この時、主信号抽出部124は、マイクアレイ及びビーム形成技術を基盤にして、被写体の方向を照準して主信号を区分し、単純に入力された一つ以上のオーディオチャンネルの共通成分(モノラル成分)を分離して主信号(モノラル成分が除去された純粋なステレオ成分の信号)を区分する。
【0044】
背景信号抽出部126は、被写体の動き情報を利用してオーディオデータ獲得モジュール120に入力されたオーディオデータから背景信号を抽出する。この時、背景信号抽出部は、マイクアレイ及びビーム形成技術を基盤にして、背景方向を照準して周辺の背景信号を抽出し、入力された一つ以上のオーディオチャンネルで主信号を差引する方法などを利用して背景信号を抽出する。
【0045】
効果適用部128は、被写体の動きによって主信号又は背景信号に立体効果を適用するように処理する。
【0046】
効果適用部128の位置補正部130は、ユーザーにリアリティーを提供するために被写体の位置を基盤にして主信号と背景信号を定位(Localization)させる。この時、位置補正部130は、HRTF(Head Related Transfer Function)を基盤にして、主信号と背景信号を位置情報に合わせて同期化し、正面を基準に左/右のパニング信号処理を通じて主信号と背景信号を同期化する。
【0047】
効果適用部128の遠近補正部132は、被写体の位置と同期化された主信号に対して遠近効果を適用するように処理する。この時、遠近補正部132は、映像処理部102の遠近情報分析部116によって確認された被写体の遠近情報を用いて主信号に対する遠近効果を適用する。即ち、遠近補正部132は、被写体が基準点から離れる場合、主信号の強さを小さく調整して低周波信号の量を相対的に差引して残響を加え、逆に被写体が基準点に近づく場合は、主信号の強さを大きく調整して低周波信号の量を相対的に増加させることで遠近効果を適用する。
【0048】
また、遠近補正部132は、主信号の強さの変動によって背景信号の大きさを調節し、全体のオーディオデータ(主信号+背景信号)の強さが一定に保たれるように処理する。ミキサー134は、被写体の動き(位置及び遠近)による効果が適用された主信号と背景信号を合成したオーディオデータを生成する。
【0049】
上述のようにオーディオ処理部104の動作は、メモリー部106に保存されている特定のソフトウェアモジュール(命令語セット)によって実行され、オーディオ処理部104を構成する要素の動作もソフトウェアモジュールで実行される。
【0050】
図4は、本発明の一実施形態によるポータブル端末における立体データを生成するステップを示す流れ図である。
【0051】
図4を参照すると、ポータブル端末は、先ず201段階で、立体データを生成するか否かを確認する。ここで、立体データは、それぞれ別の角度で具備された多数のカメラモジュールを用いて撮影された被写体に対する映像データを一つのデータとして合成したデータであり、立体映像ビューアー(例:バリアーLCD)を通じてユーザーに立体効果を提供し、立体データは、映像データに対する立体効果だけではなく、オーディオデータに対する立体効果も提供する。
【0052】
201段階で立体データを生成しないことが確認された場合、ポータブル端末は、217段階に進行して該当の機能(例:待機モード)を実行する。
【0053】
一方、201段階で立体データを生成することが確認された場合、ポータブル端末は、203段階に進行して映像データ獲得モジュールを動作させた後、205段階に進行して映像データ獲得モジュールを通じて映像データを獲得する。ここで、映像データ獲得モジュールは、静止画データ又は動画データを獲得することができるカメラモジュールを意味し、ポータブル端末は、多数のカメラモジュールを具備して同一の被写体に対してそれぞれ視点が異なる映像データを獲得する。
【0054】
次に、ポータブル端末は、207段階に進行して映像データ獲得モジュールで獲得した映像データから被写体を把握する。
【0055】
次に、ポータブル端末は、209段階に進行して以前の映像データの被写体の位置と現在獲得した映像データの被写体の位置を把握した後、211段階に進行して被写体に対する動きが把握されたか否かを確認する。これは、獲得した映像データの被写体が位置を変更したのか又は被写体が移動しているのかを把握することで、ポータブル端末が、獲得した映像データの被写体の位置変化を確認するためである。
【0056】
211段階で被写体に対する動きが把握されなかった場合、ポータブル端末は、219段階に進行して一般的なオーディオデータを生成する。この時、ポータブル端末は、背景で発生するオーディオデータと被写体で発生するオーディオデータの強さが一定に保たれるように処理する。
【0057】
一方、211段階で被写体に対する動きが把握された場合、ポータブル端末は、213段階に進行して被写体の位置及び遠近情報を分析する。この時、ポータブル端末は、以前の映像データの被写体の位置と現在獲得した映像データの被写体の位置変化の程度を把握して被写体の位置及び遠近情報を把握する。
【0058】
次に、ポータブル端末は、215段階に進行して被写体の位置及び遠近情報によってオーディオデータに立体効果を適用するように処理する。即ち、ポータブル端末は、被写体に当たる主信号の強さを強くし、被写体を除いた背景に当たるオーディオデータの強さを弱くするようにオーディオデータに遠近感を適用する。また、ポータブル端末は、被写体が映像データの視聴者の方向に移動する場合、被写体に対する主信号の強さを徐々に強く処理してユーザーの聴音効果を進める。
【0059】
まとめると、本実施形態によるポータブル端末は、立体データのための映像データを獲得した後、獲得した映像データの被写体を用いてオーディオデータの効果の適用可否を判断し、被写体の動きによって主信号と背景信号に効果を適用する。
【0060】
最後に、ポータブル端末は、立体効果が適用されたオーディオデータと映像データを再生するように処理した後、本アルゴリズムを終了する。
【0061】
図5は、本発明の一実施形態によるポータブル端末におけるオーディオデータに立体効果を適用するステップを示す流れ図である。
【0062】
図5を参照すると、ポータブル端末は、先ず301段階でオーディオデータ獲得モジュールを作動させた後、303段階に進行してオーディオデータを獲得する。ここで、オーディオデータ獲得モジュールは、映像データの獲得の際に、周辺で発生するオーディオデータを収集するマイクを意味し、ポータブル端末は、多数のマイクを具備して映像データの被写体で発生するオーディオデータと、被写体を除いた背景で発生するオーディオデータを獲得する。
【0063】
次に、ポータブル端末は、305段階に進行して、獲得したオーディオデータから映像データの被写体で発生したオーディオデータである第1オーディオデータ(主信号)を分類する。ここで、ポータブル端末は、映像データの被写体の位置情報を基盤にして第1オーディオデータを分類し、この時、ポータブル端末は、マイクアレイ及びビーム形成技術を基盤にして、被写体の方向を照準して第1オーディオデータを区分する。また、ポータブル端末は、単純に入力された一つ以上のオーディオチャンネルの共通成分(モノラル)を分離することにより、純粋なステレオ成分で構成された第1オーディオデータを区分する。
【0064】
次に、ポータブル端末は、307段階で、獲得したオーディオデータから映像データの周辺で発生したオーディオデータである第2オーディオデータ(背景信号)を分類する。
【0065】
この時、ポータブル端末は、獲得したオーディオデータから第1オーディオデータを除いた背景オーディオデータを抽出することで、上述のようにマイクアレイ及びビーム形成技術を基盤にして、背景方向を照準して周辺の背景に対する第2オーディオデータを抽出する。また、ポータブル端末は、獲得したオーディオデータから第1オーディオデータを差引して第2オーディオデータを抽出する。
【0066】
次に、ポータブル端末は、309段階で、映像データの被写体に対する位置及び遠近情報を確認した後、311段階に進行して被写体の位置及び遠近情報に合わせて第1オーディオデータと第2オーディオデータに立体効果を適用するように処理する。
【0067】
即ち、ポータブル端末は、被写体の遠近情報によって第1オーディオデータと第2オーディオデータの発生方向、角度などを設定することで、HRTF(Head Related Transfer Function)を基盤にして、第1オーディオデータと第2オーディオデータを遠近情報に合わせて同期化させる。即ち、ポータブル端末は、映像データの被写体が端末のユーザー方向に移動する場合、第1オーディオデータの強さを大きく調整(第2オーディオデータの強さを小さく調整)し、低周波信号の量を相対的に増加させるように処理する。また、ポータブル端末は、映像データの被写体が端末のユーザー方向から離れる場合、第1オーディオデータの強さを小さく調整して第2オーディオデータを大きく調整し、低周波信号の量を相対的に差引して残響を追加するように処理する。
【0068】
また、ポータブル端末は、映像データの被写体の移動方向によって第1オーディオデータ及び第2オーディオデータにパニング効果を適用するように処理する。
【0069】
また、ポータブル端末は、被写体が移動する場合、第2オーディオデータの強さを減らし、第1オーディオデータの強さを高めて移動する被写体を強調するように処理する。
【0070】
更に、ポータブル端末は、第1オーディオデータ及び第2オーディオデータの強さを均一に適用するため、映像データに対する第1オーディオデータ及び第2オーディオデータの強さがどちらか一方に偏らないように処理する。
【0071】
次に、ポータブル端末は、第1オーディオデータと第2オーディオデータを合算した後、信号処理されたオーディオPCM信号をバイナリ圧縮データファイルにエンコードして映像データと連動するようにする。
【0072】
最後に、ポータブル端末は本アルゴリズムを終了する。
【0073】
上述のようなポータブル端末は、立体効果が適用されたオーディオデータを次のように処理する。
【0074】
先ず、ポータブル端末は、既に獲得した映像データと立体効果が適用されたオーディオデータを圧縮して立体データを生成した後、生成された立体データを復号化して立体オーディオと立体映像を再生して立体効果を提供する。
【0075】
また、ポータブル端末は、立体効果が適用されないオーディオデータで生成された立体データを再生する途中に、映像データに当たる立体オーディオデータ(オーディオデータに立体効果を適用)を生成して再生することで立体効果を提供することができる。
【0076】
図6及び図7は、一般的なポータブル端末と本発明の一実施形態によるポータブル端末における立体データの再生画面を示す図であり、図6は一般的なポータブル端末における立体データの再生画面を示す図である。
【0077】
図6を参照すると、ポータブル端末は、多数のカメラモジュールを通じて獲得したイメージ、即ちそれぞれ別の視点で同一の被写体を撮影して獲得した多数の映像データを再生して立体効果を提供する。しかし、一般的なポータブル端末は、オーディオデータに対して立体効果を適用せずに被写体と背景に対して等しい効果のオーディオデータを再生する。
【0078】
即ち、ポータブル端末は、図示したようにレーシングゲームに対する映像データを獲得する。ここで、被写体はレーシングを準備する自動車401とし、背景は自動車の周辺に位置する観客403、405とする。
【0079】
また、ポータブル端末は、被写体に対するオーディオデータを獲得し、背景に対するオーディオデータを獲得する。即ち、被写体はエンジン音を発生させて、右側の背景及び左側の背景で喊声音を発生させる。
【0080】
ポータブル端末は、被写体を撮影した多数の映像データ(同一被写体に対して視点が異なる映像データ)を用いて映像データに対する立体効果を提供することができる。しかし、オーディオデータに対する立体効果を提供することができず、一般的なポータブル端末は、背景に対するオーディオデータと被写体に対するオーディオデータを等しいレベルで出力してリアリティーを提供することができない。
【0081】
図7は、本発明の一実施形態によるポータブル端末における立体データの再生画面を示す図である。
【0082】
図7を参照すると、ポータブル端末は、多数のカメラモジュールを通じて獲得したイメージ、即ちそれぞれ別の視点で同一被写体を撮影して獲得した多数の映像データを再生して立体効果を提供する。一般的なポータブル端末は、オーディオデータに対して立体効果を適用できずに被写体と背景に対して等しい効果のオーディオデータを再生するが、本発明によるポータブル端末は、被写体と背景に対するオーディオデータに立体効果を適用するように処理する。
【0083】
即ち、ポータブル端末は、入力を受けたオーディオデータから第1オーディオデータと第2オーディオデータを抽出する。ここで、第1オーディオデータは被写体で発生するオーディオデータを意味し、第2オーディオデータは背景で発生するオーディオデータを意味する。
【0084】
ポータブル端末は、被写体の動きによる位置及び遠近情報を分析して第1オーディオデータ及び第2オーディオデータに立体効果を適用する。
【0085】
即ち、ポータブル端末は、被写体が移動する場合、背景に当たる第2オーディオデータの強さを減らして、被写体に当たる第1オーディオデータの強さを高める。一例として、ポータブル端末は、図示したように、決勝点に到逹する被写体の警笛音410を大きくし、周辺に位置する観客の歓呼音412、414を警笛音より小さくして被写体の音を強調する。
【0086】
図8は、本発明の他の実施形態によるポータブル端末におけるオーディオデータに対する立体効果の適用視点を把握するステップを示す流れ図である。
【0087】
図8を参照すると、ポータブル端末は、先ず501段階で、第1オーディオデータを周波数領域で分析する。ここで、第1オーディオデータは被写体で発生するデータであり、被写体の動きによって立体効果が適用されるオーディオデータである。
【0088】
次に、ポータブル端末は、503段階に進行して特定周波数領域でオーディオ信号が変化することを確認した後、505段階に進行し、映像データを分析して被写体の動きを確認する。この時、ポータブル端末は、以前のフレームのオーディオ信号と現在のフレームのオーディオ信号を比べて特定周波数領域でオーディオ信号が変化することを確認する。
【0089】
次に、ポータブル端末は、507段階に進行して被写体が動く視点にオーディオ信号の変化が発生するか否かを確認する。
【0090】
これは、被写体の移動によって周波数領域でオーディオ信号が変化することを利用し、オーディオデータを用いて被写体の動きを把握することで、被写体の動きとオーディオ信号の変化が同時に発生することから、被写体の動きによって発生するオーディオデータに立体効果を適用できるものと判断する。
【0091】
507段階で被写体が動く視点にオーディオ信号の変化が確認されない場合、ポータブル端末は、オーディオデータに立体効果を適用せずに、501段階に進行して立体効果の適用視点を再確認する。
【0092】
一方、507段階で被写体が動く視点にオーディオ信号の変化が確認された場合、509段階に進行して、ポータブル端末は、オーディオデータに立体効果を適用した後、本アルゴリズムを終了する。
【0093】
この時、ポータブル端末は、以前のフレームのオーディオ信号と現在のフレームのオーディオ信号を比べてオーディオ信号が大きくなることを把握した場合、被写体が前に近づいていると把握してオーディオデータを強調させる。
【0094】
これは、ポータブル端末が映像データに対する主信号が被写体に当たるオーディオデータなのかを把握するために、ポータブル端末が映像データの被写体の動きだけを利用してオーディオデータに立体効果を適用する場合、主信号が背景に当たる信号の場合に被写体の動きによって立体効果を適用することができないためである。
【0095】
拳闘競技を例えにすると、ポータブル端末は、一般的に被写体である選手の動きを把握して、拳闘選手から発生するオーディオデータに立体効果を適用する。
【0096】
しかし、ポータブル端末が、拳闘選手から発生するオーディオデータを背景信号と定義し、観衆から発生するオーディオデータを主信号として定義した場合、被写体である選手の動きによって観衆の歓呼音が強調されることがあるからである。
【0097】
本発明の実施形態による方法は、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせの形で実装することができる。
【0098】
ソフトウェアで実装する場合、一つ以上のプログラム(ソフトウェアモジュール)を保存するコンピューター読み取り可能な記録媒体が提供される。コンピューター読み取り可能な記録媒体に保存される一つ以上のプログラムは、ポータブル端末のような電子装置内の一つ以上のプロセッサによって実行されるように構成される。一つ以上のプログラムは、電子装置に、本発明の実施形態による方法を実行させる命令語を備える。
【0099】
このようなプログラム(ソフトウェアモジュール、ソフトウェア)は、ランダムアクセスメモリー(Random Access Memory)、フラッシュメモリーを備える不揮発性(non−volatile)メモリー、ROM(Read Only Memory)、電気的消却可能プログラム可能ROM(EEPROM:Electrically Erasable Programmable Read Only Memory)、磁気ディスク記憶装置(Magnetic Disc Storage Device)、コンパクトディスクROM(CD−ROM:Compact Disc−ROM)、デジタル多目的ディスク(DVDs:Digital Versatile Discs)又は他の形態の光学記憶装置、磁気カセット(Magnetic Cassette)に保存することができる。或いは、これらの一部又は全部の組み合わせで構成されたメモリーに保存することができる。また、それぞれの構成メモリーは多数個を備えることもできる。
【0100】
また、電子装置に、インターネット(Internet)、イントラネット(Intranet)、LAN(Local Area Network)、WLAN(Wide LAN)、又はSAN(Storage Area Network)のような通信ネットワーク、或いはこれらの組み合わせで構成された通信ネットワークを通じてアクセスできる付着可能な記憶装置に保存することができる。このような記憶装置は外部ポートを通じて電子装置に接続することができる。
【0101】
また、通信ネットワーク上の別途の記憶装置をポータブル電子装置に接続することもできる。
【0102】
一例として、一つ以上のプロセッサ、メモリー、及びメモリーに保存されて一つ以上のプロセッサによって実行されるように構成される一つ以上のモジュールを備える電子装置のモジュールは、立体データ生成のための映像データ及びオーディオデータを獲得して、立体データで被写体の動き情報を把握し、映像データに対して立体効果を適用し、被写体の動き情報によってオーディオデータに立体効果を適用する命令語を備えることができる。
【0103】
また、電子装置のモジュールは、獲得した映像データから焦点に当たる被写体と背景とに区分し、被写体の位置及び遠近情報を把握する命令語を備えることができる。
【0104】
更に、電子装置のモジュールは、獲得したオーディオデータから映像データの被写体で発生するオーディオデータである第1オーディオデータを区分し、獲得したオーディオデータで映像データの背景で発生するオーディオデータである第2オーディオデータを区分し、被写体の動き情報を利用して第1オーディオデータ及び第2オーディオデータに立体効果を適用する命令語を備えることができる。
【0105】
また、電子装置のモジュールは、立体効果が適用された映像データ及びオーディオデータを用いて立体データを生成して再生し、オーディオデータに対する立体効果が適用されない立体データの再生の場合、映像データの被写体情報を確認してオーディオデータに立体効果を適用して再生する命令語を備えることができる。
【0106】
また、電子装置のモジュールは、第1オーディオデータが映像データの被写体で発生した場合、オーディオデータに立体効果を適用する命令語を備えることができる。
【0107】
また、電子装置のモジュールは、第1オーディオデータを周波数領域で分析した後、被写体が動く視点にオーディオ信号の変化が発生したことを確認し、被写体が動く視点にオーディオ信号の変化が発生したことを確認した場合、第1オーディオデータが映像データの被写体で発生したと判断する命令語を備えることができる。
【0108】
以上、図面を参照しながら本発明の実施形態を説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
【符号の説明】
【0109】
100 制御部
102 映像処理部
104 オーディオ処理部
106 メモリー部
108 入力部
110 表示部
112 通信部
113 映像データ獲得モジュール
114 被写体確認部
115 位置情報分析部
116 遠近情報分析部
120 オーディオデータ獲得モジュール
122 信号抽出部
124 主信号抽出部
126 背景信号抽出部
128 効果適用部
130 位置補正部
132 遠近補正部
134 ミキサー
401 自動車
403、405 観客
410 警笛音
412、414 歓呼音

【特許請求の範囲】
【請求項1】
ポータブル端末における立体データを生成する装置であって、
立体データ生成のための映像データを獲得して映像データに対して立体効果を適用し、映像データの被写体の動き情報を把握する映像処理部と、
立体データ生成のためのオーディオデータを獲得した後、被写体の動き情報によってオーディオデータに立体効果を適用するように処理するオーディオ処理部と、を備えることを特徴とする立体データ生成装置。
【請求項2】
前記映像処理部は、
獲得した映像データから焦点に当たる被写体と背景とに区分する被写体確認部と、
被写体の位置情報を把握する位置情報分析部と、
被写体の遠近情報を把握する遠近情報分析部と、を備えることを特徴とする請求項1に記載の立体データ生成装置。
【請求項3】
前記オーディオ処理部は、
獲得したオーディオデータから被写体で発生するオーディオデータである第1オーディオデータと背景で発生するオーディオデータである第2オーディオデータとを区分する信号抽出部と、
被写体の動き情報を利用して前記第1オーディオデータ及び前記第2オーディオデータに立体効果を適用する効果適用部と、を備えることを特徴とする請求項1に記載の立体データ生成装置。
【請求項4】
前記効果適用部は、前記第1オーディオデータ又は前記第2オーディオデータを被写体の動き情報に合わせて設定することを特徴とする請求項3に記載の立体データ生成装置。
【請求項5】
前記立体データを生成する装置は、
立体効果が適用された映像データ及びオーディオデータを用いて立体データを生成して再生するように処理し、
オーディオデータに対する立体効果が適用されない立体データの再生の場合、前記ポータブル端末が映像データの被写体の動き情報を確認してオーディオデータに立体効果を適用して再生することを特徴とする請求項1に記載の立体データ生成装置。
【請求項6】
オーディオ処理部は、前記第1オーディオデータが映像データの被写体で発生した場合、オーディオデータに立体効果を適用することを特徴とする請求項3に記載の立体データ生成装置。
【請求項7】
オーディオ処理部は、前記第1オーディオデータを周波数領域で分析した後、被写体が動く視点にオーディオ信号の変化が発生したことを確認した場合、前記第1オーディオデータが映像データの被写体で発生したと判断することを特徴とする請求項6に記載の立体データ生成装置。
【請求項8】
ポータブル端末における立体データを生成する方法であって、
立体データ生成のための映像データ及びオーディオデータを獲得する段階と、
映像データで被写体の動き情報を把握する段階と、
映像データに対して立体効果を適用する段階と、
被写体の動き情報によってオーディオデータに立体効果を適用する段階と、を有することを特徴とする立体データ生成方法。
【請求項9】
映像データで被写体の動き情報を把握する段階は、
獲得した映像データから焦点に当たる被写体と背景とに区分する段階と、
被写体の位置及び遠近情報を把握する段階と、を含むことを特徴とする請求項8に記載の立体データ生成方法。
【請求項10】
オーディオデータに立体効果を適用する段階は、
獲得したオーディオデータから映像データの被写体で発生するオーディオデータである第1オーディオデータを区分する段階と、
獲得したオーディオデータから映像データの背景で発生するオーディオデータである第2オーディオデータを区分する段階と、
被写体の動き情報を利用して前記第1オーディオデータ及び前記第2オーディオデータに立体効果を適用する段階と、を含むことを特徴とする請求項8に記載の立体データ生成方法。
【請求項11】
前記第1オーディオデータ及び前記第2オーディオデータに立体効果を適用する段階は、
前記第1オーディオデータ又は前記第2オーディオデータを被写体の動きに合わせて設定する段階であることを特徴とする請求項10に記載の立体データ生成方法。
【請求項12】
前記立体データを生成する方法は、
立体効果が適用された映像データ及びオーディオデータを用いて立体データを生成して再生する段階を含み、
オーディオデータに対する立体効果が適用されない立体データの再生の場合、前記ポータブル端末が映像データの被写体の動き情報を確認してオーディオデータに立体効果を適用して再生することを特徴とする請求項8に記載の立体データ生成方法。
【請求項13】
被写体の動き情報によってオーディオデータに立体効果を適用する段階は、
前記第1オーディオデータが映像データの被写体で発生した場合、オーディオデータに立体効果を適用する段階を含むことを特徴とする請求項10に記載の立体データ生成方法。
【請求項14】
被写体の動き情報によってオーディオデータに立体効果を適用する段階は、
前記第1オーディオデータを周波数領域で分析した後、被写体が動く視点にオーディオ信号の変化が発生したことを確認する段階と、
被写体が動く視点にオーディオ信号の変化が発生したことを確認した場合、前記第1オーディオデータが映像データの被写体で発生したと判断する段階を含むことを特徴とする請求項13に記載の立体データ生成方法。
【請求項15】
一つ以上のプロセッサと、
メモリーと、
前記メモリーに保存され、前記一つ以上のプロセッサによって実行されるように構成された一つ以上のモジュールと、を備える電子装置であって、
前記モジュールは、
立体データ生成のための映像データ及びオーディオデータを獲得し、
映像データで被写体の動き情報を把握し、
映像データに対して立体効果を適用し、
被写体の動き情報によってオーディオデータに立体効果を適用することを特徴とする電子装置。
【請求項16】
前記モジュールは、獲得した映像データから焦点に当たる被写体と背景とに区分して、被写体の位置及び遠近情報を把握することを特徴とする請求項15に記載の電子装置。
【請求項17】
前記モジュールは、
獲得したオーディオデータから映像データの被写体で発生するオーディオデータである第1オーディオデータを区分し、
獲得したオーディオデータから映像データの背景で発生するオーディオデータである第2オーディオデータを区分し、
被写体の動き情報を利用して前記第1オーディオデータ及び前記第2オーディオデータに立体効果を適用することを特徴とする請求項15に記載の電子装置。
【請求項18】
前記モジュールは、立体効果が適用された映像データ及びオーディオデータを用いて立体データを生成して再生し、オーディオデータに対する立体効果が適用されない立体データの再生の場合、前記プロセッサが映像データの被写体の動き情報を確認してオーディオデータに立体効果を適用して再生することを特徴とする請求項15に記載の電子装置。
【請求項19】
前記モジュールは、前記第1オーディオデータが映像データの被写体で発生した場合、オーディオデータに立体効果を適用することを特徴とする請求項17に記載の電子装置。
【請求項20】
前記モジュールは、前記第1オーディオデータを周波数領域で分析した後、被写体が動く視点にオーディオ信号の変化が発生したことを確認し、被写体が動く視点にオーディオ信号の変化が発生したことを確認した場合、前記第1オーディオデータが映像データの被写体で発生したと判断することを特徴とする請求項19に記載の電子装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2013−93840(P2013−93840A)
【公開日】平成25年5月16日(2013.5.16)
【国際特許分類】
【出願番号】特願2012−204492(P2012−204492)
【出願日】平成24年9月18日(2012.9.18)
【出願人】(390019839)三星電子株式会社 (8,520)
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
【住所又は居所原語表記】129,Samsung−ro,Yeongtong−gu,Suwon−si,Gyeonggi−do,Republic of Korea
【Fターム(参考)】