説明

クラスタリングサーバシステム、および、データ転送方法

【課題】運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させる。
【解決手段】運用系サーバ10と待機系サーバ11とを有するクラスタリングサーバシステム1であって、運用系サーバ10は、複数のデータを記憶するデータ記憶手段100と、データ記憶手段に記憶された複数のデータの中で更新データの更新頻度を記憶する転送リスト記憶手段103と、運用系サーバ10と待機系サーバ11間で更新データを転送する系間転送管理手段101とを備え、系間転送管理手段101は、転送リスト記憶手段103に記憶された更新データのデータ総量を算出し、データ総量が系切替え時転送方式で転送可能な所定の閾値を超える場合に、データ総量が閾値以下になるまで転送リスト記憶手段103に記憶された更新頻度が最も低い更新データを運用中転送方式で待機系サーバ11に転送する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、運用系サーバと待機系サーバとを用いて冗長化されたHA(High Availability)クラスタリングサーバシステムに関する。
【背景技術】
【0002】
HA(High Availability)クラスタにおける系間のデータ転送については、データ・レプリケーション(Date Replication)として知られている。このデータ・レプリケーションについては、非特許文献1に体系的な説明が記載されている。
【0003】
また、HAクラスタのミドルウェアとアプリケーションの使用を策定するフォーラムとして、SAF(Service Availability Forum)があり、AIS(Application Interface Specification)と呼ばれるインタフェースが既定されている。AISのおけるデータ・レプリケーションのインタフェースとしては、非特許文献2に記載されているCKPT(Check Point Service)が存在する。
【先行技術文献】
【非特許文献】
【0004】
【非特許文献1】「Blueprints for High Availability: Timely, Practical, Reliable」, Evan Marcus(著), Hal Stern(著),Chapter18 Date Replication
【非特許文献2】「Service Availability Forum application Interface Specification, Check Point Service, SAI-AIS-CKPT-B.02.02」, Service Availability Forum
【発明の概要】
【発明が解決しようとする課題】
【0005】
高可用性を実現するHAクラスタにおけるフェイルオーバクラスタリングサーバシステムでは、運用系サーバと待機系サーバとを備え、運用系サーバで障害が発生した場合に、即座に待機系サーバで処理を継続させるために、運用系サーバと待機系サーバとはデータを同期・一致させておく必要がある。このため、運用系サーバのデータが更新されると、当該更新データを待機系サーバに転送し、待機系サーバのデータも運用系サーバと同様に更新される。
【0006】
ここで、運用系サーバから待機系サーバに更新データを転送する方式には、系切替え時(フェイルオーバ時)に更新データを一括で待機系サーバに転送する系切替え時転送方式と、各データの更新毎にその都度更新データを待機系サーバに転送する運用中転送方式との2つの方式がある。
【0007】
運用系サーバにおいて更新頻度の異なる複数の更新データを待機系サーバへ転送する際に、処理負荷を軽減するために、更新頻度の高い更新データについては系切替え時転送方式で、更新頻度の低い更新データについては運用中転送方式で転送する必要がある。これは、頻繁に更新される更新頻度の高い更新データを、運用中転送方式でその都度転送した場合、運用系サーバおよび待機系サーバの負荷が増大し、システム全体の機能低下が発生してしまうおそれがあるからである。
【0008】
一方、系切替え時転送方式では、運用系サーバと待機系サーバとの間の系間ネットワーク帯域の制限、系切替えによるサービス中断時間の制約などにより、系切替え時に一括して転送可能なデータ量には制限がある。
【0009】
しかしながら、複数のユーザ端末からの要求などにより、様々なタイミングでそれぞれ更新される各データの更新頻度を正確に予測することは困難であり、したがって各データの更新頻度に適した転送方式を事前に割り当てることも困難である。例えば、過去のトラフィックパターンを用いて各データの更新頻度を予測し、更新頻度が低く予測されたデータを運用中転送方式に割り付けた場合、その後トラフィックパターンが変化してデータの更新頻度が高くなると、データ更新の都度、待機系サーバへの転送が実施されてしまい、処理負荷が上昇し、他のサービス提供に影響を及ぼす可能性が高まる。
【0010】
本発明は上記事情に鑑みてなされたものであり、本発明の目的は、運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させることにある。
【課題を解決するための手段】
【0011】
上記目的を達成するため、本発明は、運用系サーバと待機系サーバとを有するクラスタリングサーバシステムであって、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、前記運用系サーバは、複数のデータを記憶するデータ記憶手段と、前記データ記憶手段に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶手段と、前記運用系サーバと待機系サーバ間で更新データを転送する系間転送管理手段と、を備え、前記系間転送管理手段は、前記転送リスト記憶手段に記憶された更新データのデータ総量を算出し、当該データ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別し、前記データ総量が前記閾値を超える場合は、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶手段に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送する。
【0012】
また、本発明は、運用系サーバと待機系サーバとを有するクラスタリングサーバシステム用のデータ転送方法であって、クラスタリングサーバシステムは、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、前記運用系サーバは、複数のデータを記憶するデータ記憶部と、前記データ記憶部に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶部と、を備え、前記転送リスト記憶部を更新するステップと、前記転送リスト記憶部に記憶された更新データのデータ総量を算出する算出ステップと、前記算出されたデータ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別する判別ステップと、前記データ総量が前記閾値を超える場合に、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶部に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送する転送ステップと、を行う。
【発明の効果】
【0013】
本発明によれば、各データの更新頻度を動的に算出し、算出した更新頻度に基づいて運用中転送方式で転送するデータを特定するため、運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させることができる。
【図面の簡単な説明】
【0014】
【図1】本発明の実施形態に係るクラスタリングサーバシステムの全体構成図である。
【図2】クラスタリングサーバシステム1の構成を示すブロック図である。
【図3】メモリに記憶されるデータを説明するための第1の説明図である。
【図4】メモリに記憶されるデータを説明するための第2の説明図である。
【図5】転送リスト記憶部のデータ構造の一例を示す図である。
【図6】データ更新時の処理を示すフローチャートである。
【発明を実施するための形態】
【0015】
以下、本発明の実施形態について説明する。
【0016】
図1は、本発明の実施形態に係るクラスタリングサーバシステムを示す全体構成図である。本実施形態のクラスタリングサーバシステム1は、平常時に稼動する運用系サーバ(現用系サーバ)10と、運用系サーバ10が障害時に稼動する待機系サーバ11とを有する。また、本実施形態では、クラスタリングサーバシステム1は、ネットワーク2を介して複数のユーザ端末3と接続されているものとする。
【0017】
本実施形態のクラスタリングサーバシステム1は、運用系サーバと待機系サーバとの間で更新データを転送する方式として、系切替え時(フェイルオーバ時)に更新データを一括で切替え先のサーバに転送する系切替え時転送方式と、各データの更新毎にその都度更新データを切替え先のサーバに転送する運用中転送方式の2つの方式を併用するものとする。
【0018】
なお、運用系サーバ10および待機系サーバ11は、少なくともCPUと、メモリと、HDD等の外部記憶装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、各装置の各機能が実現される。例えば、運用系サーバ10および待機系サーバ11の各機能は、運用系サーバ10用のプログラムの場合は運用系サーバ10のCPUが、そして待機系サーバ11用のプログラムの場合は待機系サーバ11のCPUが、それぞれ実行することにより実現される。
【0019】
図2は、クラスタリングサーバシステム1の構成を示すブロック図である。運用系サーバ10は、メモリ100と、系間転送管理部101と、アプリケーション部102と、転送リスト記憶部103とを有する。待機系サーバ11も、運用系サーバ10と同様に、メモリ110と、系間転送管理部111と、アプリケーション部112と、転送リスト記憶部113とを有する。運用系サーバ10と待機系サーバ11とは、系間ネットワーク12により接続されている。
【0020】
運用系サーバ10のメモリ100(データ記憶手段)には、複数のデータが記憶されている。
【0021】
図3は、メモリ100に記憶されている各データを説明するための説明図である。メモリ100上に記憶されている各データ(X、Y、Z)301には、当該データ301の管理情報として、更新回数302と、最終更新時刻303と、更新頻度としての平均更新頻度304と、データ量305と、更新フラグ306とが、それぞれ付加されているものとする。
【0022】
運用系サーバ10のアプリケーション部102は、複数のユーザ端末3から送信される各種の要求に応じて、または、運用系サーバ10の内部処理により、メモリ100に記憶された所望のデータ301自体を更新するとともに、当該データ301の管理情報302、303、304、306を更新する。
【0023】
すなわち、アプリケーション部102は、例えば、メモリ100上のデータXを更新した場合、データXの更新回数302に「1」を加算し、最終更新時刻303をデータXが更新された時刻に更新する。そして、アプリケーション部102は、更新後の更新回数Nと、更新後の最終更新時刻tと、更新前(前回)の最終更新時刻tN−1と、更新前(前回)の平均更新頻度αN−1を用いて、例えば以下の式1により更新後の平均更新頻度αを算出し、算出した値αを平均更新頻度304に設定する。
【0024】
平均更新頻度α=N/{(t-tN−1)+(N−1)/αN−1} 式1
また、アプリケーション部102は、メモリ100上のデータXを更新した場合、更新フラグ306に更新が発生したことを示すフラグ(例えば、「1」)を設定する。なお、既にフラグが設定されている場合は、そのままの状態とする。
【0025】
データ量305については、メモリ100にデータXを割り当てたタイミングで設定され、データの更新を契機としては変化しない(更新されない)ものとする。
【0026】
メモリ上の他のデータ(データY、データZ)が更新された場合についても、アプリケーション部102は、データの更新を契機として、当該データの管理情報302、303、304、306を更新する。
【0027】
なお、平均更新頻度304の替わりに、加重平均更新頻度を更新頻度として用いることとしてもよい。
【0028】
図4は、メモリ100に記憶されている各データを説明するための説明図であって、更新頻度としての加重平均更新頻度404を用いている点において図3と異なり、その他については図3と同様である。すなわち、図4では、メモリ100上に記憶されている各データ(X、Y、Z)401には、当該データ401の管理情報として、更新回数402と、最終更新時刻403と、更新頻度としての加重平均更新頻度404と、データ量405と、更新フラグ406が、それぞれ付加されているものとする。
【0029】
アプリケーション部102は、図3で説明したように、メモリ100に記憶された所望のデータ401自体を更新するとともに、当該データ401の管理情報402、403、404、406を更新する。更新回数402、最終更新時刻403および更新フラグ406の更新については、図3と同様であるためここでは説明を省略する。
【0030】
加重平均更新頻度404は、直近の更新間隔時間に重みωを付加した更新頻度の加重平均である。すなわち、加重平均更新頻度404は、前回までの加重平均更新頻度と、所定の重み付けした今回の更新間隔時間とに基づいて算出される。アプリケーション部102は、重みωと、更新後の最終更新時刻tと、更新前(前回)の最終更新時刻tN−1と、更新前(前回)の加重平均更新頻度αN−1を用いて、例えば以下の式2により更新後の加重平均更新頻度αを算出し、算出した値αを加重平均更新頻度404に設定する。重みωには、あらかじめ定められた所定の値を用いるものとする。
【0031】
加重平均更新頻度α=1/{(t-tN−1)ω+(1−ω)/αN−1} 式2
なお、待機系サーバ11のメモリ110についても、運用系サーバ10のメモリ100と同様である。
【0032】
図5は、運用系サーバ10の系間転送管理部101により管理される、転送リスト記憶部103の一例を示すものである。転送リスト記憶部103は、メモリ100上に保持されている場合であっても、あるいは、HDD等の外部記憶装置上に保持されている場合であってもよい。転送リスト記憶部103には、メモリ100上に記憶されたデータの中で更新が発生し、待機系サーバ11への転送が必要な更新データの転送リスト501と、閾値Mth503と、データ総量M504とが記憶される。
【0033】
図示する転送リスト501は、更新データ毎に、当該更新データにポインタするためのメモリID(メモリ上のアドレス等)と、当該メモリIDに記憶されているデータの更新頻度とを有する。更新頻度には、図3で説明した平均更新頻度304、または図4で説明した加重平均更新頻度404を用いるものとする。
【0034】
また、閾値Mth503には、系切替え時転送方式で一括して転送可能な最大データ量(閾値)が設定されている。この閾値Mth503については、系間ネットワーク12の帯域の制限、系切替えによるサービス中断時間の制約などにより、あらかじめ所定の値を設定しておくものとする。また、データ総量M504には、転送リスト501に登録された更新データの総量が設定される。
【0035】
なお、運用系サーバ10の障害などにより待機系サーバ11に処理が切替わった場合、待機系サーバ11の転送リスト記憶部113には、図5と同様の情報が生成され、記憶される。
【0036】
次に、運用系サーバ10のメモリ100に記憶されたデータに更新が発生した際の処理について説明する。
【0037】
図6は、メモリ100に記憶されたデータに更新が発生したタイミングで、転送リスト記憶部103の情報を更新し、閾値を超える分の更新データを運用時転送方式で転送する場合のフローチャートである。
【0038】
まず、運用系サーバ10のアプリケーション部102は、複数のユーザ端末3から送信される各種の要求に応じて、または、運用系サーバ10の内部処理により、メモリ100に記憶された所定のデータ自体を更新するとともに、当該データの管理情報(更新回数、最終更新時刻、更新頻度、更新フラグ)を更新する(S1)。なお、更新頻度は、図3の場合は平均更新頻度であり、図4の場合は加重平均更新頻度である。
【0039】
そして、運用系サーバ10の系間転送管理部101は、S1のデータ更新を契機として、ステップ1で更新された更新データを、転送リスト記憶部103の転送リスト501に登録(追加)する(S2)。具体的には、系間転送管理部101は、メモリ100上の更新データをポインタするメモリID、および、S1で更新された当該更新データの更新頻度を、メモリ100から取得し、転送リスト501に登録する。
【0040】
そして、系間転送管理部101は、転送リスト501に登録されている更新データのデータ総量M504を算出し、転送リスト記憶部103に設定する(S3)。具体的には、系間転送管理部101は、転送リスト501に登録されている各更新データのデータ量を、各々のメモリIDに基づいてメモリ100から取得し、取得した各データ量の合計を算出する。
【0041】
そして、系間転送管理部101は、算出したデータ総量M504と、閾値Mth503とを比較し、データ総量Mが閾値Mthを超える(M>Mth)か否かを判別する(S4)。
【0042】
データ総量Mが閾値Mthを超えない、すなわち下回る(M≦Mth)場合(S4:NO)、系間転送管理部101は、S1のデータ更新を契機とする処理を終了する。この場合、転送リスト501に登録されている全ての更新データは、この時点において、系切替え時に一括して転送される系切替え時転送方式ととして管理される。
【0043】
データ総量Mが閾値Mthを超える場合(S4:YES)、系間転送管理部101は、転送リスト501に登録されている更新データの中で最も更新頻度の低い更新データを特定し、当該更新データを運用中転送方式で待機系サーバ11のメモリ110に系間ネットワーク12を介して転送する(S5)。これにより、系間転送管理部101は、転送リスト501から転送した更新データの情報(レコード)を削除する。また、系間転送管理部101は、メモリ100にアクセスし、転送した更新データの更新フラグ306、407(図3、図4参照)を削除する。
【0044】
そして、系間転送管理部101は、S3に戻り、転送した更新データの情報を削除した後の転送リスト501に登録された各更新データのデータ総量を再び算出し、データ総量Mが閾値Mthを超えるか否かを判別し(S4)、超える場合はS5の処理を行う。このように、系間転送管理部101は、転送リスト501に登録された各更新データのデータ総量Mが閾値Mthを下回るまでS3からS5の処理を繰り返し、閾値Mthを超えた分の更新データについては、更新頻度の低い更新データから順に運用中転送方式で待機系サーバ11に転送する。
【0045】
図6に示す上記処理では、メモリ100上のデータに更新が発生したタイミングで、S2からS5の処理を行うこととしたが、本発明はこれに限定されず、様々なタイミングでS2からS5の処理を行うことができる。
【0046】
例えば、系間転送管理部101は、あらかじめ定められた所定の周期(時間間隔)で、S2からS5の処理を行って、転送リスト記憶部103の情報を更新し、閾値を超える分の更新データを運用時転送方式で転送することとしてもよい。この場合、アプリケーション部102は、ユーザ端末3からの要求または運用系サーバ10の内部処理により、随時、メモリ100上のデータおよび管理情報を更新し、一方、系間転送管理部101は、所定の周期でS2からS5の処理を行う。
【0047】
具体的には、系間転送管理部101は、S2において、前回の周期でS2からS5の処理を行った後に更新されたデータを検索する。例えば、系間転送管理部101は、メモリ上に保持されている各データの管理情報(図3、図4)を参照し、更新フラグ(例えば「1」)が設定されているデータを検索する。そして、検索した各更新データを転送リスト記憶部103の転送リスト501に登録(追加)する(S2)。この際に、系間転送管理部101は、検索した更新データが既に転送リスト501に登録されている場合、当該更新データの更新頻度を、メモリ100から取得した最新の値に更新する。S3からS5の処理については、図6で説明したS3からS5と同様であるため、ここでは説明を省略する。所定の周期でS2からS5の処理を行うことにより、メモリ100の各データが高頻度で更新される場合であっても、処理負荷の増大を回避することができる。
【0048】
以上説明した本実施形態では、各データの更新頻度を動的に算出し、算出した更新頻度に基づいて運用中転送方式で転送するデータを選択するため、運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させることができる。
【0049】
すなわち、本実施形態では、運用系サーバ10で更新されたデータを待機系サーバ11に転送する際に、更新頻度の低い更新データを運用中転送方式で更新の度にその都度転送することで、系切替え時(フェイルオーバ時)に一括転送する系切替え時転送方式で転送するデータ量が常に閾値を下回るように動的に制御することができる。
【0050】
また、本実施形態では、各更新データの総量が系切替え時に転送可能なデータ量(閾値)に満たない場合は、全ての更新データを転送方式を系切替え時転送方式とし、各更新データの総量が系切替え時に転送可能なデータ量(閾値)を超過する場合は、更新頻度の低い更新データを運転中転送方式として転送し、更新頻度の高い更新データについては系切替え時転送方式として転送するように、更新頻度に応じて転送方式の最適化を実現する。これにより、本実施形態では、トラフィックの予想ができない環境であっても、クラスタリングサーバシステムの処理負荷を抑制し、ユーザ端末に対するサービス提供の低下を極力防止することができる。
【0051】
なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
【符号の説明】
【0052】
1 クラスタリングサーバシステム
2 ネットワーク
3 ユーザ端末
10 運用系サーバ
11 待機系サーバ
12 系間ネットワーク
100、110 メモリ
101、111 系間転送管理部
102、112 アプリケーション部
103、113 転送リスト記憶部

【特許請求の範囲】
【請求項1】
運用系サーバと待機系サーバとを有するクラスタリングサーバシステムであって、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、
前記運用系サーバは、
複数のデータを記憶するデータ記憶手段と、
前記データ記憶手段に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶手段と、
前記運用系サーバと待機系サーバ間で更新データを転送する系間転送管理手段と、を備え、
前記系間転送管理手段は、前記転送リスト記憶手段に記憶された更新データのデータ総量を算出し、当該データ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別し、前記データ総量が前記閾値を超える場合は、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶手段に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送すること
を特徴とするクラスタリングサーバシステム。
【請求項2】
請求項1記載のクラスタリングサーバシステムであって、
前記系間管理転送手段は、所定の周期毎に、または前記データ記憶手段のデータが更新された場合に、前記更新データのデータ総量を算出し、当該データ総量が前記閾値を超えるか否かを判別し、前記データ総量が前記閾値を超える場合は、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶手段に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送すること
を特徴とするクラスタリングサーバシステム。
【請求項3】
請求項1または請求項2記載のクラスタリングサーバシステムであって、
前記更新頻度は、前記更新データの更新回数、今回の更新間隔時間と、前回の平均更新頻度とに基づいて算出される平均更新頻度であること
を特徴とするクラスタリングサーバシステム。
【請求項4】
請求項1または請求項2記載のクラスタリングサーバシステムであって、
前記更新頻度は、前回までの加重平均更新頻度と、所定の重み付けした今回の更新間隔時間とに基づいて算出される加重平均更新頻度であること
を特徴とするクラスタリングサーバシステム。
【請求項5】
運用系サーバと待機系サーバとを有するクラスタリングサーバシステム用のデータ転送方法であって、
クラスタリングサーバシステムは、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、
前記運用系サーバは、
複数のデータを記憶するデータ記憶部と、
前記データ記憶部に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶部とを備え、
前記転送リスト記憶部を更新する更新ステップと、前記転送リスト記憶部に記憶された更新データのデータ総量を算出する算出ステップと、
前記算出されたデータ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別する判別ステップと、
前記データ総量が前記閾値を超える場合に、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶部に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送する転送ステップと、を行うこと
を特徴とするデータ転送方法。
【請求項6】
請求項5記載のデータ転送方法であって、
前記運用系サーバは、
前記更新ステップ、算出ステップ、判別ステップおよび転送ステップを、所定の周期毎に、または前記データ記憶部のデータが更新された場合に行うこと
を特徴とするデータ転送方法。
【請求項7】
請求項5または請求項6記載のデータ転送方法であって、
前記運用系サーバは、
前記更新頻度として、前記更新データの更新回数と、今回の更新間隔時間と、前回の平均更新頻度とに基づいて平均更新頻度を算出する算出ステップを、さらに行うこと
を特徴とするデータ転送方法。
【請求項8】
請求項5または請求項6記載のデータ転送方法であって、
前記運用系サーバは、
前記更新頻度として、前回までの加重平均更新頻度と、所定の重み付けした今回の更新間隔時間とに基づいて加重平均更新頻度を算出する算出ステップを、さらに行うこと
を特徴とするデータ転送方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate


【公開番号】特開2010−198204(P2010−198204A)
【公開日】平成22年9月9日(2010.9.9)
【国際特許分類】
【出願番号】特願2009−41077(P2009−41077)
【出願日】平成21年2月24日(2009.2.24)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】