説明

音声案内システム、キャラクタ人形、携帯端末装置、音声案内装置及びプログラム

【課題】 より多くのキャラクタボイスの再生が可能な音声案内システム等を実現すること。
【解決手段】 音片検索部60は、I/F部66,260を介してキャラクタ人形200が接続されているか否かを判定する。そして、接続されていると判定した場合は、キャラクタ音声データ210の音片辞書データ240から表音文字列の音片データを索出する。そして、音片編集部58は、音片検索部60により索出されなかった音片の表音文字列を音響処理部62に出力する。素片検索部64は、音響処理部62に入力された表音文字列を構成する音素毎の素片データをキャラクタ人形200の素片辞書データ220から索出する。音響処理部64が、索出された素片データを合成して音声波形データを生成し、音片編集部58は、音声波形データと音片データとを結合して合成音声データを生成し、合成音声データに基づく音声をスピーカ82から出力させる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、音声案内システム、キャラクタ人形、携帯端末装置、音声案内装置及びプログラムに関する。
【背景技術】
【0002】
近年、走行ルートや交通情報等の音声案内を行うカーナビゲーション装置や、目的地までの道順を音声案内する携帯端末装置、各種電化製品の操作方法の説明・アドバイスを音声により行う操作補助装置といった音声を用いてユーザに様々な情報を提供する音声案内装置が広く普及するようになった。
【0003】
この音声案内装置の一例としては、ぬいぐるみであるキャラクタ人形の手をモータによって駆動制御して、車輌が進むべき方向を当該キャラクタ人形に指示させると共に、音声案内するナビゲーション装置が知られている(特許文献1参照)。
【0004】
音声案内装置の音声案内は、予めアナウンサー等により発話された音声をPCM(Pulse Code Modulation)形式やADPCM(Adaptive Differential PCM)形式等の音声データに変換して記憶しておき、この音声データに基づいた音声出力により行われる。また、多くの音声案内装置は、一般にアナウンサー調の音声によって音声案内を行うが、特許文献1のナビゲーション装置であれば、キャラクタ人形に合わせた音声データを記憶して、当該音声データに基づいて音声案内を行うこともできる。
【特許文献1】特開2002−71372号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
ところが、アナウンサー調の音声やキャラクタ人形に合わせた音声等の単一の音声で音声案内を行う場合、いつも同じ口調や声色になってしまうため、ワンパターン化し単調なものとなってしまう。このため、有名人やアニメキャラクタ等のキャラクタに合わせた音声を複数再生可能にする音声案内装置が望まれるようになった。
【0006】
しかし、複数のキャラクタボイスを再生可能にするためには、キャラクタそれぞれの音声を再生するための音声データを個々に音声案内装置内に記憶しておかなければならない。上述したように、音声データは、予め録音した音声データであるため、音声データ1つ1つのデータ量が大きく、更に音声案内のパターン数に応じて全体のデータ量が膨大になる。従って、キャラクタ毎の音声データを複数記憶するには音声案内装置のメモリ領域を非常に多く占有してしまう。また、仮にハードディスク等の大容量の記憶媒体を用いたととしても、その記憶容量には限界があるため、記憶可能なキャラクタの数にも限りが生じてしまった。
【0007】
本発明は、上述したような課題に鑑みて為されたものであり、その目的とするところは、より多くのキャラクタボイスの再生が可能な音声案内システム等を実現することである。
【課題を解決するための手段】
【0008】
以上の課題を解決するために、請求項1に記載の発明は、
第1の通信手段を備えるキャラクタ人形と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムであって、
前記キャラクタ人形は、
当該キャラクタ人形のキャラクタが音声案内する音声データを記憶する音声データ記憶手段を備え、
前記音声案内装置は、
前記2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、を備えることを特徴としている。
【0009】
請求項2に記載の発明は、第1の通信手段を備えるキャラクタ人形と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムであって、
前記キャラクタ人形は、
当該キャラクタ人形のキャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記音声案内装置からの指示に基づいて音声出力する音声出力手段と、を備え、
前記音声案内装置は、
前記第2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、を備えることを特徴としている。
【0010】
請求項3に記載の発明は、請求項1又は2に記載の発明において、
前記キャラクタ人形は、
当該キャラクタ人形を駆動する駆動手段と、
前記駆動手段の駆動を制御する駆動データを記憶する駆動データ記憶手段と、を更に備え、
前記音声案内装置は、
音声案内に応じた駆動データを前記駆動データ記憶手段から読み出す駆動データ読み出し手段と、
前記駆動データ読み出し手段により読み出された駆動データに基づいた駆動制御を前記駆動手段に指示する駆動指示手段と、を更に備えることを特徴としている。
【0011】
請求項4に記載の発明は、第1の通信手段を備える携帯端末装置と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムであって、
前記携帯端末装置は、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段を備え、
前記音声案内装置は、
前記第2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、を備えることを特徴としている。
【0012】
請求項5に記載の発明は、第1の通信手段を備える携帯端末装置と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムであって、
前記携帯端末装置は、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記携帯端末装置からの指示に基づいて音声出力する音声出力手段と、を備え、
前記音声案内装置は、
前記第2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、を備えることを特徴としている。
【0013】
請求項6に記載の発明は、請求項4又は5に記載の発明において、
前記携帯端末装置は、
表示手段と、キャラクタ画像を表示するための画像データを記憶する画像データ記憶手段と、を更に備え、
前記音声案内装置は、
音声案内に応じた画像データを前記画像データ記憶手段から読み出す画像データ読み出し手段と、
前記画像データ読み出し手段により読み出された画像データに基づいたキャラクタ画像の表示を前記表示手段に指示する表示指示手段と、を更に備えることを特徴としている。
【0014】
請求項7に記載の発明は、請求項4〜6の何れか一項に記載の発明において、
前記携帯端末装置は、公衆回線網上のサーバから前記キャラクタの音声データをダウンロードするダウンロード手段と、
前記ダウンロード手段によりダウンロードされた音声データを前記音声データ記憶手段に記憶更新させる記憶更新手段と、を更に備えることを特徴としている。
【0015】
請求項8に記載の発明は、請求項1〜7の何れか一項に記載の発明において、
車輌に搭載される車載用の音声案内システムであって、
前記車輌のナビゲーションを行うナビゲーション手段を更に備え、
前記音声データ記憶手段は、前記ナビゲーション手段によるナビゲーションの音声データを記憶することを特徴としている。
【0016】
請求項9に記載の発明は、音声案内装置に通信手段を介して接続可能なキャラクタ人形であって、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記通信手段が前記音声案内装置に接続された際に、前記音声データ記憶手段から前記音声案内装置によって読み出された音声データに基づいた音声出力の指示を受信する受信手段と、
前記受信手段により受信された指示に基づいて音声出力を行う音声出力手段と、を備えることを特徴としている。
【0017】
請求項10に記載の発明は、音声案内するキャラクタの音声データを記憶するキャラクタ人形に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定手段と、
前記判定手段により接続されたと判定された場合に、前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、を備えることを特徴としている。
【0018】
請求項11に記載の発明は、音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えたキャラクタ人形に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、を備えることを特徴としている。
【0019】
請求項12に記載の発明は、音声案内装置と通信手段を介して接続可能な携帯端末装置であって、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記音声案内装置との接続時に、前記音声データ記憶手段から前記音声案内装置によって読み出された音声データに基づいた音声出力の指示を受信する受信手段と、
前記受信手段により受信された指示に基づいて音声出力を行う音声出力手段と、
を備えることを特徴としている。
【0020】
請求項13に記載の発明は、音声案内するキャラクタの音声データを記憶する携帯端末装置に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記携帯端末装置に接続されたか否かを判定する判定手段と、
前記判定手段により接続されたと判定された場合に、前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、を備えることを特徴としている。
【0021】
請求項14に記載の発明は、音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えた携帯端末装置に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記携帯端末装置に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、を備えることを特徴としている。
【0022】
請求項15に記載の発明は、音声案内装置に通信手段を介して接続可能なコンピュータに、
キャラクタが音声案内する音声データを記憶する音声データ記憶機能と、
前記通信手段が前記音声案内装置に接続された際に、前記音声案内装置によって読み出された前記音声データに基づいた音声出力の指示を受信する受信機能と、
前記受信機能により受信された指示に基づいて音声出力を行う音声出力機能と、
を実現させることを特徴としている。
【0023】
請求項16に記載の発明は、音声案内するキャラクタの音声データを記憶するキャラクタ人形に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定機能と、
前記判定機能により接続されたと判定された場合に、前記音声データ記憶機能に記憶された音声データを読み出す読み出し機能と、
前記読み出し機能により読み出された音声データに基づいた音声出力を行う音声出力機能と、を実現させることを特徴としている。
【0024】
請求項17に記載の発明は、音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えたキャラクタ人形に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定機能と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し機能と、
前記判定機能により接続されたと判定された場合に、前記読み出し機能により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示機能と、を実現させることを特徴としている。
【0025】
請求項18に記載の発明は、音声案内装置に通信手段を介して接続可能なコンピュータに、
キャラクタが音声案内する音声データを記憶する音声データ記憶機能と、
前記通信手段が前記音声案内装置に接続された際に、前記音声案内装置によって読み出された前記音声データに基づいた音声出力の指示を受信する受信機能と、
前記受信機能により受信された指示に基づいて音声出力を行う音声出力機能と、を実現させることを特徴としている。
【0026】
請求項19に記載の発明は、音声案内するキャラクタの音声データを記憶する携帯端末装置に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記携帯端末装置に接続されたか否かを判定する判定機能と、
前記判定機能により接続されたと判定された場合に、前記音声データ記憶機能に記憶された音声データを読み出す読み出し機能と、
前記読み出し機能により読み出された音声データに基づいた音声出力を行う音声出力機能と、を実現させることを特徴としている。
【0027】
請求項20に記載の発明は、音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えた携帯端末装置に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記携帯端末装置に接続されたか否かを判定する判定機能と、
前記音声データ記憶機能に記憶された音声データを読み出す読み出し機能と、
前記判定機能により接続されたと判定された場合に、前記読み出し機能により読み出された音声データに基づいた音声出力を前記音声出力機能に指示する指示機能と、を実現させることを特徴としている。
【発明の効果】
【0028】
本発明によれば、より多くのキャラクタボイスの再生が可能な音声案内システム等を実現することできる。
【発明を実施するための最良の形態】
【0029】
〔第1実施形態〕
先ず、本発明の音声案内装置を適用したカーナビゲーション装置(以下、「ナビゲーション装置」と略す。)100と、キャラクタ人形200とを具備した音声案内システムSの第1実施形態について図1〜図3を用いて詳細に説明する。
【0030】
〔音声案内システムの概要〕
図1は、音声案内システムSの概略構成の一例を示す図である。図1に示すように音声案内システムSは、ナビゲーション装置100とキャラクタ人形200とが通信接続可能に構成されている。ナビゲーション装置100は、搭載された車輌の現在位置から目的地までの走行ルートや、近隣のランドマークに関す情報や交通情報等を表示出力及び音声出力よりナビゲーションを行う。特に本実施形態におけるナビゲーション装置100は、接続されたキャラクタ人形200のキャラクタの音声によってナビゲーションを行う。
【0031】
キャラクタとは、音声案内を行う人物やアニメキャラクタ、擬人化した動物等の特徴的又は個性的な口調、役柄、声色、外観等の組み合わせた特有の性格を有する対象のことをいう。また、キャラクタ人形200は、そのキャラクタを模写した人形であり、図1に示すように、ロボットのキャラクタ人形200A、子どものキャラクタ人形200B、パンダのキャラクタ人形200C等がある。
【0032】
ナビゲーション装置100は、接続されたキャラクタ人形200に記憶された音声データを読み出し、当該音声データに基づいた音声出力を行うことでナビゲーションを行う。例えば、キャラクタ人形200Aが接続された場合には、キャラクタ人形200Aの声として知られる声音でナビゲーションが行われ、キャラクタ人形Bが接続された場合には、キャラクタ人形Bの声として知られる声音でナビゲーションが行われ、又、キャラクタ人形200Bが有名なキャラクタではない場合(キャラクタ人形製造業者のオリジナルキャラクタのような場合)、当該キャラクタ人形200Bに相応する子ども声音でナビゲーションが行われる。また、場合によっては、子供の言い回しを真似た口調に変更されて、ナビゲーションが行われる。
【0033】
〔ナビゲーション装置の構成〕
次に、図1を用いて、ナビゲーション装置100の機能構成について説明する。図1に示すように、ナビゲーション装置100は、制御部1、入力部2、表示部3、ナビゲーション部4、音声合成部5及び音声出力部8を備えて構成されている。
【0034】
制御部1は、CPUやROM及びRAM等のメモリを備え構成され、各機能部への指示や各機能部間のデータの入出力を行うことで、ナビゲーション装置100の種々の機能を司っている。より具体的には、入力部2から入力される位置信号や押下信号に基づいてメモリに記憶されたシステムプログラムやアプリケーションプログラムを読み出し、その読み出したプログラムに従った処理を行う。そして、その処理結果に基づいて映像信号を生成して表示部3に出力し、当該映像信号に従った表示画面や動画を表示部3に表示出力させる。
【0035】
入力部2は、タッチパネル20及び操作キー22を備え構成される。タッチパネル20は、表示部3と一体的に形成され、ユーザの指先やタッチペン等により当接された位置を検出して、当該位置に応じた位置信号を生成して制御部1に出力する。操作キー22は、決定キーやクリアキー、カーソルキー等の各種キー群を備えて構成され、ユーザにより押下されたキーに応じた押下信号を制御部1に出力する。
【0036】
表示部3は、カラーLCD(Liquid Crystal Display)やELD(Electronic Luminescent Display)により構成され、ナビゲーション装置100に係る各種情報や画像等を表示する。この表示部3とタッチパネル20とにより所謂GUI(Graphical User Interface)が実現される。
【0037】
ナビゲーション部4は、GPS(Global Positioning System)受信機、DVD(Digital Versatile Disc)再生装置、VICS(Vehicle Information Communication System)受信機及び車速センサ、ナビゲーション文章データベース(以下、「DB」と略す。)等を備えて構成され、表示部3に表示させるナビゲーションの映像信号を生成すると共に、音声出力部8に音声出力させるナビゲーションの文章をテキストデータ(音声案内情報)TDとして生成する。
【0038】
GPS受信部は、車輌の現在位置(例えば、緯度や経度)を測位する回路部であり、GPS信号を受信して、そのGPS信号から公知の測位方法を用いて現在位置を測位する。DVD再生部は、各種施設や道路、交差点等のランドマーク情報、地図画像等を検索可能に蓄積記憶したDVDを再生する。また、VICS受信部は、光ビーコン及び電波ビーコン等によって送信されている渋滞や交通規制に関する所謂VICS情報を受信する回路部であり、車速センサは、ジャイロや方位センサ等によって構成され、車輌の走行速度や進行方向を検出するセンサである。ナビゲーション文章DBは、音声出力する文章の基本形を検索可能に記憶したDBである。
【0039】
ナビゲーション部4は、現在位置や地図情報DB、VICS情報、走行速度、進行方向をナビゲーション文章DBに記憶された基本形に当てはめることで表記文字列により構成される種々のテキストデータTDを生成し、音声合成部5に出力する。例えば、現在位置からユーザにより予め設定された目的地までの走行ルートをランドマーク情報や地図画像等から決定し、その走行ルートをナビゲーションする文章として、例えば、「次の十字路を右折して下さい」といったテキストデータTDを生成する。また、VICS情報に基づいて「この先、渋滞があります。」というテキストデータTDを生成したり、走行速度に基づいて「スピードが上がっています。気を付けて下さい。」というテキストデータTDを生成したりする。
【0040】
音声合成部5は、ナビゲーション部4により生成されたテキストデータTDを、音声出力部8に音声出力させる機能部である。音声合成部5の機能構成は、簡単には、当該テキストデータTDに対応する音声データを読み出して、当該音声データに基づいた音声波形信号を生成して音声出力部8に出力するが、その詳細については後述する。音声出力部8は、増幅器(アンプ)80及びスピーカ82を備えて構成され、音声合成部5から出力される音声波形信号を増幅後、当該信号に基づいた音声をスピーカ82から出力する。
【0041】
〔キャラクタ人形の機能構成〕
図2は、キャラクタ人形200及び音声案内部5の機能構成の一例を示すブロック図である。先ず、図2を用いてキャラクタ人形200の機能構成について説明する。図2によれば、キャラクタ人形200は、キャラクタ音声ファイル210と、I/F部260とを備えて構成される。
【0042】
キャラクタ音声ファイル210は、PROM(Programmable ROM)やHDD等の不揮発性メモリに記憶され、素片辞書データ220と、音片辞書データ240とを有して構成される。素片辞書データ220は、表音文字と、素片データとを対応付けて記憶したデータテーブルである。素片データとは、表音文字が表す音素を構成する素片、即ち1個の音素を構成する音声の波形1サイクル分の音声を表す音声波形を、例えば、PCM形式にA/D変換することにより得られたデジタル形式の音声データある。素片データは、エントロピー符号化されて、圧縮されて記憶される。
【0043】
音片辞書データ240は、音片読みデータと音片データとを対応付けて格納したデータテーブルである。音片とは、音声のうち音素1個以上を含む連続した1区間をいい、通常は単語1個分又は複数個分の区間からなるが、助詞や接続詞を含んでもよい。音片読みデータは、音片の読みを表音文字で表した一連の文字列(表音文字列)である。音片データは、予め録音した音声を、例えば、PCM形式にA/D変換することにより得られたデジタル形式の音声データである。この音片データを再生することで、音片読みデータの表音文字列に対応する音片データが音声出力される。但し、実際に出力される音声の内容と、表音文字列が完全に一致している必要はない。例えば、表音文字列を「次、右折です」とし、実際に出力される音声、つまり音片データを「次んとこ、右折しとくれや〜」として登録してもよい。このようにすれば、発声するテキストデータを変えずに、音声データベースを変えるだけで、声音だけでなく、言い回しまで変化させることができる。
【0044】
キャラクタ音声ファイル210の素片辞書データ220が記憶する素片データ、音片辞書データ240が記憶する音片データは、キャラクタ人形200のキャラクタにより発話される音声を再生するための音声データある。例えば、キャラクタ人形200Aの音声データは、キャラクタ人形200Aとして知られる声音でから生成され、キャラクタ人形200Bの音声データは、キャラクタ人形200Aとして知られる声音(例えば子どもにより発話された音声)で生成される。従って、キャラクタ音声ファイル210に記憶された音声データに基づいて音声出力を行うことで、キャラクタ人形200のキャラクタに対応するキャラクタボイスが音声出力される。
【0045】
尚、キャラクタ音声ファイル210は、キャラクタ人形200の外部から読み出し及び書き換えを受け付けない機構・設定により記憶されている。その読み出し及び書き換えを受け付けない方法としては、例えば、キャラクタ人形200専用の特殊なネジを用いて不揮発性メモリを取り出せないようにする方法、パスワードを設定しておきメモリ内のデータを外部から参照不能にする方法等が、適宜公知技術を採用可能である。これにより、音声データの改竄や流出を防ぎ、キャラクタの著作権や肖像権の侵害を防止することができる。
【0046】
I/F部260は、ナビゲーション装置100のI/F部66と同一規格の通信方式により接続して、データ通信を行うための機能部であり、例えば、LANインターフェイス、USB等により構成される。
【0047】
〔音声合成部の機能構成〕
次に、図2を用いて、音声合成部5の機能構成について説明する。図2によれば、音声合成部5は、デフォルト音声ファイル50、言語処理部56、音片編集部58、音片検索部60、音響処理部62、素片検索部64及びI/F部66を備えて構成される。
【0048】
音声合成部5、言語処理部56、音片編集部58、音片検索部60、音響処理部62及び素片検索部64は、何れもCPUやDSP(Digital Signal Processor)等のプロセッサと、当該プロセッサにより実行される各種処理に係るプログラムを記憶するメモリとを備えて構成される。特に、音声合成部5は、図3に示すフローチャートに従った処理を実現するためのプログラムをメモリに記憶している。このプログラムは、インターネット網等を介するダウンロードや、CD−ROM等のフレキシブルな記憶媒体等により配布される。尚、これらの機能部のプロセッサやメモリの一部又は全部を、単一のプロセッサやメモリによって実現することとしてもよい。
【0049】
デフォルト音声ファイル50は、PROMやHDD等の不揮発性メモリに記憶され、素片辞書データ52と、音片辞書データ54とを有して構成される。その素片辞書データ52が記憶する素片データ、音片辞書データ54が記憶する音片データは、例えば、アナウンサーにより発話された音声から生成される。従って、デフォルト音声ファイル50に記憶された音声データに基づいて音声出力を行うことで、アナウンサー調のキャラクタボイスでナビゲーションが行われる。尚、素片辞書データ52及び音片辞書データ54それぞれのデータ構成は、上述したキャラクタ音声ファイル210の素片辞書データ220及び音片辞書データ240それぞれのデータ構成と同一であるため、その詳細な説明は省略する。
【0050】
言語処理部56は、ナビゲーション部4から入力された表記文字列のテキストデータ(音声案内情報)TDに、公知の形態素解析を施すことにより、連続する複数の単語により構成されるテキストデータTDから個々の音片を特定し、その音片の読みを表す表音文字列に変換する。具体的には、例えば、「次の十字路を右折して下さい。」というテキストデータTDが入力された場合は、当該テキストデータTDから「次の」、「十字路を」、「右折して」、「下さい」という4つの音片を特定する。そして、それぞれの音片の読みを表す表音文字列「ツギノ」、「ジュウジロヲ」、「ウセツシテ」、「クダサイ」に変換する。
【0051】
音片編集部58は、言語処理部56により変換された音片毎の表音文字列を取得し、それぞれの表音文字列に合致する音片読みデータが対応付けられている音片データを索出するように音片検索部60に指示する。
【0052】
音片検索部60は、キャラクタ人形200がI/F部66に接続されているか否かを判定し、キャラクタ人形200が接続されていないと判定した場合には、デフォルト音声ファイル50の音片辞書データ54を、接続されていると判定した場合には、キャラクタ音声ファイル210の音片辞書データ240を選択する。そして、その選択した音片辞書データから、表音文字列に合致する音片読みデータに対応付けられた音片データを索出し、その索出した音片データを読み出して音片編集部58に返す。また、合致する音片読みデータが索出されなかった表音文字列を識別する欠落部分識別データを音片編集部58に返す。
【0053】
例えば、「ツギノ」、「ジュウジロヲ」、「ウセツシテ」、「クダサイ」という表音文字列に対する索出が指示された場合、これらの表音文字列と合致する音片読みデータの索出を行う。このとき、「ツギノ」、「ウセツシテ」及び「クダサイ」とに合致する音片読みデータが索出されたとする。この場合、音片検索部60は、その索出された音片読みデータに対応する音片データと共に、表音文字列「ジュウジロヲ」を識別する欠落部分識別データを音片編集部58に返す。
【0054】
音片編集部58は、音片検索部60から欠落部分識別データが返された場合、その欠落部分識別データによって識別される表音文字列、即ち音片辞書データから索出されなかった表音文字列を音響処理部62に出力する。
【0055】
音響処理部62は、音片編集部58から入力された表音文字列に含まれるそれぞれの表音文字について、当該表音文字が表す音素を構成する素片の素片データを素片辞書データ52から索出するように素片検索部64に指示する。
【0056】
素片検索部64は、音片検索部60と同様に、キャラクタ人形200が接続されているか否かを判定し、その判定結果に応じてキャラクタ音声ファイル210の素片辞書データ220と、デフォルト音声ファイル50の素片辞書データ52との何れかを選択して、その選択した素片辞書データから、音響処理部62から索出の指示が為された素片毎の素片データを索出する。
【0057】
音片編集部58は、欠落部分識別データで識別される表音文字列に対して、例えば、「藤崎モデル」や「ToBI(Tone and Break Indices)」等の公知手法に基づいた解析を行うことにより、表音文字列毎の韻律(アクセント、イントネーション、強勢、音素の時間長等)の予測を行う。そして、音片編集部58は、その韻律を表す韻律予測データを生成して音響処理部62に出力する。
【0058】
音響処理部62は、音片編集部58から出力された韻律予測データに基づいて、索出した素片データを合成することで、実際に発話したような自然なつながりのある音声波形データを生成し、音片編集部58に出力する。音片編集部58は、音響処理部62により生成された音声波形データと、音片検索部60により索出された音片データとを互いに結合して合成音声データを生成する。
【0059】
音片編集部58は、合成音声データ(デジタル)をD/A変換して音声波形信号(アナログ)を生成した後、音声出力部8に出力する。このように、テキストデータTDを音片毎に分割し、その音片毎の音片データを音片辞書データ54から検索して、音片辞書データ54に記憶されていない音片は素片に分解し、その素片毎の素片データを素片辞書データ52から検索する。そして、検索された音片データと素片データとを合成・結合することで、テキストデータTDに相当する音声データを生成する。これにより、キャラクタの肉声感を表現することのできるハイブリッド型の音声合成機能(以下、「HBTTS」という。)が実現される。
【0060】
このHBTTSは、
(1)音片データのみで音声合成を行う場合、固定の言い回しかできなくなるため、汎用性を広げるためにデータ量が膨大となる。
(2)素片データのみで音声合成を行う場合、所謂ロボットボイスとなってしまいキャラクタ特有の肉声の表現が困難である。
という(1)及び(2)の2つの問題点を解決し両立を図ったものである。従って、比較的小さなデータ容量でキャラクタボイスでのナビゲーションが可能なナビゲーション装置100が実現される。
【0061】
I/F部66は、キャラクタ人形200のI/F部260と同一規格の通信方式により電気的に接続して、データ通信を行うための機能部であり、例えば、LANインターフェイス、USB等を備えて構成される。
【0062】
〔音声案内システムの具体的な動作〕
次に、図3のフローチャートを用いて、音声案内システムSの具体的な動作について説明する。尚、図3のフローチャートは、音声合成部5の各機能部間における処理内容を総括して示したものであり、このフローチャートに相当する一連の処理をプログラム化することとしてもよい。
【0063】
先ず、音声合成部5の言語処理部56がテキストデータTDをナビゲーション部4から取得すると(ステップA1)、そのテキストデータTDに形態素解析を施して、音片毎の表音文字列に変換する(ステップA3)。
【0064】
音片編集部58は、言語処理部56により変換された表音文字列を音片検索部60に出力する。音片検索部60は、I/F部66にキャラクタ人形200が接続されているか否かを判定する(ステップA5)。音片検索部60は、I/F部66にキャラクタ人形200が接続されていないと判定した場合(ステップA5;NO)、音片毎の表音文字列に相当する音片データ、即ち、表音文字列と合致する音片読みデータに対応付けられた音片データをデフォルト音声ファイル50の音片辞書データ54から索出する(ステップA7)。
【0065】
そして、音片検索部60は、索出した音片データに基づいて欠落部分識別データを生成して、当該音片データと共に音片編集部58に返す(ステップA9)。音片編集部58が、音片検索部60から返された欠落部分識別データで示される音片の表音文字列を音響処理部62に出力すると、音響処理部62は、その表音文字列に含まれる音素毎の表音文字についての素片データをデフォルト音声ファイル50の素片辞書データ52から索出するように素片検索部64に指示する(ステップA11)。
【0066】
そして、音響処理部62が、素片検索部64により索出された素片データを音片編集部58に返すと、音片編集部58は、その素片データから音声波形データを生成し(ステップA13)、ステップA7において索出された音片データと当該音声波形データと互いに結合して合成音声データを生成する(ステップA15)。
【0067】
そして、音片編集部58は、その生成した合成音声データにD/A変換を行った音声波形信号を音声出力部8に出力して、合成音声データに基づいた音声出力を行う。これにより、キャラクタ人形200が接続されていない場合は、アナウンサー調のデフォルト音声でのナビゲーションが行われる。
【0068】
一方、ステップA5において、音片検索部60は、I/F部66にキャラクタ人形200が接続されていると判定した場合(ステップA5;YES)、音片毎の表音文字列に相当する音片データをキャラクタ音声ファイル210の音片辞書データ54からI/F部66及び260を介して索出する(ステップA19)。
【0069】
そして、音片検索部60が、欠落部分識別データを生成して当該音片データと共に音片編集部58に返すと(ステップA21)、音片編集部58は、当該欠落部分識別データで示される音片の表音文字列を音響処理部62に出力する。次いで、音響処理部62は、その表音文字列に含まれる音素毎の表音文字についての素片データをキャラクタ音声ファイル210の素片辞書データ220から索出するように素片検索部64に指示する(ステップA23)。
【0070】
音響処理部62が、素片検索部64により索出された素片データを音片編集部58に返すと、音片編集部58は、その素片データから音声波形データを生成し(ステップA25)、ステップA7において索出された音片データ、即ちキャラクタの音片データと当該音声波形データと互いに結合して、合成音声データを生成する(ステップA27)。
【0071】
そして、音片編集部58は、その生成した合成音声データにD/A変換を行った音声波形信号を音声出力部8に出力して音声出力を行わせる。これにより、キャラクタ人形200が接続されている場合は、キャラクタ人形200のキャラクタボイスでナビゲーションが行われる。
【0072】
以上、第1実施形態によれば、キャラクタ人形200にそのキャラクタの音声データ(素片辞書データ及び音片辞書データ)を記憶しておく。そして、ナビゲーション装置100は、キャラクタ人形200が接続された場合は、そのキャラクタ人形200内の音声データを読み出して、当該音声データに基づいて音声出力を行う。このため、ナビゲーション装置100内にキャラクタ毎の音声データを記憶しなくとも、キャラクタボイスでのナビゲーションを行うことができ、ナビゲーション装置100のメモリを占有する容量を節減できる。また、接続するキャラクタ人形200のキャラクタに応じて、キャラクタボイスが変わる。従って、より多くのキャラクタボイスでの音声再生が可能な音声案内システムSが実現される。
【0073】
また、複数のキャラクタの音声データをナビゲーション装置100に記憶しなくてもよいため、キャラクタの肖像権や著作権に対する対価がナビゲーション装置100の提供価格に含まなくてもよい。ユーザは、所望のキャラクタのキャラクタ人形200を購入すればよく、ユーザに提供する際のナビゲーション装置100の低価格化を図ることができる。
【0074】
〔第2実施形態〕
次に、図4〜図6を用いて第2実施形態の音声案内システムSについて説明する。第2実施形態における音声案内システムSは、図1に示した音声合成部5を図4の音声合成部5aに、キャラクタ人形200をキャラクタ人形200aに置き換えた構成である。尚、第1実施形態における音声合成部5及びキャラクタ人形200と同一の構成要素には、同一の符号を付して、その詳細な説明を省略する。
【0075】
図4によれば、キャラクタ人形200aは、キャラクタ音声ファイル210と、駆動制御データ250と、I/F部260と、駆動部270と、音声出力部280とを備えて構成される。
【0076】
駆動部270は、キャラクタ人形200aの手や足、顔等を駆動するためのモータや、その駆動電力を供給する電池等を有して構成される。駆動部270は、キャラクタ人形200aがナビゲーション装置100に接続された場合に、当該ナビゲーション装置100からの駆動指示に応じてモータを駆動する。
【0077】
駆動制御データ250は、駆動部270の駆動を制御するための制御データを記憶するデータテーブルであり、PROMやHDD等の不揮発性メモリに記憶される。また、駆動制御データ250は、例えば図5に示すデータ構成の一例のように、キーワードと、駆動内容データとを対応付けて記憶している。駆動内容データは、駆動部270をどのように駆動するかを表すデータであり、例えば、駆動内容データ「右手を右側に上げる」は、駆動部270の右手を駆動するモータを制御して、キャラクタ人形200aの右手を右側に上げさせることを表している。
【0078】
音声出力部280は、増幅器282と、スピーカ284とを備えて構成され、音声合成部5aから出力される音声波形信号を増幅器282で増幅して、スピーカ284から当該音声波形信号に基づいた音声出力を行う。
【0079】
また、図4によれば音声合成部5aは、図2に示した音片検索部60を音片検索部60aに置き換えた構成であるため、図2の音声合成部5と同一の構成要素には同一の符号を付してその説明を省略する。
【0080】
音片検索部60aは、第1実施形態と同様に、音片編集部58から出力された音片毎の表音文字列に相当する音片データを、デフォルト音声ファイル50の音片辞書データ54又はキャラクタ音声ファイル210aの音片辞書データ240から索出するが、第2実施形態においては、キャラクタ人形200aが接続されていると判定した場合は、次のような処理を行う。
【0081】
先ず、駆動制御データ250にアクセスし、この駆動制御データ250内のキーワードが音片編集部58から出力された表音文字列内に含まれているか否かを判別する。そして、キーワードが含まれていた場合は、当該キーワードに対応する駆動内容データを読み出して駆動制御データ250を読み出し、当該駆動内容データに基づいた駆動指示をキャラクタ人形200aの駆動部270に対して送信する。
【0082】
例えば、音片編集部58から出力された表音文字列に「ウセツ」が含まれていた場合は、キーワード「ウセツ」に対応する駆動内容データを読み出して、キャラクタ人形200aの右手を右側に上げるための駆動指示を駆動部270に対して送信する。これにより、ナビゲーション装置100側からキャラクタ人形200aの駆動を制御することができる。
【0083】
次に、図6のフローチャートを用いて、第2実施形態における音声案内システムSの具体的な動作について説明する。尚、図3に示したフローチャートと同一の処理ステップには、同一のステップ番号を付してその説明を省略する。
【0084】
先ず、ナビゲーション装置100の音声合成部5aは、キャラクタ人形200aが接続されていないと判定した場合は(ステップA5;YES)、第1実施形態と同様にステップA1〜A17の処理を行ってデフォルトの音声出力を行う。
【0085】
これに対し、キャラクタ人形200aが接続されていると判定した場合は(ステップA5;NO)、音片検索部60aは、音片毎の表音文字列に相当する音片データをキャラクタ音声ファイル210の音片辞書データ240から索出すると共に、表音文字列内に含まれたキーワードに対応する駆動内容データの索出を駆動制御データ250から行う(ステップA18)。
【0086】
そして、第1実施形態と同様に、素片辞書データ220から素片データを索出して、音声波形データを生成した後、音片データと音声波形データとを結合して合成音声データを生成する(ステップA21〜A27)。
【0087】
音片検索部60aは、索出した駆動内容データに基づいた駆動指示をI/F部66及び260を介してキャラクタ人形200aに送信し(ステップA31)、続いて、合成音声データをキャラクタ人形200aに送信する(ステップA33)。
【0088】
一方、キャラクタ人形200aの駆動部270は、音声合成部5aから受信した駆動指示に従った駆動を行い(ステップB1)、音声出力部280は、受信した合成音声データに基づいた音声出力を行う(ステップB3)。
【0089】
例えば、ナビゲーション部4が「右折して下さい」というテキストデータTDを出力したとすると、このテキストデータTDが「ウセツシテ」と「クダサイ」の表音文字列に変換される。そして、このテキストデータTDを読み上げる合成音声データが音片編集部58により生成される。また、「ウセツシテ」の表音文字列内に含まれる「ウセツ」をキーワードとして対応付けられた駆動内容データ「右手を右側に上げる」が読み出される。これにより、キャラクタ人形200aは、「右折して下さい」と音声出力すると共に、右手を右側に上げるように駆動する。
【0090】
以上、第2実施形態によれば、キャラクタ人形200aがナビゲーション装置100に接続された場合、ナビゲーションの音声をキャラクタ人形200aのスピーカ284から行うと共に、この音声出力と共にキャラクタ人形200aの手足が駆動する。このように、キャラクタ人形200aが身振り手振りでナビゲーションしながら、音声案内を行うため、あたかもキャラクタ人形200a自身がナビゲーションしているような臨場感をユーザに与えることができる。
【0091】
尚、第1及び第2実施形態において、音片データ及び素片データの音声合成をナビゲーション装置100側の音声合成部5,5aにおいて行うこととしたが、キャラクタ人形200,200a側で行うことととしてもよい。この場合は、キャラクタ人形200,200aに音片編集部、音片検索部、音響処理部、素片検索部及び音声出力部を設ける。そして、音声合成部5の言語処理部56が、テキストデータTDの表音文字列をキャラクタ人形200,200a側の音片編集部にI/F部66及び260を介して出力する。このとき、キャラクタ人形200,200a側で音声合成を行って合成音声データに基づいた音声出力を行う。これにより、ナビゲーション装置100側の処理負荷を低減させることができる。
【0092】
〔第3実施形態〕
次に、図7〜図9を用いて第3実施形態の音声案内システムSbについて説明する。図7に音声案内システムSbの概略構成の一例を示す。図7によれば、音声案内システムSbは、ナビゲーション装置100bと、携帯端末装置(以下、「携帯端末」と略す。)300とが通信接続可能に構成される。ナビゲーション装置100bは、図1に示した音声合成部5を図8に示した音声合成部5bに置き換えた構成であるため、図1のナビゲーション装置100と同一の構成要素には同一の符号を付してその説明を省略する。
【0093】
携帯端末300は、無線基地局400と通信することにより、例えば、公衆回線網(インターネット網)上のサーバからキャラクタ音声ファイル210をダウンロードすることができる。ナビゲーション装置100の制御部1は、複数のキャラクタ毎のダウンロード先(URL)をエンコードした例えば、QRコード等の2次元コードを表示部3に表示させる。ユーザが、この2次元コードをカメラ部350により撮影すると、携帯端末300が2次元コードのダウンロード先に接続して、キャラクタ音声ファイル210をダウンロードする。ユーザは、所望のキャラクタのキャラクタ音声ファイル210をダウンロードすることで、ナビゲーション装置100bのナビゲーションが当該キャラクタでの音声で行われる。
【0094】
図8は、音声合成部5b及び携帯端末300それぞれの機能構成の一例を示すブロック図である。音声合成部5bは、図2に示した音声合成部5の音片検索部60及び素片検索部64と、音片検索部60b及び素片検索部64bに置き換えて構成であるため、当該音声合成部5と同一の構成要素には同一の符号を付してその説明を省略する。
【0095】
第3実施形態において、音片検索部60bは、I/F部66を介して携帯端末300が接続されたか否かを判定する。そして、携帯端末300が接続されていると判定した場合は、音片編集部58から出力された音片毎の表音文字列を、携帯端末300に送信することで、携帯端末300側に音片データの索出を行わせる。そして、携帯端末300により索出された音片データに基づいて欠落部分識別データを生成して音片編集部58に返す。音片編集部58が、第1実施形態と同様に、欠落部分識別データで示される表音文字列を音響処理部62に出力すると、音響処理部62は、この表音文字列内の表音文字毎の素片データを素片検索部64bに索出させる。
【0096】
第3実施形態における素片検索部64bは、携帯端末300が接続されているか否かを判定して、接続されていると判定した場合は、音響処理部62から出力された表音文字列を携帯端末300に送信することで、当該携帯端末300側に表音文字列の素片データの索出を行わせる。そして、携帯端末300により索出された素片データを音響処理部62に出力する。携帯端末300が接続されていないと判定した場合には、第1実施形態と同様にデフォルト音声ファイル50の素片辞書データ52から素片データを索出する。このため、携帯端末300が接続されている場合は、携帯端末300にダウンロードされたキャラクタ音声ファイル210に基づいたキャラクタの音声でナビゲーションが行われることとなる。
【0097】
次に、携帯端末300の機能構成について説明する。図8によれば、携帯端末300は、制御部310、入力部320、表示部330、通信部340、カメラ部350、記憶部360及びI/F部390を備えて構成される。
【0098】
制御部310は、CPUやROM及びRAM等のメモリを備え構成され、各機能部への指示や各機能部間のデータの入出力を行うことで、携帯端末300の種々の機能を司っている。より具体的には、入力部320から入力される操作信号に基づいてメモリに記憶されたシステムプログラムやアプリケーションプログラムを読み出し、その読み出したプログラムに従った処理を行う。そして、その処理結果に基づいて映像信号を生成して表示部330に出力し、当該映像信号に従った表示画面や動画を表示部330に表示出力させる。
【0099】
入力部320は、カーソルキー、決定キー、クリアキー、メニュキー、数字キー等の操作キーを備え構成され、ユーザにより押下されたキーに応じた操作信号を制御部310に出力する。表示部330は、カラーLCDやELDにより構成され、制御部310から出力される映像信号に従って、携帯端末300に係る各種情報や画像等を表示する。
【0100】
通信部340は、制御部310の指示に基づき、アンテナANTを介して無線基地局400との間でデータ通信を行う。より具体的には、無線基地局400と接続して、制御部1により取得されたダウンロード先のサーバからキャラクタ音声ファイル210のデータ通信を開始する。そして、無線基地局400から送信される信号をアンテナANTで受信し、当該信号を増幅及び復調することでキャラクタ音声ファイル210を取得して制御部310に出力する。通信部340と無線基地局400間で無線通信方式は、PDC(Personal Digital Cellular)方式、CDMA(Code Division Multiple Access)方式、GSM(Global System for Mobile communication)方式等の各種公知技術の何れを利用することとしてもよい。また、通信部340は、有線通信によりサーバからキャラクタ音声ファイル210をダウンロードすることとしてもよい。
【0101】
カメラ部350は、CCD(撮像素子)及びA/D変換部等を備えて構成され、CCDにより光電変換した電気信号をA/D変換することで撮影画像を生成する。制御部1は、カメラ部350により生成された撮影画像から2次元コードを抽出し、当該2次元コードをデコード(解読)することで、キャラクタ音声ファイル210のダウンロード先を取得する。
【0102】
記憶部360は、フラッシュメモリやHDD等の不揮発性メモリにより構成され、図8に示すようにキャラクタ音声ファイル210を記憶している。キャラク音声データ210は、ダウンロードの都度更新される。I/F部380は、ナビゲーション装置100bのI/F部66と同一規格の通信方式により電気的に接続して、データ通信を行うための機能部であり、例えば、LANインターフェイス、USB等を備えて構成される。
【0103】
次に、図9のフローチャートを用いて、第3実施形態における音声案内システムSbの具体的な動作について説明する。尚、図3に示したフローチャートと同一の処理ステップには、同一のステップ番号を付してその説明を省略する。
【0104】
先ず、ナビゲーション装置100の制御部1は、表示部3にダウンロード先の2次元コードを表示させる(ステップC1)。そして、テキストデータTDの取得、表音文字列への変換を行った後(ステップA1〜A3)、携帯端末300が接続されているか否かを判定する(ステップC5)。そして、携帯端末300が接続されていないと判定した場合は(ステップC5;YES)、第1実施形態と同様にステップA1〜A17の処理を行ってデフォルトの音声出力を行う。
【0105】
一方、携帯端末300が、ユーザの入力部320の操作に従ってカメラ部350を駆動し、ナビゲーション装置100bの表示部3に表示された2次元コードを撮影すると(ステップD1)、制御部310は、撮影画像のデコードにより2次元コードの解読を行う(ステップD3)。そして、解読した2次元コードで示されるダウンロード先に通信部340を介して接続して、キャラクタ音声ファイル210をダウンロードし、記憶部360に記憶する(ステップD5)。
【0106】
ステップC5において、携帯端末300が接続されていると判定した場合(ステップC5;YES)、音片検索部60bは、音片毎の表音文字列をI/F部66及び380を介して携帯端末300へ送信する(ステップC19)。
【0107】
このとき、携帯端末300の制御部310は、ナビゲーション装置100bの接続を検出して、I/F部66及び380を介して表音文字列を受信したか否かを判定する(ステップD7)。そして、表音文字列を受信したと判定した場合は(ステップD7;YES)、その表文字列に相当する音片データを音片辞書データ240から索出して、ナビゲーション装置100bに送信する(ステップD9)。
【0108】
ナビゲーション装置100bにおいて、携帯端末300から送信された音片データを受信して(ステップC21)、当該音片データに基づいて欠落部分識別データを生成する(ステップC23)。そして、音片編集部58が、欠落部分識別データで識別される音片の表音文字列を音響処理部62に出力すると、音響処理部62は、表音文字列を構成する音素毎の表音文字の素片データを素片検索部64bに索出させる。素片検索部64bは、素片データの索出のために、I/F部66及び380を介して表音文字を携帯端末300に送信する(ステップC25)。
【0109】
このとき、ナビゲーション装置100bから音素毎の表音文字を受信したか否かを判定して、受信した場合には(ステップD11;YES)、その表音文字の素片データを素片辞書データ220から索出してナビゲーション装置100bに送信する(ステップD13)。ナビゲーション装置100bにおいて、素片検索部64bは、携帯端末300から送信された素片データを受信し、当該素片データを音響処理部62に出力する(ステップC27)。
【0110】
音響処理部62が、その素片データを韻律予測データに基づいて合成して音声波形データを生成し音片編集部58に出力すると(ステップC29)、音片編集部58は、音声波形データと索出した音片データとを互いに結合して合成音声データを生成する(ステップC31)。そして、生成した合成音声データ、即ち、キャラクタ音声ファイル210から生成した音声データをD/A変換した音声波形信号を音声出力部8に出力することで、キャラクタボイスでの音声出力を行う(ステップC33)。
【0111】
以上、第3実施形態によれば、携帯端末300においてキャラクタ音声ファイル210をダウンロードして記憶するため、ナビゲーション装置100bに携帯端末300が接続された場合には、そのキャラクタ音声ファイル210に基づいた音声出力を行う。このように、ダウロードによってキャラクタ音声ファイル210は更新可能であるため、ユーザは、所望のキャラクタの音声データを入れ替えながら、様々なキャラクタボイスでナビゲーションを楽しむことができる。従って、より多くのキャラクタボイスの再生が可能な音声案内システムSbを実現できる。
【0112】
〔第4実施形態〕
次に、図10及び11を用いて第4実施形態の音声案内システムSbについて説明する。第4実施形態における音声案内システムSbは、図7に示した音声合成部5bを図10の音声合成部5cに、携帯端末300を携帯端末300cに置き換えた構成である。尚、第3実施形態における音声合成部5b及び携帯端末300と同一の構成要素には、同一の符号を付して、その詳細な説明を省略する。
【0113】
図10によれば、ナビゲーション装置100は、デフォルト音声ファイル50、言語処理部56、音片編集部58、音片検索部60c、音響処理部62、素片検索部64b及び、I/F部66を備えて構成される。
【0114】
音片検索部60cは、第3実施形態と同様の方法により合成音声データを生成するが、携帯端末300cがI/F部66に接続されている場合は、その合成音声データを携帯端末300cに送信して、携帯端末300c側の音声出力部392に音声出力させる。
【0115】
また、携帯端末300cは、制御部310、入力部320、表示部330、通信部340、カメラ部350、記憶部360、I/F部390及び音声出力部392を備えて構成される。
【0116】
第4実施形態における記憶部360は、素片辞書データ220及び音片辞書データ240をキャラクタ音声ファイル210と、キャラクタ動画データ380とを有するキャラクタファイル370を記憶する。このキャラクタファイル370は、ダウンロードの都度更新される。キャラクタ動画データ380は、キャラクタ音声ファイル210のキャラクタと同一のキャラクタの動画をMPEG(Moving Picture Experts Group)形式に変換した動画データを記憶したデータテーブルである。そのデータ構成は、第2実施形態の駆動制御データ250のデータ構成のように、キーワードと動画データとを対応付けて記憶する。例えば、キーワード「ウセツ」には、キャラクタが「右手を右側に上げる」動作を行う動画を表示するための動画データが対応付けられている。
【0117】
制御部310は、キャラクタ動画データ380内のキーワードが音声合成部5cの音片検索部60cから送信された表音文字列内に含まれているか否かを判別する。そして、キーワードが含まれていた場合は、当該キーワードに対応する動画データを読み出す。そして、その動画データに基づいた動画を表示部330に表示させる。例えば、音片検索部60cから送信された表音文字列に「ウセツ」が含まれていた場合は、キーワード「ウセツ」に対応する動画データを読み出して、キャラクタが右手を右側に上げる動画を表示部330に表示させる。
【0118】
音声出力部392は、増幅器394と、スピーカ396とを備えて構成され、ナビゲーション装置100cから送信される音声波形信号を増幅器394により増幅して、スピーカ396から当該音声波形信号に基づいた音声出力を行う。
【0119】
次に、図11のフローチャートを用いて、第4実施形態における音声案内システムSbの具体的な動作について説明する。尚、図9に示したフローチャートと同一の処理ステップには、同一のステップ番号を付してその説明を省略する。
【0120】
先ず、ナビゲーション装置100の制御部1は、第3実施形態と同様に、ダウンロード先のコード表示、テキストデータTDの取得、表音文字列への変換を行った後(ステップC1〜A3)、携帯端末300が接続されているか否かを判定し(ステップC5)、その判定結果に応じた一連の処理を行う。
【0121】
携帯端末300が接続されていない場合は、ステップC19〜C31の処理工程を行うことで、合成音声データを生成し、当該合成音声データをI/F部66及び390を介して携帯端末300cに送信する(ステップC35)。
【0122】
一方、携帯端末300側でも第3実施形態と同様に、コード撮影及びコード解読を行う(ステップD1〜D3)。そして、解読した2次元コードで示されるダウンロード先に、通信部340を介して接続してキャラクタファイル370をダウンロードする(ステップD6)。
【0123】
次いで、制御部310は、ナビゲーション装置100bの接続を検出して、受信した表音文字列及び、音素毎の表音文字に相当する音片データ及び素片データをキャラクタ音声ファイル210内から索出して、ナビゲーション装置100cに送信する(ステップD7〜D13)。
【0124】
そして、ステップD9において受信した表音文字列に含まれたキーワードに対応する動画データをキャラクタ動画データ380から索出して(ステップD15)、当該動画データに基づいた動画を表示部330に表示させる(ステップD17)。また、制御部310は、ナビゲーション装置100cから受信した合成音声データに基づいた音声出力を行う(ステップD19)。このため、例えば、「右折して下さい」というテキストデータTDであった場合、このテキストデータTDをキャラクタが読み上げる音声が出力されると共に、右手を右側に上げるキャラクタの動画表示される。
【0125】
以上、第4実施形態によれば、携帯端末300cを音声合成部5cに接続した場合、携帯端末300cにおいて記憶しているキャラクタ音声ファイル210に基づいて音声が携帯端末300c側から音声出力すると共に、キャラクタ動画データ380に基づいた動画を表示する。このため、様々なキャラクタの音声や動画でのナビゲーションをユーザに提供することができ、音声案内システムSbの付加価値を高めることができる。
【0126】
尚、第3及び第4実施形態において適用した本発明の携帯端末装置は、携帯電話機やPDA(Personal Digital Assistant)、携帯型ゲーム機、ノートパソコン等に適宜適用可能である。
【0127】
また、上述した実施形態において、ナビゲーション装置とキャラクタ人形、ナビゲーション装置と携帯端末を有線のI/F部を介して有線接続することとしたが、アンテナ、送信回路及び受信回路等を備えて無線通信を行うこととしてもよい。この場合の無線通信方式は、例えば、赤外線やBluetooth(登録商標)等の通信方式を適宜採用して、ナビゲーション装置を中心として所定範内(例えば、半径1m内)にキャラクタ人形及び携帯端末が入ったことを無線通信により検出して、その検出後にキャラクタ音声ファイルのデータ通信を行う。
【0128】
また、キャラクタ人形側、携帯端末側でキャラクタ音声ファイルをHDD等の不揮発性メモリに記憶することとしたが、次のようにしてもよい。無線ICタグ(RFID(Radio Frequency ID))をキャラクタ人形及び携帯端末に設け、キャラクタ音声ファイルを記憶しておく。また、ナビゲーション装置に、ICリーダを設けて駆動電力である電磁波(電力波)を送信する。無線ICタグが、ICリーダから電磁波を受信し、電磁誘導によって駆動電力を生成することで、当該無線ICタグに記憶したキャラクタ音声ファイルのナビゲーション装置との間のデータ通信が可能となる。このように、キャラクタ人形及び携帯端末と、ナビゲーション装置との間の通信接続に無線通信を採用することで、ユーザは、わざわざケーブルをナビゲーション装置に接続する煩雑な操作を行わなくてもよくなる。
【0129】
また、キャラクタ人形及び携帯端末に所謂キーレスエントリ機能を設けることとしてもよい。即ち、車輌のドアロックの開閉を行うロック開閉機構と無線通信(電波や赤外線)するキーレスエントリモジュールをキャラクタ人形及び携帯端末に設ける。そして、キーレスエントリモジュールとロック開閉機構との距離が所定の距離(例えば、5m)未満である場合に、ロック開閉機構を制御してドアロックを解錠するように暗号化通信を行う。これにより、ユーザがキャラクタ人形や携帯端末を持ち運ぶことで、車輌のドアロックを開閉することができる。
【0130】
また、本実施形態において音声案内装置をナビゲーション装置に適用することとしたが、例えば、目的地までの道順を音声案内する携帯端末装置、各種電化製品の操作方法の説明・アドバイスを音声により行う操作補助装置等に適用することとしてもよい。
【図面の簡単な説明】
【0131】
【図1】第1実施形態における音声案内システムの概略構成の一例を示す図。
【図2】第1実施形態における音声合成部及びキャラクタ人形の機能構成の一例を示すブロック図。
【図3】第1実施形態における音声案内システムの動作を説明するためのフローチャート。
【図4】第2実施形態における音声合成部及びキャラクタ人形の機能構成の一例を示すブロック図。
【図5】駆動制御データのデータ構成の一例を示す図。
【図6】第2実施形態における音声案内システムの動作を説明するためのフローチャート。
【図7】第3実施形態における音声案内システムの概略構成の一例を示す図。
【図8】第3実施形態における音声合成部及び携帯端末装置の機能構成の一例を示すブロック図。
【図9】第3実施形態における音声案内システムの動作を説明するためのフローチャート。
【図10】第4実施形態における音声合成部及び携帯端末装置の機能構成の一例を示すブロック図。
【図11】第4実施形態における音声案内システムの動作を説明するためのフローチャート。
【符号の説明】
【0132】
S 音声案内システム
100 ナビゲーション装置
1 制御部
2 入力部
3 表示部
4 ナビゲーション部
8 音声出力部
5 音声合成部
50 デフォルト音声ファイル
52 素片辞書データ
54 音片辞書データ
56 言語処理部
58 音片編集部
60 音片検索部
62 音響処理部
64 素片検索部
66 I/F部
200 キャラクタ人形
210 キャラクタ音声ファイル
220 素片辞書データ
240 音片辞書データ
250 駆動制御データ
260 I/F部
270 駆動部
280 音声出力部
300 携帯端末装置
310 制御部
320 入力部
330 表示部
340 通信部
350 カメラ部
360 記憶部
370 キャラクタファイル
380 キャラクタ動画データ
392 音声出力部

【特許請求の範囲】
【請求項1】
第1の通信手段を備えるキャラクタ人形と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムにおいて、
前記キャラクタ人形は、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段を備え、
前記音声案内装置は、
前記第2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、
を備えることを特徴とする音声案内システム。
【請求項2】
第1の通信手段を備えるキャラクタ人形と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムにおいて、
前記キャラクタ人形は、
当該キャラクタ人形のキャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記音声案内装置からの指示に基づいて音声出力する音声出力手段と、
を備え、
前記音声案内装置は、
前記第2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、
を備えることを特徴とする音声案内システム。
【請求項3】
前記キャラクタ人形は、
当該キャラクタ人形を駆動する駆動手段と、
前記駆動手段の駆動を制御する駆動データを記憶する駆動データ記憶手段と、
を更に備え、
前記音声案内装置は、
音声案内に応じた駆動データを前記駆動データ記憶手段から読み出す駆動データ読み出し手段と、
前記駆動データ読み出し手段により読み出された駆動データに基づいた駆動制御を前記駆動手段に指示する駆動指示手段と、
を更に備えることを特徴とする請求項1又は2に記載の音声案内システム。
【請求項4】
第1の通信手段を備える携帯端末装置と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムであって、
前記携帯端末装置は、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段を備え、
前記音声案内装置は、
前記第2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、
を備えることを特徴とする音声案内システム。
【請求項5】
第1の通信手段を備える携帯端末装置と、前記第1の通信手段と接続可能な第2の通信手段を備える音声案内装置とを具備する音声案内システムであって、
前記携帯端末装置は、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記音声案内装置からの指示に基づいて音声出力する音声出力手段と、
を備え、
前記音声案内装置は、
前記第2の通信手段が前記第1の通信手段に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、
を備えることを特徴とする音声案内システム。
【請求項6】
前記携帯端末装置は、
表示手段と、
キャラクタ画像を表示するための画像データを記憶する画像データ記憶手段と、
を更に備え、
前記音声案内装置は、
音声案内に応じた画像データを前記画像データ記憶手段から読み出す画像データ読み出し手段と、
前記画像データ読み出し手段により読み出された画像データに基づいたキャラクタ画像の表示を前記表示手段に指示する表示指示手段と、
を更に備えることを特徴とする請求項4又は5に記載の音声案内システム。
【請求項7】
前記携帯端末装置は、
公衆回線網上のサーバから前記キャラクタの音声データをダウンロードするダウンロード手段と、
前記ダウンロード手段によりダウンロードされた音声データを前記音声データ記憶手段に記憶更新させる記憶更新手段と、
を更に備えることを特徴とする請求項4〜6の何れか一項に記載の音声案内システム。
【請求項8】
車輌に搭載される車載用の音声案内システムであって、
前記車輌のナビゲーションを行うナビゲーション手段を更に備え、
前記音声データ記憶手段は、前記ナビゲーション手段によるナビゲーションの音声データを記憶することを特徴とする請求項1〜7の何れか一項に記載の音声案内システム。
【請求項9】
音声案内装置に通信手段を介して接続可能なキャラクタ人形であって、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記通信手段が前記音声案内装置に接続された際に、前記音声データ記憶手段から前記音声案内装置によって読み出された音声データに基づいた音声出力の指示を受信する受信手段と、
前記受信手段により受信された指示に基づいて音声出力を行う音声出力手段と、
を備えることを特徴とするキャラクタ人形。
【請求項10】
音声案内するキャラクタの音声データを記憶するキャラクタ人形に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定手段と、
前記判定手段により接続されたと判定された場合に、前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、
を備えることを特徴とする音声案内装置。
【請求項11】
音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えたキャラクタ人形に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、
を備えることを特徴とする音声案内装置。
【請求項12】
音声案内装置に通信手段を介して接続可能な携帯端末装置であって、
キャラクタが音声案内する音声データを記憶する音声データ記憶手段と、
前記通信手段に前記音声案内装置が接続された際に、前記音声データ記憶手段から前記音声案内装置によって読み出された音声データに基づいた音声出力の指示を受信する受信手段と、
前記受信手段により受信された指示に基づいて音声出力を行う音声出力手段と、
を備えることを特徴とする携帯端末装置。
【請求項13】
音声案内するキャラクタの音声データを記憶する携帯端末装置に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記携帯端末装置に接続されたか否かを判定する判定手段と、
前記判定手段により接続されたと判定された場合に、前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記読み出し手段により読み出された音声データに基づいた音声出力を行う音声出力手段と、
を備えることを特徴とする音声案内装置。
【請求項14】
音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えた携帯端末装置に通信手段を介して接続可能な音声案内装置であって、
前記通信手段が前記携帯端末装置と接続されたか否かを判定する判定手段と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し手段と、
前記判定手段により接続されたと判定された場合に、
前記読み出し手段により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示手段と、
を備えることを特徴とする音声案内装置。
【請求項15】
音声案内装置に通信手段を介して接続可能なコンピュータに、
キャラクタが音声案内する音声データを記憶する音声データ記憶機能と、
前記通信手段が前記音声案内装置に接続された際に、前記音声案内装置によって読み出された前記音声データに基づいた音声出力の指示を受信する受信機能と、
前記受信機能により受信された指示に基づいて音声出力を行う音声出力機能と、
を実現させるためのプログラム。
【請求項16】
音声案内するキャラクタの音声データを記憶するキャラクタ人形に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定機能と、
前記判定機能により接続されたと判定された場合に、前記音声データ記憶機能に記憶された音声データを読み出す読み出し機能と、
前記読み出し機能により読み出された音声データに基づいた音声出力を行う音声出力機能と、
を実現させるためのプログラム。
【請求項17】
音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えたキャラクタ人形に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記キャラクタ人形に接続されたか否かを判定する判定機能と、
前記音声データ記憶手段に記憶された音声データを読み出す読み出し機能と、
前記判定機能により接続されたと判定された場合に、前記読み出し機能により読み出された音声データに基づいた音声出力を前記音声出力手段に指示する指示機能と、
を実現させるためのプログラム。
【請求項18】
音声案内装置に通信手段を介して接続可能なコンピュータに、
キャラクタが音声案内する音声データを記憶する音声データ記憶機能と、
前記通信手段が前記音声案内装置に接続された際に、前記音声案内装置によって読み出された前記音声データに基づいた音声出力の指示を受信する受信機能と、
前記受信機能により受信された指示に基づいて音声出力を行う音声出力機能と、
を実現させるためのプログラム。
【請求項19】
音声案内するキャラクタの音声データを記憶する携帯端末装置に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記携帯端末装置に接続されたか否かを判定する判定機能と、
前記判定機能により接続されたと判定された場合に、前記音声データ記憶機能に記憶された音声データを読み出す読み出し機能と、
前記読み出し機能により読み出された音声データに基づいた音声出力を行う音声出力機能と、
を実現させるためのプログラム。
【請求項20】
音声案内するキャラクタの音声データを記憶する音声データ記憶手段及び音声出力手段を備えた携帯端末装置に通信手段を介して接続可能なコンピュータに、
前記通信手段が前記携帯端末装置に接続されたか否かを判定する判定機能と、
前記音声データ記憶機能に記憶された音声データを読み出す読み出し機能と、
前記判定機能により接続されたと判定された場合に、前記読み出し機能により読み出された音声データに基づいた音声出力を前記音声出力機能に指示する指示機能と、
を実現させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate


【公開番号】特開2006−330442(P2006−330442A)
【公開日】平成18年12月7日(2006.12.7)
【国際特許分類】
【出願番号】特願2005−155176(P2005−155176)
【出願日】平成17年5月27日(2005.5.27)
【出願人】(000003595)株式会社ケンウッド (1,981)
【Fターム(参考)】