車両用対話システム
【課題】 ユーザの感性や好みなどのキャラクタを反映した適切な対話制御が行われる車両用対話システムの提供。
【解決手段】 検出手段は、車両の乗員を検出する。判定手段は、検出された乗員の発話に基づいて該乗員の嗜好を判定する。決定手段は、判定手段により判定された乗員の嗜好に基づいて、対話内容を決定する。制御手段は、決定手段により決定された対話内容に基づき、乗員との対話を制御する。
【解決手段】 検出手段は、車両の乗員を検出する。判定手段は、検出された乗員の発話に基づいて該乗員の嗜好を判定する。決定手段は、判定手段により判定された乗員の嗜好に基づいて、対話内容を決定する。制御手段は、決定手段により決定された対話内容に基づき、乗員との対話を制御する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両におけるカーナビゲーションなどをタスクとする、インタラクティブな対話システムに関する。
【背景技術】
【0002】
近年、人間と機械が対話することでタスクを達成する対話システムの利用が進んでいる。特に音声による対話システムは、自動車のドライバーのように手が離せない者に対するカーナビゲーションなどのタスクへの応用が期待されている。
【0003】
【特許文献1】特開2006−195637号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
対話システムにおいては、タスクを効率的に達成するための対話戦略の選択あるいは対話制御が重要である。とりわけ、カーナビゲーションのように、ユーザによって、あるいは、時や場所によって、目的がさまざまに変化するアプリケーションでは、適切な対話戦略の選択あるいは対話制御は非常に難しい。画一的な対話戦略では、あるユーザには満足度は高くても別のユーザには満足度は低いものとなることも多い。
【0005】
したがって、ユーザの感性や好みなどのキャラクタを反映した適切な対話制御が行われる対話システムが必要とされている。
【課題を解決するための手段】
【0006】
本発明の一側面によれば、車両の乗員を検出する検出手段と、前記検出手段により検出された乗員の発話に基づいて該乗員の嗜好を判定する判定手段と、前記判定手段により判定された前記乗員の嗜好に基づいて、対話内容を決定する決定手段と、前記決定手段により決定された前記対話内容に基づき前記乗員との対話を制御する制御手段とを備えることを特徴とする車両用対話システムが提供される。
【0007】
この構成によれば、乗員の嗜好を反映した対話処理を実現することができる。
【0008】
本発明の好適な実施形態によれば、前記乗員の発話を認識する音声認識手段と、前記音声認識手段が認識した音声をテキストに変換し、該テキストを構成する形態素間の文法上の係り受け関係を解析する係り受け解析手段とを更に有し、前記判定手段は、前記係り受け解析手段が解析した前記係り受け関係に基づいて前記乗員の嗜好を判定することが好ましい。
【0009】
この構成によれば、乗員の嗜好を高精度に判定することができる。
【0010】
本発明の好適な実施形態によれば、前記乗員の顔画像を認識する顔画像認識手段を更に備え、前記判定手段は、前記顔画像認識手段が認識した前記乗員の顔画像に基づいて前記乗員の嗜好を判定することが好ましい。
【0011】
この構成によれば、乗員の嗜好を高精度に判定することができる。
【0012】
本発明の好適な実施形態によれば、前記判定手段で判定された上記乗員の嗜好に関する語彙を蓄積する嗜好データベースと、ネットワークを介して収集した話題データを蓄積する話題データベースとを更に有し、前記決定手段は、前記判定手段の判定結果に応じた語彙を前記嗜好データベースから抽出し、該抽出した語彙に関連する話題を前記話題データベースから抽出することで前記対話内容を決定することが好ましい。
【0013】
この構成によれば、乗員に対して豊富な話題を提供することができる。
【0014】
本発明の好適な実施形態によれば、前記嗜好データベースの自己組織化マップを生成し、該自己組織化マップに基づいて乗員の発話コンテンツクラスタを形成する形成手段を更に備え、前記決定手段は、前記発話コンテンツクラスタに基づき対話内容を決定することが好ましい。
【0015】
この構成によれば、乗員に対して豊富な話題を提供することができる。
【0016】
本発明の好適な実施形態によれば、前記嗜好データベース及び前記話題データベースは、ネットワークを介して外部機器から転送されるデータを蓄積するように構成されていることが好ましい。
【0017】
この構成によれば、乗員に対して豊富な話題を提供することができる。
【0018】
本発明の好適な実施形態によれば、対話内容を優先度に応じて階層的に分類して格納した階層型対話コンテンツデータベースを更に有することが好ましい。また、前記決定手段は、前記判定手段が判定した前記乗員の嗜好に基づいて前記優先度を決定することが好ましい。
【0019】
この構成によれば、乗員の要望に合った対話を提供することができる。
【0020】
本発明の好適な実施形態によれば、前記話題データベース及び前記嗜好データベースはそれぞれ、ナビゲーションシステムが提供する目的施設に関連付けられていることが好ましい。
【0021】
この構成によれば、ナビゲーションシステムを介して、乗員の嗜好、話題に適合した目的施設を選定することができる。
【0022】
さらには、前記話題データベースは、前記ナビゲーションシステムが提供する路側施設に関連付けられており、前記決定手段は、前記話題データベース及び前記嗜好データベースに基づいて、前記車両の位置に応じた路側施設に関する対話内容を決定することが好ましい。
【0023】
この構成によれば、自車周辺の施設情報の対話を行うことができる。
【発明の効果】
【0024】
本発明によれば、ユーザの感性や好みなどのキャラクタを反映した適切な対話制御が行われる対話システムが提供される。
【発明を実施するための最良の形態】
【0025】
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決手段として必須のものであるとは限らない。
【0026】
図1は、本実施形態における車両用対話システムの構成を示すブロック図である。
【0027】
車両用対話システムは基本的に、車両にサービスを提供するサービスセンタ100と、車両に搭載され、ネットワーク10を介してサービスセンタ100と通信を行う車載ユニット200とで構成される。
【0028】
サービスセンタ100は、サーバ101、ユーザ判定データベース(DB)102、嗜好判定用DB103、ユーザ嗜好DB104、話題DB105、階層型対話コンテンツDB106を含む。本実施形態では図示の如く、これらはネットワーク10を介して相互に通信可能に接続されているが、各DBはサーバ101と直接接続される形態やサーバ101に内蔵される形態でもよい。また、図示するように、携帯電話20、パーソナルコンピュータ(PC)21、家庭用ロボット22なども、ネットワーク10に接続することが可能となっている。
【0029】
車載ユニット200において、201は乗員(ユーザ)の音声を収集する車室内マイクロホン201、202は車室内マイクロホン201から入力される乗員(ユーザ)の音声を検出する音声検出部202である。203は、ユーザの顔を含む画像を撮影する車室内カメラ203、204は車室内カメラ203により撮影された画像からユーザの顔画像を検出する画像検出部である。205は音声検出部202で検出された音声及び画像検出部204で検出された顔画像の分析を行うマルチモーダル情報処理部である。
【0030】
206は、マルチモーダル情報処理部205での分析結果及びユーザ判定DB102を用いてユーザの判定を行うユーザ判定部である。207は嗜好判定用DB103を用いてユーザの嗜好判定処理を行いユーザ嗜好DB104の更新を行うユーザ嗜好判定部、208はユーザ嗜好判定部207で判定されたユーザの嗜好を分類するユーザ嗜好データ分類部である。
【0031】
209は、ユーザ嗜好DB104に基づいてユーザの発話の対象ワードについて要求度を判定する要求度判定部である。210は、要求度判定部209の判定結果に基づいてユーザに対する対話プランを生成する対話プランニング部である。211は、GPSを利用するナビゲーション装置212で特定される車両の現在位置及び地図データ213に基づいて割り込みによる音声出力を行うかどうかを判定する発話割り込み判定部である。
【0032】
214は、対話プランニング部210及び発話割り込み判定部211の処理結果に従い対話出力を制御する対話出力制御部である。音声合成部215は、対話出力制御部214からの制御指令に従い音声合成を行いスピーカ216を通じて合成音声を出力する。また、画像表示部217は、対話出力制御部214からの制御指令に従いディスプレイ218に画像を表示させる。
【0033】
図2は、本実施形態における車両用対話システムの処理内容を示すフローチャートである。
【0034】
まず、サービスセンタ100におけるサーバ101により行われる処理を説明する。
【0035】
ステップS1において、ユーザデータ保存処理が行われる。ここでは、声紋分析に用いられる音声の周波数パターンのデータ及び、顔画像認識に用いられる顔画像の特徴量を、ユーザデータとして、携帯電話20、PC21、家庭用ロボット22などを通じて、ユーザ別に収集し、ユーザ判定DB102に登録する。
【0036】
次に、ステップS2において、嗜好判定用データ登録処理が行われる。ここでは、嗜好を判定するための感情を表す語彙を、携帯電話20、PC21、家庭用ロボット22などを通じて、嗜好判定用DB103に登録する。本実施形態では、図6に示すように、嗜好判定用DB103には、嗜好を判定するための感情を表す語彙が、「ポジティブ」と「ネガティブ」に分類されて登録されるものとする。
【0037】
次に、ステップS3において、話題データ分類処理が行われる。この話題データ分類処理の詳細を、図3のフローチャートに示す。
【0038】
まず、ユーザ嗜好DB104から、「ポジティブ」に分類されている対象ワードを全て読み出す(ステップS31)。「ポジティブ」に分類されている対象ワード(ポジティブワード)がある場合(ステップS32,YES)は、各対象ワードに関連する情報を、例えば公知の検索エンジンを用いてインターネットから抽出し(ステップS33)、抽出された情報の全文を、その対象ワード及び予め定められた大分類に関連付けて話題DB105に記憶する(ステップS34)。
【0039】
その後、全てのポジティブワードについて処理を行ったかどうかを判定し(ステップS35)、否であれば別のポジティブワードについてステップS33,S34の処理を繰り返す。こうして全てのポジティブワードについて処理を終えるとステップS36に進む。また、ステップS32でポジティブワードがなかった場合もそのままステップS36に進む。
【0040】
ステップS36では、ユーザ嗜好DB104にノーリアクションワードがあるかどうかを判定する。「ノーリアクション」ワードとは、「ポジティブ」にも「ネガティブ」にも分類されていないワードをいう。ノーリアクションワードがユーザ嗜好DB104に含まれていない場合は、そのままこの話題データ分類処理を抜ける。一方、ノーリアクションワードがユーザ嗜好DB104に含まれている場合には、各ノーリアクションワードに関連する情報を、例えば公知の検索エンジンを用いてインターネットから抽出し(ステップS37)、抽出された情報の要約文を、そのノーリアクションワード及び上記大分類に関連付けて話題DB105に記憶する(ステップS38)。
【0041】
その後、全てのノーリアクションワードについて処理を行ったかどうかを判定し(ステップS39)、否であれば別のノーリアクションワードについて上記のステップS37,S38の処理を繰り返す。こうして全てのノーリアクションワードについて処理を終えると、この話題データ分類処理を抜ける。
【0042】
このステップS3の話題データ分類処理で生成された話題DB105の一例を図4に示す。各話題は、「スポーツ」、「施設」、「食事」といった大分類に分類されている。なお、そして、「サッカー」がポジティブワードである場合には、サッカー関連の情報が全文で登録されている。一方、「野球」がノーリアクションワードである場合には、野球関連の情報が要約で登録されている。
【0043】
次に、説明を図2のフローチャートに戻して、車載ユニット200により行われる処理を説明する。
【0044】
まず、音声検出部202が、車室内マイクロホン201に入力されたユーザの発話を検出する(ステップS4)とともに、画像検出部204が、車室内カメラ203で撮像された画像からユーザの顔画像を検出する(ステップS5)。その後、マルチモーダル情報処理部205が、ステップS4で検出された音声から、声紋分析に用いられる音声の周波数パターンのデータを算出するとともに、ステップS5で検出された顔画像データから、顔画像認識に用いられる顔画像の特徴量を算出する(ステップS6)。そして、ユーザ判定部206が、ステップS5で算出された音声の周波数パターンのデータ及び顔画像の特徴量を、ユーザ判定DB102に記憶されているデータと比較照合することでユーザを判定する(ステップS7)。すなわち、ステップS6及びS7では音声認識及び顔画像認識を行っている。
【0045】
次に、ユーザ嗜好判定部207が、ステップS7で判定されたユーザの嗜好判定処理を行う(ステップS8)。ユーザ嗜好判定処理の一例に係るフローチャートを、図5に示す。
【0046】
まず、音声認識によって得られたユーザ発話のテキストに対し形態素解析を行い、その結果から嗜好判定用DB103に登録されているワードをキーワード(対象ワード)として抽出する(ステップS81)。次に、係り受け解析を行って、抽出されたキーワードとその評価表現語との組である係り受け組を抽出する(ステップS82)。なお、上記の形態素解析及び係り受け解析は自然言語処理の分野で公知の技術を利用すればよい。
【0047】
次に、ステップS82で得られた評価表現語が嗜好判定用DB103において何に分類されているのかを判定する(ステップS83〜S88)。ここでは、後の処理のために、評価表現語が「ポジティブ」の場合はその対象ワードに要求度ポイント(評価値)として2が与えられる。他方、評価表現語が「ノーリアクション」の場合はその対象ワードに要求度ポイントとして1が与えられ、「ネガティブ」の場合はその対象ワードに要求度ポイントとして0が与えられる。
【0048】
そして、対象ワードと上記判定結果を、ユーザ嗜好DB104に登録する(ステップS89)。例えば、図6に示すように、ユーザの発話が「昨夜、食事をしながら、野球の試合を見たけど、サッカーが面白い」であった場合、ユーザ嗜好DB104には、対象ワードとその評価表現語との組である係り受け組として抽出される、
「食事」→「する」、
「野球」→「見た」、
「サッカー」→「面白い」
が、その評価値(ポジティブ、ネガティブ、ノーリアクション)と共に登録される。具体的には、この場合の評価値として、対象ワード「食事」及び「野球」には1が、「サッカー」には2が与えられる。
【0049】
このとき、図6に示すように、各係り受け組の属性情報として、対象ワードが発話された際の会話の中で使用される関連語も併せて登録するとよい。
【0050】
図7及び図8は、ユーザ嗜好判定処理の別の例を示す図である。
【0051】
この別の例では、嗜好判定用DB103には、嗜好を判定するための感情を表す語彙ではなく、図8に示すように、嗜好を判定するための感情を表す顔の表情のデータが登録される。
【0052】
まず、音声認識によって得られたユーザ発話のテキストに対し形態素解析を行い、その結果から嗜好判定用DB103に登録されているワードをキーワード(対象ワード)として抽出する(ステップS811)。次に、その発話時におけるユーザの顔の表情を検出する(ステップS812)。
【0053】
そして、ステップS812で得られた表情が、嗜好判定用DB103において何に分類されているのかを判定する(ステップS813〜S818)。ここでは、上記の例と同様に、後の処理のために、その評価表現語が「ポジティブ」の場合は要求度ポイントとして2が与えられる。他方、その評価表現語が「ノーリアクション」の場合は要求度ポイントとして1が、「ネガティブ」の場合は要求度ポイントとして0が与えられる。
【0054】
そして、対象ワードと上記判定結果を、ユーザ嗜好DB104に登録する(ステップS819)。
【0055】
以上が、ステップS8におけるユーザ嗜好判定処理の例である。
【0056】
次に、ユーザ嗜好データ分類部208がユーザ嗜好データ分類処理を行う(ステップS9)。このユーザ嗜好データ分類処理では、例えば、図9に示すように、ユーザ嗜好DBに追加されるワード対象抽出が行われ(ステップS91)、自己組織化マップ学習用データに変換される(ステップS92)。ステップS92で得られた自己組織化マップ学習用データを用いて、後述する自己組織化マップ学習によるワード分類処理を行い(ステップS93)、さらに、大分類&中分類クラスの抽出処理が行われる(ステップS94)。
【0057】
図10、図11に、ステップS93の自己組織化マップ学習によるワード分類処理の内容を示す。
【0058】
まず、対象ワードの属性情報の関連度を入力ベクトルXjとする(ステップS931)。次に、入力ベクトルXjと最も良く一致する参照ベクトルmc(t)を持つ勝利ノードcを、式1に従って探索する(ステップS932)。
【0059】
【0060】
この勝利ノードcとその近傍ノードiを式2に従って更新する。これをすべての入力信号x1,…,xmに対して行う。学習(更新回数)を進めるに従い、学習の範囲と大きさを減らし、収束させる。
【0061】
【0062】
この式は、1層のニューラルネットワークを意味している。学習(更新回数)を進めるに従い、近傍サイズσと学習率係数αの値を減らしていくが、その代表的なものを式3、式4、式5に示す。
【0063】
【0064】
そして、対象ワードが、この勝利ノードcの分類に属すると判定する(ステップS933)。
【0065】
図12の(a)に、ステップS93の自己組織化マップによるワード分類処理結果を、近傍ノードを六角(Hexagon)に設定した場合の例で示す。この例によれば、スポーツ、食事、情報、エンターテインメントの4つの大分類と、スポーツの大分類下にサッカー日本代表、サッカーJリーグ、野球メジャーリーグ、野球国内リーグの4つの中分類に処理されていることがわかる。
【0066】
次に、この学習後の自己組織化マップに未知データxpが入力された場合について説明する。入力データに対する学習が終了すると、各ノードの出力状態(参照ベクトル)mi(T)は一定となる。すなわち、各ノードの特性は参照ベクトルmi(T)で表現される。この学習後の自己組織化マップに未知データxpが入力された場合は、式6に従い、自己組織化マップ上の未知データが属するノードqが算出される。
【0067】
【0068】
例えば、図12の(b)に示すように、「走る」ワードに関する未知データが入力されれば、関連する大分類・中分類クラスが関連度の度合いで判定されることとなる。さらに、ユーザ嗜好の特徴においても、この学習後の自己組織化マップ上で、判定可能である。例えば、図12の(c)に示すように、Aさんは、スポーツに対してポジティブ、エンターテインメントに対してネガティブであり、Bさんは観光に対してポジティブ、スポーツに対してネガティブなユーザ嗜好の特徴の判定結果を示している。
【0069】
次にステップS94における大分類&中分類抽出処理を図13に示す。まず、大分類&中分類クラスの抽出を行い(ステップS941)、大分類&中分類クラスをユーザ嗜好DBに追加する(ステップS942)。その例を図14に示す。
【0070】
次に、要求度判定部209が要求度判定処理を行う(ステップS10)。この要求度判定処理のフローチャートを、図15に示す。
【0071】
はじめに、ユーザの発話の対象ワードについて、ステップS8のユーザ嗜好判定処理の結果を抽出する(ステップS101)。図6に示した例の場合、ユーザの発話が「昨夜、食事をしながら、野球の試合を見たけど、サッカーが面白い」に対して、評価値として、対象ワード「食事」及び「野球」には1が、「サッカー」には2が与えられており、これらが抽出される。
【0072】
次に、そのユーザ発話の対象ワードの大分類ごとの要求度ポイントの合計値を算出する(ステップS102)。具体的には、上記の例において、大分類「スポーツ」は、「野球」1+「サッカー」2=3、大分類「食事」は1、大分類「施設」は0となる。
【0073】
そして、ステップS102で求められた要求度ポイントに応じて、大分類の要求優先度を算出する。上記の例の場合、要求優先度は高い順に「スポーツ」、「食事」、「施設」となる。
【0074】
次に、対話プランニング部210が対話プランニング処理を行う。図16に、この対話プランニング処理の一例を示す。
【0075】
はじめに、最上位の要求優先度の大分類を選択し(ステップS111)、選択された大分類に対応するユーザ嗜好DB104の語彙を抽出する(ステップS112)。
【0076】
ステップS112で抽出された語彙にポジティブワードが含まれるかどうかを判定し(ステップS113)、ポジティブワードが含まれる場合には、そのポジティブワードに関係付けられる話題DB105に蓄積された話題の全文を抽出する(ステップS114)。一方、ステップS112で抽出された語彙にポジティブワードが含まれない場合は、ステップS112で抽出された語彙にノーリアクションワードが含まれるか否かを判定し(ステップS115)、ノーリアクションワードが含まれる場合にはそのノーリアクションワードに関係付けられる話題DB105に蓄積された話題の要約を抽出する(ステップS116)。
【0077】
ステップS114又はステップS116で抽出された話題の全文又は要約は、階層型対話コンテンツDB106に格納される(ステップS117)。
【0078】
そして、全ての大分類の処理が終了したかを判断し(ステップS118)、まだ全ての大分類の処理が終了していなければ、次に高い優先度の大分類を選択して(ステップS119)、ステップS112に戻って処理を繰り返す。
【0079】
このようにして作成された階層型対話コンテンツDB106の一例を図17に示す。
【0080】
次に、発話割り込み判定部211が、発話割り込み判定処理を行う。この発話割り込み判定処理の内容を、図18に示す。
【0081】
まず、ナビゲーション装置212から供給されるデータに基づいて車両の走行位置を検出する(ステップS121)。次いで、地図データ213を用いて、ステップS121で検出された車両の走行位置から所定距離内の路側施設を抽出する(ステップS122)。次に、ステップS122で抽出された路側施設から更に、ユーザ嗜好DB104にポジティブ又はノーリアクションとして登録されている路側施設を抽出する(ステップS123)。
【0082】
そして、ステップS123で抽出された路側施設がある場合には(ステップS124,YES)、対話出力制御部214を通じて、その路側施設の情報を、ユーザの興味ある情報として、割り込みにより音声又は画像にて出力する(ステップS125)。
【0083】
一方、ステップS123で抽出された路側施設がなければ(ステップS124,NO)、対話出力制御部214を通じて、階層型対話コンテンツDB106により、優先度に基づく音声又は画像の出力を行う(ステップS126)。具体的には、ここでは、優先度が最上位のポジティブワードについては全文による情報提示がされ、ノーリアクションワードについては要約による情報提示がされることになる。
【図面の簡単な説明】
【0084】
【図1】実施形態における車両用対話システムの構成を示すブロック図である。
【図2】実施形態における車両用対話システムの処理内容を示すフローチャートである。
【図3】実施形態におけるサービスセンタのサーバによる話題データ分類処理を示すフローチャートである。
【図4】実施形態における話題DBの一例を模式的に示す図である。
【図5】実施形態におけるユーザ嗜好判定処理の一例を示すフローチャートである。
【図6】実施形態におけるユーザ嗜好判定処理の一例を説明する図である。
【図7】実施形態におけるユーザ嗜好判定処理の別の例を示すフローチャートである。
【図8】実施形態におけるユーザ嗜好判定処理の別の例を説明する図である。
【図9】実施形態におけるユーザ嗜好判定処理の一例を示すフローチャートである。
【図10】実施形態における自己組織化マップによるワード分類処理の一例を示すフローチャートである。
【図11】実施形態における自己組織化マップによるワード分類処理の一例を説明する図である。
【図12】実施形態における自己組織化マップによるワード分類処理結果の一例を説明する図である。
【図13】実施形態における大分類&中分類クラスの抽出処理の一例を示すフローチャートである。
【図14】実施形態における自己組織化マップによるワード分類処理後のユーザ嗜好DBの一例を説明する図である。
【図15】実施形態における要求度判定処理の一例を示すフローチャートである。
【図16】実施形態における対話プランニング処理の一例を示すフローチャートである。
【図17】実施形態における階層型対話コンテンツDBの一例を示す図である。
【図18】実施形態における発話割り込み判定処理の一例を示すフローチャートである。
【符号の説明】
【0085】
10:ネットワーク
20:携帯電話
21:パーソナルコンピュータ
22:家庭用ロボット
100:サービスセンタ
101:サーバ
102:ユーザ判定DB
103:嗜好判定用DB
104:ユーザ嗜好DB
105:話題DB
106:階層型対話コンテンツDB
200:車載ユニット
201:車室内マイクロホン
202:音声検出部
203:車室内カメラ
204:画像検出部
205:マルチモーダル情報処理部
206:ユーザ判定部
207:ユーザ嗜好判定部
208:ユーザ嗜好データ分類部
209:要求度判定部
210:対話プランニング部
211:発話割り込み判定部
212:ナビゲーション装置
213:地図データ
214:対話出力制御部
215:音声合成部
216:スピーカ
217:画像表示部
218:ディスプレイ
【技術分野】
【0001】
本発明は、車両におけるカーナビゲーションなどをタスクとする、インタラクティブな対話システムに関する。
【背景技術】
【0002】
近年、人間と機械が対話することでタスクを達成する対話システムの利用が進んでいる。特に音声による対話システムは、自動車のドライバーのように手が離せない者に対するカーナビゲーションなどのタスクへの応用が期待されている。
【0003】
【特許文献1】特開2006−195637号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
対話システムにおいては、タスクを効率的に達成するための対話戦略の選択あるいは対話制御が重要である。とりわけ、カーナビゲーションのように、ユーザによって、あるいは、時や場所によって、目的がさまざまに変化するアプリケーションでは、適切な対話戦略の選択あるいは対話制御は非常に難しい。画一的な対話戦略では、あるユーザには満足度は高くても別のユーザには満足度は低いものとなることも多い。
【0005】
したがって、ユーザの感性や好みなどのキャラクタを反映した適切な対話制御が行われる対話システムが必要とされている。
【課題を解決するための手段】
【0006】
本発明の一側面によれば、車両の乗員を検出する検出手段と、前記検出手段により検出された乗員の発話に基づいて該乗員の嗜好を判定する判定手段と、前記判定手段により判定された前記乗員の嗜好に基づいて、対話内容を決定する決定手段と、前記決定手段により決定された前記対話内容に基づき前記乗員との対話を制御する制御手段とを備えることを特徴とする車両用対話システムが提供される。
【0007】
この構成によれば、乗員の嗜好を反映した対話処理を実現することができる。
【0008】
本発明の好適な実施形態によれば、前記乗員の発話を認識する音声認識手段と、前記音声認識手段が認識した音声をテキストに変換し、該テキストを構成する形態素間の文法上の係り受け関係を解析する係り受け解析手段とを更に有し、前記判定手段は、前記係り受け解析手段が解析した前記係り受け関係に基づいて前記乗員の嗜好を判定することが好ましい。
【0009】
この構成によれば、乗員の嗜好を高精度に判定することができる。
【0010】
本発明の好適な実施形態によれば、前記乗員の顔画像を認識する顔画像認識手段を更に備え、前記判定手段は、前記顔画像認識手段が認識した前記乗員の顔画像に基づいて前記乗員の嗜好を判定することが好ましい。
【0011】
この構成によれば、乗員の嗜好を高精度に判定することができる。
【0012】
本発明の好適な実施形態によれば、前記判定手段で判定された上記乗員の嗜好に関する語彙を蓄積する嗜好データベースと、ネットワークを介して収集した話題データを蓄積する話題データベースとを更に有し、前記決定手段は、前記判定手段の判定結果に応じた語彙を前記嗜好データベースから抽出し、該抽出した語彙に関連する話題を前記話題データベースから抽出することで前記対話内容を決定することが好ましい。
【0013】
この構成によれば、乗員に対して豊富な話題を提供することができる。
【0014】
本発明の好適な実施形態によれば、前記嗜好データベースの自己組織化マップを生成し、該自己組織化マップに基づいて乗員の発話コンテンツクラスタを形成する形成手段を更に備え、前記決定手段は、前記発話コンテンツクラスタに基づき対話内容を決定することが好ましい。
【0015】
この構成によれば、乗員に対して豊富な話題を提供することができる。
【0016】
本発明の好適な実施形態によれば、前記嗜好データベース及び前記話題データベースは、ネットワークを介して外部機器から転送されるデータを蓄積するように構成されていることが好ましい。
【0017】
この構成によれば、乗員に対して豊富な話題を提供することができる。
【0018】
本発明の好適な実施形態によれば、対話内容を優先度に応じて階層的に分類して格納した階層型対話コンテンツデータベースを更に有することが好ましい。また、前記決定手段は、前記判定手段が判定した前記乗員の嗜好に基づいて前記優先度を決定することが好ましい。
【0019】
この構成によれば、乗員の要望に合った対話を提供することができる。
【0020】
本発明の好適な実施形態によれば、前記話題データベース及び前記嗜好データベースはそれぞれ、ナビゲーションシステムが提供する目的施設に関連付けられていることが好ましい。
【0021】
この構成によれば、ナビゲーションシステムを介して、乗員の嗜好、話題に適合した目的施設を選定することができる。
【0022】
さらには、前記話題データベースは、前記ナビゲーションシステムが提供する路側施設に関連付けられており、前記決定手段は、前記話題データベース及び前記嗜好データベースに基づいて、前記車両の位置に応じた路側施設に関する対話内容を決定することが好ましい。
【0023】
この構成によれば、自車周辺の施設情報の対話を行うことができる。
【発明の効果】
【0024】
本発明によれば、ユーザの感性や好みなどのキャラクタを反映した適切な対話制御が行われる対話システムが提供される。
【発明を実施するための最良の形態】
【0025】
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決手段として必須のものであるとは限らない。
【0026】
図1は、本実施形態における車両用対話システムの構成を示すブロック図である。
【0027】
車両用対話システムは基本的に、車両にサービスを提供するサービスセンタ100と、車両に搭載され、ネットワーク10を介してサービスセンタ100と通信を行う車載ユニット200とで構成される。
【0028】
サービスセンタ100は、サーバ101、ユーザ判定データベース(DB)102、嗜好判定用DB103、ユーザ嗜好DB104、話題DB105、階層型対話コンテンツDB106を含む。本実施形態では図示の如く、これらはネットワーク10を介して相互に通信可能に接続されているが、各DBはサーバ101と直接接続される形態やサーバ101に内蔵される形態でもよい。また、図示するように、携帯電話20、パーソナルコンピュータ(PC)21、家庭用ロボット22なども、ネットワーク10に接続することが可能となっている。
【0029】
車載ユニット200において、201は乗員(ユーザ)の音声を収集する車室内マイクロホン201、202は車室内マイクロホン201から入力される乗員(ユーザ)の音声を検出する音声検出部202である。203は、ユーザの顔を含む画像を撮影する車室内カメラ203、204は車室内カメラ203により撮影された画像からユーザの顔画像を検出する画像検出部である。205は音声検出部202で検出された音声及び画像検出部204で検出された顔画像の分析を行うマルチモーダル情報処理部である。
【0030】
206は、マルチモーダル情報処理部205での分析結果及びユーザ判定DB102を用いてユーザの判定を行うユーザ判定部である。207は嗜好判定用DB103を用いてユーザの嗜好判定処理を行いユーザ嗜好DB104の更新を行うユーザ嗜好判定部、208はユーザ嗜好判定部207で判定されたユーザの嗜好を分類するユーザ嗜好データ分類部である。
【0031】
209は、ユーザ嗜好DB104に基づいてユーザの発話の対象ワードについて要求度を判定する要求度判定部である。210は、要求度判定部209の判定結果に基づいてユーザに対する対話プランを生成する対話プランニング部である。211は、GPSを利用するナビゲーション装置212で特定される車両の現在位置及び地図データ213に基づいて割り込みによる音声出力を行うかどうかを判定する発話割り込み判定部である。
【0032】
214は、対話プランニング部210及び発話割り込み判定部211の処理結果に従い対話出力を制御する対話出力制御部である。音声合成部215は、対話出力制御部214からの制御指令に従い音声合成を行いスピーカ216を通じて合成音声を出力する。また、画像表示部217は、対話出力制御部214からの制御指令に従いディスプレイ218に画像を表示させる。
【0033】
図2は、本実施形態における車両用対話システムの処理内容を示すフローチャートである。
【0034】
まず、サービスセンタ100におけるサーバ101により行われる処理を説明する。
【0035】
ステップS1において、ユーザデータ保存処理が行われる。ここでは、声紋分析に用いられる音声の周波数パターンのデータ及び、顔画像認識に用いられる顔画像の特徴量を、ユーザデータとして、携帯電話20、PC21、家庭用ロボット22などを通じて、ユーザ別に収集し、ユーザ判定DB102に登録する。
【0036】
次に、ステップS2において、嗜好判定用データ登録処理が行われる。ここでは、嗜好を判定するための感情を表す語彙を、携帯電話20、PC21、家庭用ロボット22などを通じて、嗜好判定用DB103に登録する。本実施形態では、図6に示すように、嗜好判定用DB103には、嗜好を判定するための感情を表す語彙が、「ポジティブ」と「ネガティブ」に分類されて登録されるものとする。
【0037】
次に、ステップS3において、話題データ分類処理が行われる。この話題データ分類処理の詳細を、図3のフローチャートに示す。
【0038】
まず、ユーザ嗜好DB104から、「ポジティブ」に分類されている対象ワードを全て読み出す(ステップS31)。「ポジティブ」に分類されている対象ワード(ポジティブワード)がある場合(ステップS32,YES)は、各対象ワードに関連する情報を、例えば公知の検索エンジンを用いてインターネットから抽出し(ステップS33)、抽出された情報の全文を、その対象ワード及び予め定められた大分類に関連付けて話題DB105に記憶する(ステップS34)。
【0039】
その後、全てのポジティブワードについて処理を行ったかどうかを判定し(ステップS35)、否であれば別のポジティブワードについてステップS33,S34の処理を繰り返す。こうして全てのポジティブワードについて処理を終えるとステップS36に進む。また、ステップS32でポジティブワードがなかった場合もそのままステップS36に進む。
【0040】
ステップS36では、ユーザ嗜好DB104にノーリアクションワードがあるかどうかを判定する。「ノーリアクション」ワードとは、「ポジティブ」にも「ネガティブ」にも分類されていないワードをいう。ノーリアクションワードがユーザ嗜好DB104に含まれていない場合は、そのままこの話題データ分類処理を抜ける。一方、ノーリアクションワードがユーザ嗜好DB104に含まれている場合には、各ノーリアクションワードに関連する情報を、例えば公知の検索エンジンを用いてインターネットから抽出し(ステップS37)、抽出された情報の要約文を、そのノーリアクションワード及び上記大分類に関連付けて話題DB105に記憶する(ステップS38)。
【0041】
その後、全てのノーリアクションワードについて処理を行ったかどうかを判定し(ステップS39)、否であれば別のノーリアクションワードについて上記のステップS37,S38の処理を繰り返す。こうして全てのノーリアクションワードについて処理を終えると、この話題データ分類処理を抜ける。
【0042】
このステップS3の話題データ分類処理で生成された話題DB105の一例を図4に示す。各話題は、「スポーツ」、「施設」、「食事」といった大分類に分類されている。なお、そして、「サッカー」がポジティブワードである場合には、サッカー関連の情報が全文で登録されている。一方、「野球」がノーリアクションワードである場合には、野球関連の情報が要約で登録されている。
【0043】
次に、説明を図2のフローチャートに戻して、車載ユニット200により行われる処理を説明する。
【0044】
まず、音声検出部202が、車室内マイクロホン201に入力されたユーザの発話を検出する(ステップS4)とともに、画像検出部204が、車室内カメラ203で撮像された画像からユーザの顔画像を検出する(ステップS5)。その後、マルチモーダル情報処理部205が、ステップS4で検出された音声から、声紋分析に用いられる音声の周波数パターンのデータを算出するとともに、ステップS5で検出された顔画像データから、顔画像認識に用いられる顔画像の特徴量を算出する(ステップS6)。そして、ユーザ判定部206が、ステップS5で算出された音声の周波数パターンのデータ及び顔画像の特徴量を、ユーザ判定DB102に記憶されているデータと比較照合することでユーザを判定する(ステップS7)。すなわち、ステップS6及びS7では音声認識及び顔画像認識を行っている。
【0045】
次に、ユーザ嗜好判定部207が、ステップS7で判定されたユーザの嗜好判定処理を行う(ステップS8)。ユーザ嗜好判定処理の一例に係るフローチャートを、図5に示す。
【0046】
まず、音声認識によって得られたユーザ発話のテキストに対し形態素解析を行い、その結果から嗜好判定用DB103に登録されているワードをキーワード(対象ワード)として抽出する(ステップS81)。次に、係り受け解析を行って、抽出されたキーワードとその評価表現語との組である係り受け組を抽出する(ステップS82)。なお、上記の形態素解析及び係り受け解析は自然言語処理の分野で公知の技術を利用すればよい。
【0047】
次に、ステップS82で得られた評価表現語が嗜好判定用DB103において何に分類されているのかを判定する(ステップS83〜S88)。ここでは、後の処理のために、評価表現語が「ポジティブ」の場合はその対象ワードに要求度ポイント(評価値)として2が与えられる。他方、評価表現語が「ノーリアクション」の場合はその対象ワードに要求度ポイントとして1が与えられ、「ネガティブ」の場合はその対象ワードに要求度ポイントとして0が与えられる。
【0048】
そして、対象ワードと上記判定結果を、ユーザ嗜好DB104に登録する(ステップS89)。例えば、図6に示すように、ユーザの発話が「昨夜、食事をしながら、野球の試合を見たけど、サッカーが面白い」であった場合、ユーザ嗜好DB104には、対象ワードとその評価表現語との組である係り受け組として抽出される、
「食事」→「する」、
「野球」→「見た」、
「サッカー」→「面白い」
が、その評価値(ポジティブ、ネガティブ、ノーリアクション)と共に登録される。具体的には、この場合の評価値として、対象ワード「食事」及び「野球」には1が、「サッカー」には2が与えられる。
【0049】
このとき、図6に示すように、各係り受け組の属性情報として、対象ワードが発話された際の会話の中で使用される関連語も併せて登録するとよい。
【0050】
図7及び図8は、ユーザ嗜好判定処理の別の例を示す図である。
【0051】
この別の例では、嗜好判定用DB103には、嗜好を判定するための感情を表す語彙ではなく、図8に示すように、嗜好を判定するための感情を表す顔の表情のデータが登録される。
【0052】
まず、音声認識によって得られたユーザ発話のテキストに対し形態素解析を行い、その結果から嗜好判定用DB103に登録されているワードをキーワード(対象ワード)として抽出する(ステップS811)。次に、その発話時におけるユーザの顔の表情を検出する(ステップS812)。
【0053】
そして、ステップS812で得られた表情が、嗜好判定用DB103において何に分類されているのかを判定する(ステップS813〜S818)。ここでは、上記の例と同様に、後の処理のために、その評価表現語が「ポジティブ」の場合は要求度ポイントとして2が与えられる。他方、その評価表現語が「ノーリアクション」の場合は要求度ポイントとして1が、「ネガティブ」の場合は要求度ポイントとして0が与えられる。
【0054】
そして、対象ワードと上記判定結果を、ユーザ嗜好DB104に登録する(ステップS819)。
【0055】
以上が、ステップS8におけるユーザ嗜好判定処理の例である。
【0056】
次に、ユーザ嗜好データ分類部208がユーザ嗜好データ分類処理を行う(ステップS9)。このユーザ嗜好データ分類処理では、例えば、図9に示すように、ユーザ嗜好DBに追加されるワード対象抽出が行われ(ステップS91)、自己組織化マップ学習用データに変換される(ステップS92)。ステップS92で得られた自己組織化マップ学習用データを用いて、後述する自己組織化マップ学習によるワード分類処理を行い(ステップS93)、さらに、大分類&中分類クラスの抽出処理が行われる(ステップS94)。
【0057】
図10、図11に、ステップS93の自己組織化マップ学習によるワード分類処理の内容を示す。
【0058】
まず、対象ワードの属性情報の関連度を入力ベクトルXjとする(ステップS931)。次に、入力ベクトルXjと最も良く一致する参照ベクトルmc(t)を持つ勝利ノードcを、式1に従って探索する(ステップS932)。
【0059】
【0060】
この勝利ノードcとその近傍ノードiを式2に従って更新する。これをすべての入力信号x1,…,xmに対して行う。学習(更新回数)を進めるに従い、学習の範囲と大きさを減らし、収束させる。
【0061】
【0062】
この式は、1層のニューラルネットワークを意味している。学習(更新回数)を進めるに従い、近傍サイズσと学習率係数αの値を減らしていくが、その代表的なものを式3、式4、式5に示す。
【0063】
【0064】
そして、対象ワードが、この勝利ノードcの分類に属すると判定する(ステップS933)。
【0065】
図12の(a)に、ステップS93の自己組織化マップによるワード分類処理結果を、近傍ノードを六角(Hexagon)に設定した場合の例で示す。この例によれば、スポーツ、食事、情報、エンターテインメントの4つの大分類と、スポーツの大分類下にサッカー日本代表、サッカーJリーグ、野球メジャーリーグ、野球国内リーグの4つの中分類に処理されていることがわかる。
【0066】
次に、この学習後の自己組織化マップに未知データxpが入力された場合について説明する。入力データに対する学習が終了すると、各ノードの出力状態(参照ベクトル)mi(T)は一定となる。すなわち、各ノードの特性は参照ベクトルmi(T)で表現される。この学習後の自己組織化マップに未知データxpが入力された場合は、式6に従い、自己組織化マップ上の未知データが属するノードqが算出される。
【0067】
【0068】
例えば、図12の(b)に示すように、「走る」ワードに関する未知データが入力されれば、関連する大分類・中分類クラスが関連度の度合いで判定されることとなる。さらに、ユーザ嗜好の特徴においても、この学習後の自己組織化マップ上で、判定可能である。例えば、図12の(c)に示すように、Aさんは、スポーツに対してポジティブ、エンターテインメントに対してネガティブであり、Bさんは観光に対してポジティブ、スポーツに対してネガティブなユーザ嗜好の特徴の判定結果を示している。
【0069】
次にステップS94における大分類&中分類抽出処理を図13に示す。まず、大分類&中分類クラスの抽出を行い(ステップS941)、大分類&中分類クラスをユーザ嗜好DBに追加する(ステップS942)。その例を図14に示す。
【0070】
次に、要求度判定部209が要求度判定処理を行う(ステップS10)。この要求度判定処理のフローチャートを、図15に示す。
【0071】
はじめに、ユーザの発話の対象ワードについて、ステップS8のユーザ嗜好判定処理の結果を抽出する(ステップS101)。図6に示した例の場合、ユーザの発話が「昨夜、食事をしながら、野球の試合を見たけど、サッカーが面白い」に対して、評価値として、対象ワード「食事」及び「野球」には1が、「サッカー」には2が与えられており、これらが抽出される。
【0072】
次に、そのユーザ発話の対象ワードの大分類ごとの要求度ポイントの合計値を算出する(ステップS102)。具体的には、上記の例において、大分類「スポーツ」は、「野球」1+「サッカー」2=3、大分類「食事」は1、大分類「施設」は0となる。
【0073】
そして、ステップS102で求められた要求度ポイントに応じて、大分類の要求優先度を算出する。上記の例の場合、要求優先度は高い順に「スポーツ」、「食事」、「施設」となる。
【0074】
次に、対話プランニング部210が対話プランニング処理を行う。図16に、この対話プランニング処理の一例を示す。
【0075】
はじめに、最上位の要求優先度の大分類を選択し(ステップS111)、選択された大分類に対応するユーザ嗜好DB104の語彙を抽出する(ステップS112)。
【0076】
ステップS112で抽出された語彙にポジティブワードが含まれるかどうかを判定し(ステップS113)、ポジティブワードが含まれる場合には、そのポジティブワードに関係付けられる話題DB105に蓄積された話題の全文を抽出する(ステップS114)。一方、ステップS112で抽出された語彙にポジティブワードが含まれない場合は、ステップS112で抽出された語彙にノーリアクションワードが含まれるか否かを判定し(ステップS115)、ノーリアクションワードが含まれる場合にはそのノーリアクションワードに関係付けられる話題DB105に蓄積された話題の要約を抽出する(ステップS116)。
【0077】
ステップS114又はステップS116で抽出された話題の全文又は要約は、階層型対話コンテンツDB106に格納される(ステップS117)。
【0078】
そして、全ての大分類の処理が終了したかを判断し(ステップS118)、まだ全ての大分類の処理が終了していなければ、次に高い優先度の大分類を選択して(ステップS119)、ステップS112に戻って処理を繰り返す。
【0079】
このようにして作成された階層型対話コンテンツDB106の一例を図17に示す。
【0080】
次に、発話割り込み判定部211が、発話割り込み判定処理を行う。この発話割り込み判定処理の内容を、図18に示す。
【0081】
まず、ナビゲーション装置212から供給されるデータに基づいて車両の走行位置を検出する(ステップS121)。次いで、地図データ213を用いて、ステップS121で検出された車両の走行位置から所定距離内の路側施設を抽出する(ステップS122)。次に、ステップS122で抽出された路側施設から更に、ユーザ嗜好DB104にポジティブ又はノーリアクションとして登録されている路側施設を抽出する(ステップS123)。
【0082】
そして、ステップS123で抽出された路側施設がある場合には(ステップS124,YES)、対話出力制御部214を通じて、その路側施設の情報を、ユーザの興味ある情報として、割り込みにより音声又は画像にて出力する(ステップS125)。
【0083】
一方、ステップS123で抽出された路側施設がなければ(ステップS124,NO)、対話出力制御部214を通じて、階層型対話コンテンツDB106により、優先度に基づく音声又は画像の出力を行う(ステップS126)。具体的には、ここでは、優先度が最上位のポジティブワードについては全文による情報提示がされ、ノーリアクションワードについては要約による情報提示がされることになる。
【図面の簡単な説明】
【0084】
【図1】実施形態における車両用対話システムの構成を示すブロック図である。
【図2】実施形態における車両用対話システムの処理内容を示すフローチャートである。
【図3】実施形態におけるサービスセンタのサーバによる話題データ分類処理を示すフローチャートである。
【図4】実施形態における話題DBの一例を模式的に示す図である。
【図5】実施形態におけるユーザ嗜好判定処理の一例を示すフローチャートである。
【図6】実施形態におけるユーザ嗜好判定処理の一例を説明する図である。
【図7】実施形態におけるユーザ嗜好判定処理の別の例を示すフローチャートである。
【図8】実施形態におけるユーザ嗜好判定処理の別の例を説明する図である。
【図9】実施形態におけるユーザ嗜好判定処理の一例を示すフローチャートである。
【図10】実施形態における自己組織化マップによるワード分類処理の一例を示すフローチャートである。
【図11】実施形態における自己組織化マップによるワード分類処理の一例を説明する図である。
【図12】実施形態における自己組織化マップによるワード分類処理結果の一例を説明する図である。
【図13】実施形態における大分類&中分類クラスの抽出処理の一例を示すフローチャートである。
【図14】実施形態における自己組織化マップによるワード分類処理後のユーザ嗜好DBの一例を説明する図である。
【図15】実施形態における要求度判定処理の一例を示すフローチャートである。
【図16】実施形態における対話プランニング処理の一例を示すフローチャートである。
【図17】実施形態における階層型対話コンテンツDBの一例を示す図である。
【図18】実施形態における発話割り込み判定処理の一例を示すフローチャートである。
【符号の説明】
【0085】
10:ネットワーク
20:携帯電話
21:パーソナルコンピュータ
22:家庭用ロボット
100:サービスセンタ
101:サーバ
102:ユーザ判定DB
103:嗜好判定用DB
104:ユーザ嗜好DB
105:話題DB
106:階層型対話コンテンツDB
200:車載ユニット
201:車室内マイクロホン
202:音声検出部
203:車室内カメラ
204:画像検出部
205:マルチモーダル情報処理部
206:ユーザ判定部
207:ユーザ嗜好判定部
208:ユーザ嗜好データ分類部
209:要求度判定部
210:対話プランニング部
211:発話割り込み判定部
212:ナビゲーション装置
213:地図データ
214:対話出力制御部
215:音声合成部
216:スピーカ
217:画像表示部
218:ディスプレイ
【特許請求の範囲】
【請求項1】
車両の乗員を検出する検出手段と、
前記検出手段により検出された乗員の発話に基づいて該乗員の嗜好を判定する判定手段と、
前記判定手段により判定された前記乗員の嗜好に基づいて、対話内容を決定する決定手段と、
前記決定手段により決定された前記対話内容に基づき前記乗員との対話を制御する制御手段と、
を備えることを特徴とする車両用対話システム。
【請求項2】
前記乗員の発話を認識する音声認識手段と、
前記音声認識手段が認識した音声をテキストに変換し、該テキストを構成する形態素間の文法上の係り受け関係を解析する係り受け解析手段と、
を更に有し、
前記判定手段は、前記係り受け解析手段が解析した前記係り受け関係に基づいて前記乗員の嗜好を判定することを特徴とする請求項1に記載の車両用対話システム。
【請求項3】
前記乗員の顔画像を認識する顔画像認識手段を更に備え、
前記判定手段は、前記顔画像認識手段が認識した前記乗員の顔画像に基づいて前記乗員の嗜好を判定することを特徴とする請求項1に記載の車両用対話システム。
【請求項4】
前記判定手段で判定された上記乗員の嗜好に関する語彙を蓄積する嗜好データベースと、
ネットワークを介して収集した話題データを蓄積する話題データベースと、
を更に有し、
前記決定手段は、前記判定手段の判定結果に応じた語彙を前記嗜好データベースから抽出し、該抽出した語彙に関連する話題を前記話題データベースから抽出することで前記対話内容を決定することを特徴とする請求項1から3までのいずれか1項に記載の車両用対話システム。
【請求項5】
前記嗜好データベースの自己組織化マップを生成し、該自己組織化マップに基づいて乗員の発話コンテンツクラスタを形成する形成手段を更に備え、
前記決定手段は、前記発話コンテンツクラスタに基づき対話内容を決定することを特徴とする請求項4に記載の車両用対話システム。
【請求項6】
前記嗜好データベース及び前記話題データベースは、ネットワークを介して外部機器から転送されるデータを蓄積するように構成されていることを特徴とする請求項4に記載の車両用対話システム。
【請求項7】
対話内容を優先度に応じて階層的に分類して格納した階層型対話コンテンツデータベースを更に有することを特徴とする請求項1に記載の車両用対話システム。
【請求項8】
前記決定手段は、前記判定手段が判定した前記乗員の嗜好に基づいて前記優先度を決定することを特徴とする請求項7に記載の車両用対話システム。
【請求項9】
前記話題データベース及び前記嗜好データベースはそれぞれ、ナビゲーションシステムが提供する目的施設に関連付けられていることを特徴とする請求項4に記載の車両用対話システム。
【請求項10】
前記話題データベースは、前記ナビゲーションシステムが提供する路側施設に関連付けられており、
前記決定手段は、前記話題データベース及び前記嗜好データベースに基づいて、前記車両の位置に応じた路側施設に関する対話内容を決定することを特徴とする請求項9に記載の車両用対話システム。
【請求項1】
車両の乗員を検出する検出手段と、
前記検出手段により検出された乗員の発話に基づいて該乗員の嗜好を判定する判定手段と、
前記判定手段により判定された前記乗員の嗜好に基づいて、対話内容を決定する決定手段と、
前記決定手段により決定された前記対話内容に基づき前記乗員との対話を制御する制御手段と、
を備えることを特徴とする車両用対話システム。
【請求項2】
前記乗員の発話を認識する音声認識手段と、
前記音声認識手段が認識した音声をテキストに変換し、該テキストを構成する形態素間の文法上の係り受け関係を解析する係り受け解析手段と、
を更に有し、
前記判定手段は、前記係り受け解析手段が解析した前記係り受け関係に基づいて前記乗員の嗜好を判定することを特徴とする請求項1に記載の車両用対話システム。
【請求項3】
前記乗員の顔画像を認識する顔画像認識手段を更に備え、
前記判定手段は、前記顔画像認識手段が認識した前記乗員の顔画像に基づいて前記乗員の嗜好を判定することを特徴とする請求項1に記載の車両用対話システム。
【請求項4】
前記判定手段で判定された上記乗員の嗜好に関する語彙を蓄積する嗜好データベースと、
ネットワークを介して収集した話題データを蓄積する話題データベースと、
を更に有し、
前記決定手段は、前記判定手段の判定結果に応じた語彙を前記嗜好データベースから抽出し、該抽出した語彙に関連する話題を前記話題データベースから抽出することで前記対話内容を決定することを特徴とする請求項1から3までのいずれか1項に記載の車両用対話システム。
【請求項5】
前記嗜好データベースの自己組織化マップを生成し、該自己組織化マップに基づいて乗員の発話コンテンツクラスタを形成する形成手段を更に備え、
前記決定手段は、前記発話コンテンツクラスタに基づき対話内容を決定することを特徴とする請求項4に記載の車両用対話システム。
【請求項6】
前記嗜好データベース及び前記話題データベースは、ネットワークを介して外部機器から転送されるデータを蓄積するように構成されていることを特徴とする請求項4に記載の車両用対話システム。
【請求項7】
対話内容を優先度に応じて階層的に分類して格納した階層型対話コンテンツデータベースを更に有することを特徴とする請求項1に記載の車両用対話システム。
【請求項8】
前記決定手段は、前記判定手段が判定した前記乗員の嗜好に基づいて前記優先度を決定することを特徴とする請求項7に記載の車両用対話システム。
【請求項9】
前記話題データベース及び前記嗜好データベースはそれぞれ、ナビゲーションシステムが提供する目的施設に関連付けられていることを特徴とする請求項4に記載の車両用対話システム。
【請求項10】
前記話題データベースは、前記ナビゲーションシステムが提供する路側施設に関連付けられており、
前記決定手段は、前記話題データベース及び前記嗜好データベースに基づいて、前記車両の位置に応じた路側施設に関する対話内容を決定することを特徴とする請求項9に記載の車両用対話システム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図13】
【図15】
【図16】
【図17】
【図18】
【図11】
【図12】
【図14】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図13】
【図15】
【図16】
【図17】
【図18】
【図11】
【図12】
【図14】
【公開番号】特開2009−64186(P2009−64186A)
【公開日】平成21年3月26日(2009.3.26)
【国際特許分類】
【出願番号】特願2007−230602(P2007−230602)
【出願日】平成19年9月5日(2007.9.5)
【出願人】(000003137)マツダ株式会社 (6,115)
【Fターム(参考)】
【公開日】平成21年3月26日(2009.3.26)
【国際特許分類】
【出願日】平成19年9月5日(2007.9.5)
【出願人】(000003137)マツダ株式会社 (6,115)
【Fターム(参考)】
[ Back to top ]