説明

情報提供システムおよび情報提供装置

【課題】ユーザによる操作要求を低減し、ユーザが直感的に操作することができる情報提供システムおよび車載装置を提供する。
【解決手段】ユーザPの要求に応じたテキストデータを車載装置1によって取得する。情報解析サーバ3は、車載装置1から取得したテキストデータに基づいて、検索対象のソース種別を決定する。情報解析サーバ3は、決定したソース種別に関連するソースから情報を検索し、検索結果を車載装置1へ送信する。車載装置1は、情報解析サーバ3から受信した検索結果をユーザPへ提示する。

【発明の詳細な説明】
【技術分野】
【0001】
この発明は、ユーザの要求に応じた情報を提供する情報提供システムおよび情報提供装置に関する。
【背景技術】
【0002】
近年、インターネットの普及により各種のサーバ装置から様々な情報が提供されるようになってきている。そして、このように提供される情報量は増大の一途を辿っており、従来であればすぐに入手できなかった情報であっても、インターネットからすぐに取得することが可能となってきており、利便性が高い。
【0003】
そのため、様々な機器でインターネットから情報を取得することができるようになってきている。このことは、カーナビゲーション装置などの車載装置においても同様であり、インターネットに接続して、様々な情報を入手する車載装置が提案されている(例えば、特許文献1)。
【0004】
かかる車載装置では、運転中のドライバーが文字入力を行うことが困難であることから、音声認識機能を有しており、かかる機能によって、インターネットからの情報取得を可能としている。
【0005】
特に、かかる車載装置では、ユーザの会話からユーザの興味特定に使用するキーワードを抽出し、さらに、ユーザの精神状態を検出して、これらの情報に応じた情報をウェブサイトなどから検索し、収集する。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2009−294790号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、上記車載装置では、車内での乗員間の会話から乗員の嗜好を判断してウェブサイトなどのソースから情報を動的に検索して収集するものであり、乗員間の会話が必要となる。従って、車内の乗員の一人がインターネットから積極的に検索することができない。しかも、ユーザの精神状態を検知する必要があるため、構成や処理が複雑となる。
【0008】
一方、音声認識を用いて、音声をテキストデータへ変換して、かかるテキストデータを用いてインターネット上の情報を検索し、収集することも考えられるが、インターネット上に存在する情報は莫大な量であることから、所望の情報を入手することは容易ではない。
【0009】
すなわち、音声認識を用いて、音声をテキストデータへ変換したとしても、情報の絞り込みを行うために、ユーザは多くの言葉を口にする必要がある。しかし、ドライバーは運転操作に注意を向ける必要があり、情報の絞り込みのために多くの言葉を口にしたり、音声認識に基づく装置の動作に対して更に適切な操作を行なうと言ったことは困難である。また、近年では、車載に用いられる装置に限らず、直感的に情報を検索することのできる装置が求められている。
【0010】
本発明は、上述した従来技術の課題を解決するためになされたものであり、ユーザによる操作要求を低減し、ユーザが直感的に操作することができる情報提供システムおよび情報提供装置を提供することを目的とする。
【課題を解決するための手段】
【0011】
上述した課題を解決し、目的を達成するために、本発明は、ユーザの要求に応じた情報を提供する情報提供システムであって、情報を提供するソースとソース種別とを関連づけるソース情報を記憶する記憶部と、前記要求に応じたテキストデータを取得する取得部と、前記取得部によって取得されたテキストデータに基づいて、前記ソース種別を決定する決定部と、前記ソース情報に基づいて、前記決定部によって決定されたソース種別に関連づけられたソースを選択し、当該選択したソースから情報を検索する検索部と、前記検索部によって検索された情報を提示する情報提供部とを備えたことを特徴とする。
【発明の効果】
【0012】
本発明によれば、ユーザによる操作要求を低減し、ユーザが直感的に操作することが可能となる。
【図面の簡単な説明】
【0013】
【図1】図1は、本発明に係る一実施形態の情報提供手法の概要を示す図である。
【図2】図2は、本実施例に係る情報提供システムおよび車載装置の構成を示すブロック図である。
【図3】図3は、音声認識サーバの構成を示すブロック図である。
【図4】図4は、情報解析サーバの構成を示すブロック図である。
【図5】図5は、解析辞書データの一例を示す図である。
【図6】図6は、解析データの一例を示す図である。
【図7】図7は、選択画面の一例を示す図である。
【図8】図8は、コンテンツ再生画面の一例を示す図である。
【図9】図9は、車載装置が実行する処理手順の概要を示すフローチャートである。
【図10】図10は、音声認識サーバが実行する処理手順の概要を示すフローチャートである。
【図11】図11は、情報解析サーバが実行する処理手順の概要を示すフローチャートである。
【図12】図12は、本実施例に係る情報提供システムおよび携帯端末装置の構成を示すブロック図である。
【発明を実施するための形態】
【0014】
以下に添付図面を参照して、本発明に係る情報提供システムおよび情報提供装置の好適な実施例を詳細に説明する。なお、以下では、本発明に係る一実施形態の情報提供手法の概要について図1を用いて説明した後に、本発明に係る情報提供システムおよび情報提供装置についての実施例を図2〜図12を用いて説明することとする。ここで、本発明に係る情報提供装置として、車載装置を実施の形態の一例として記載するが、本願に記載された情報提供手法を適用できる情報提供装置は、車載装置に限定されず、情報を検索し、検索された情報を提供する機能を有する可搬型の携帯端末装置(PND、携帯電話、携帯型表示端末など)であってもよい。なお、情報提供装置はユーザ端末装置の一例である。
【0015】
まず、本実施形態に係る情報提供手法の概要について図1を用いて説明する。図1は、本実施形態に係る情報提供手法の概要を示す図である。
【0016】
本実施形態に係る情報提供手法は、ユーザの要求に応じたテキストデータに基づいて検索対象のソース種別を決定し、かかるソース種別に関するソースからテキストデータに応じた情報を検索して、情報をユーザへ提示するものである。
【0017】
なお、ソース種別とは、例えば、「見る」、「聴く」、「行く」などのように、ユーザが目的とする動作に基づいて設定される種別である。かかるソース種別は、1以上のソースと予め関連づけられている。
【0018】
また、ソースとは、例えば、情報を提供することができる装置などを意味する。例えば、インターネット上のソースとして、ウェブサーバやデータベースサーバなどの各種のサーバがある。なお、ここでは、一つのウェブサーバに一つのウェブサイトがあることを前提として説明するが、一つのウェブサーバに複数のウェブサイトがある場合には、それぞれのウェブサイトがソースとなる。
【0019】
ここでは、一例として、ユーザが「見る」という動作を目的とする場合のソース種別を「ソース種別A」とし、ユーザが「聴く」という動作を目的とする場合のソース種別を「ソース種別B」とし、ユーザが「行く」という動作を目的とする場合のソース種別を「ソース種別C」とする。
【0020】
また、ソース種別Aに関するソースは、動画情報を提供するソース(以下、「動画サイト」と記載する)であり、ソース種別Bに関するソースは、音楽情報を提供するウェブサイト(以下、「音楽サイト」と記載する)であり、ソース種別Cに関するウェブサイトは、地域情報を提供するウェブサイト(以下、「地域情報サイト」と記載する)であるものとする。
【0021】
ソース種別に関するソースは、予め辞書データにより設定される。具体的には、辞書データには、ソース種別Aと所定の動画サイトとを関連づける情報と、ソース種別Bと所定の音楽サイトとを関連づける情報と、ソース種別Cと所定の地域情報サイトとを関連づける情報とが含まれているものとする。なお、各ソース種別に関連づけられるソースは、一つであっても複数であってもよい。
【0022】
なお、動画サイトが提供する情報には各種の動画コンテンツが含まれ、音楽サイトが提供する情報には各種の音楽コンテンツが含まれ、地域情報サイトが提供する情報には各種の地域情報コンテンツが含まれる。また、これらのコンテンツは、アドレス指定により各サイトから取得することができる。
【0023】
図1の(A)に示されるように、ユーザPが「△△△」という言葉を発したとする。このとき、「△△△」という音声が車載装置1に入力される(図1の(1)参照)。なお、「△△△」は、検索のためのキーワードであり、例えば、歌手名や施設名などである。
【0024】
車載装置1は、入力された音声「△△△」をデジタル変換して音声データとし、音声認識サーバへ送信する(図1の(2)参照)。音声認識サーバ2は、車載装置1から受信した音声データの音声認識を行って、かかる音声データをテキストデータへ変換する(図1の(3)参照)。
【0025】
このように音声認識サーバ2によって変換されたテキストデータは、音声認識結果として車載装置1へ送信される(図1の(4)参照)。車載装置1は、音声認識サーバ2から音声認識結果であるテキストデータを受信すると、かかるテキストデータを情報解析サーバ3へ送信する(図1の(5)参照)。
【0026】
情報解析サーバ3は、車載装置1からテキストデータを受信すると、かかるテキストデータを解析する。車載装置1から送信されるテキストデータは、「△△△」を示すデータを含み、情報解析サーバ3は、解析辞書データを参照して、「△△△」を関連づけられたソース種別の情報を決定する。
【0027】
例えば、解析辞書データにおいて「△△△」がソース種別Aおよびソース種別Bと関連づけられている場合、情報解析サーバ3は、「△△△」を関連づけられたソース種別が、ソース種別Aおよびソース種別Bであると決定する。
【0028】
そして、情報解析サーバ3は、決定したソース種別に関するソースから「△△△」に関する情報を検索する(図1の(6)参照)。上述したように、情報解析サーバ3は、ソース種別とソースとを関連づけた情報を解析辞書データ内に含んでおり、かかる情報を参照して、ソース種別に関するソースを判定する。
【0029】
具体的には、ソース種別Aには所定の動画サイトが関連づけられており、情報解析サーバ3は、かかる動画サイトから「△△△」に関する情報を検索する。また、ソース種別Bには所定の音楽サイトが関連づけられており、情報解析サーバ3は、かかる音楽サイトから「△△△」に関する音楽コンテンツを検索する。
【0030】
このように、「△△△」に対応するソース種別には、予めソースが関連づけられているため、「△△△」の検索範囲を絞ることができ、検索処理の効率化を図ることができる。
【0031】
つづいて、情報解析サーバ3は、検索結果を車載装置1へ送信する(図1の(7)参照)。送信結果を受信した車載装置1は、かかる検索結果に複数のソース種別に関する情報が含まれているときには、ソース種別を選択させるための選択画面(要求画面の一例)をユーザPへ提示する。
【0032】
ここでは、ソース種別Aに関するソースの情報とソース種別Bに関するソースの情報とが含まれているため、図1の(B)に示されるように、ソース種別Aを選択するためのボタン4aと、ソース種別Bを選択するためのボタン4bとが選択画面に提示される。この場合、ソース種別Aを選択するためのボタン4aには「見る」というユーザの動作が表示されており、ソース種別Bを選択するためのボタン4bには「聴く」というユーザの動作が表示されている。これにより、ユーザは、何がしたくて情報の検索を行ったのかという動作の目的に基づいてソースの選択が判断できるため、直感的で分かりやすい操作が可能となる。
【0033】
なお、本実施例では、ボタンを操作させる選択画面としたが、ソース種別の選択を要求するものであればよく、これに限られない。例えば、音声入力によりソース種別の選択を可能としてもよい。この場合、ボタン4aに表示された「見る」又はボタン4bに表示された「聴く」という言葉を発声すれば、音声認識処理が実行され、ソース種別を選択できる。
【0034】
ユーザPが選択画面においていずれかのボタンを選択すると、選択したボタンに対応するソース種別に関する情報がユーザPへ提示される(図1の(8)参照)。例えば、選択画面においてソース種別Aが選択された場合、図1の(C)に示されるように、「△△△」に関する動画コンテンツ名のリストが提示される。
【0035】
そして、リスト表示された動画コンテンツ名から所望の動画コンテンツをユーザPが選択することにより、「△△△」に関する動画コンテンツが車載装置1によって再生される。なお、動画コンテンツ名をリスト表示して動画コンテンツを選択させるのではなく、「△△△」に関する複数の動画コンテンツを順次再生するようにしてもよい。
【0036】
また、情報解析サーバ3から受信した送信結果に一つのソース種別に関する情報のみが含まれているときには、ソース種別の選択要求は行われず、コンテンツをリスト表示する。この場合も同様に、リスト表示を行わずに、複数のコンテンツを連続してユーザに順次提示するようにしてもよい。
【0037】
また、再生するコンテンツは、情報解析サーバ3から取得することもでき(情報解析サーバ3が一旦当該情報を取得して記憶し、その記憶した情報を提供)、また、再生しようとするコンテンツを有するソースから情報解析サーバ3を介さずに直接取得するようすることもできる。車載装置1は、再生しようとするコンテンツを情報解析サーバ3やソースに要求し、情報解析サーバ3やソースから送信されるコンテンツを再生する。なお、情報解析サーバ3から送信される検索結果にコンテンツを含める(情報解析サーバ3が解析結果に基づき検索まで行い、さらにその検索結果に該当するコンテンツを取得し、検索結果と当該コンテンツを車載装置1に送信する)ようにしてもよい。
【0038】
このように、ユーザPは、キーワードとして「△△△」を発声して、「見る」、「聴く」のいずれかを選択することによって、「△△△」に関する所望の情報を取得することができる。したがって、文字入力や音声入力を繰り返して検索を行う場合に比べて、ユーザによる操作要求を低減し、ユーザが直感的に操作することができる。
【0039】
なお、解析辞書データとして、地域別の解析辞書データを用意しておき、車載装置1から送信される現在位置情報や目的地情報などに基づいて、キーワードとソース種別との関連づけ、ソース種別とソースとの関連づけなどを変更することもできる。このようにすることで、地域に応じた情報を得ることが可能となる。
【0040】
以下では、図1を用いて説明した情報提供手法を適用した情報提供システムおよび車載装置についての実施例を詳細に説明する。
【実施例】
【0041】
まず、本実施例に係る情報提供システムおよび情報提供装置の構成について図2を用いて説明する。図2は、本実施例に係る情報提供システムおよび車載装置(情報提供装置)の構成を示す図である。ここで、本発明に係る情報提供装置として、車載装置を実施の形態の一例として記載するが、本願に記載された情報提供手法を適用できる装置としては、車載装置に限定されず、情報を検索し、検索された情報を提供する機能を有する可搬型の携帯端末装置(PND、携帯電話、携帯型表示端末など)であってもよい。
【0042】
図2に示すように、情報提供システムSは、車載装置10と、携帯端末装置20と、音声認識サーバ30と、情報解析サーバ40とを含んでいる。そして、車載装置10は、携帯端末装置20を介して、音声認識サーバ30や情報解析サーバ40と通信可能に接続される。
【0043】
具体的には、車載装置10と携帯端末装置20とは無線通信によって通信可能となっており、音声認識サーバ30や情報解析サーバ40は、インターネット22に接続されている。そして、携帯端末装置20は、無線基地局21を介してインターネット22に接続される。
【0044】
本実施例に係る情報提供システムSは、このように構成されているため、車載装置10は、携帯端末装置20によって、音声認識サーバ30や情報解析サーバ40と通信可能であるが、各装置の接続形態はこれに限られない。
【0045】
例えば、車載装置10が基地局21を介して、音声認識サーバ30や情報解析サーバ40と通信する構成であってもよい。この場合、車載装置10には、基地局21と通信するための無線通信I/Fを設ける必要がある。また、音声認識サーバ30や情報解析サーバ40は、インターネット22ではなく電話通信網などの他のネットワークに接続されるようにしてもよい。
【0046】
また、ここでは、コンテンツなどの情報を提供するソースの一例として、ウェブサーバ501〜506がインターネット22に接続されていることとして説明するが、情報を提供することができるものであれよい。例えば、データベースサーバやファイル転送サーバなどのサーバであってもよい。なお、説明を分かり易くするため、ここでは、各ウェブサーバ501〜506は、一つのウェブサイトのみを有するものとする。
【0047】
まず、車載装置10の構成について説明する。車載装置10は、カーナビゲーション機能やカーオーディオ機能などの機能を有しているが、図2では、車載装置10の特徴を説明するために必要な構成要素を主に示しており、一般的な構成要素についての記載を省略している。
【0048】
図2に示すように、車載装置10は、近距離通信部11と、マイク12と、表示操作部13と、スピーカ14と、制御部15とを備えている。
【0049】
近距離通信部11は、ブルートゥース(Bluetooth:登録商標)などの近距離無線通信を用いて携帯端末装置20との通信リンクをそれぞれ確立するとともに、確立した各通信リンクを用いて車載装置10と携帯端末装置20との間の通信処理を行う。
【0050】
ここで、ブルートゥース(登録商標)とは、2.4GHzの周波数帯を用いて半径数10m程度の無線通信を行う近距離無線通信規格であり、近年では、携帯電話やパーソナルコンピュータなどの電子機器に広く適用されている。
【0051】
ここでは、ブルートゥース(登録商標)を用いて車載装置10/携帯端末装置20間の通信を行う場合について説明するが、Wi−Fi(ワイファイ:登録商標)、ZigBee(ジグビー:登録商標)といった他の無線通信規格を用いることとしてもよい。また、車載装置10と携帯端末装置20との間の通信を有線通信で行うこととしてもよい。
【0052】
マイク12は、車載装置10のユーザによって発せられた音声を入力する。また、表示操作部13は、文字情報や画像情報を表示する表示部と、音声入力の開始操作やリストの選択操作を受け付ける操作部とを備えている。
【0053】
たとえば、表示操作部13の表示部は、テキストデータや画像情報を表示するディスプレイを備えており、また、操作部は、音声入力の開始操作を行う「音声入力開始ボタン」やコンテンツやソース種別を選択する「選択ボタン」などを備えている。
【0054】
なお、表示操作部13に備えるディスプレイや各種操作を行う構成部品を限定する必要はない。したがって、指やポインティングデバイスなどの押圧感知により入力を受け付け、かつ表示出力も兼ねるタッチパネル式の液晶ディスプレイを用いることとしてもよい。
【0055】
スピーカ14は、音楽サイト、CD(Compact Disc)およびインターネットラジオ等の音楽コンテンツを再生するための音声出力機器である。ここでは、スピーカ14を車載装置10に備えるように構成したが、別体であるように構成してもよい。
【0056】
制御部15は、車載装置10の全体制御を行う制御部である。制御部15は、音声取得部15aと、テキスト取得部15bと、検索要求部15cと、情報取得部15dと、情報提供処理部15eとをさらに備えている。
【0057】
なお、図2には、制御部15の機能的な構成を示しているが、この制御部15は、物理的にはCPU(Central Processing Unit)とROM(Read Only Memory)とRAM(Random Access Memory)とを有する情報処理装置を備えている。
【0058】
そして、CPUがROMから各種プログラムを読出し、RAMを作業領域として使用して実行することにより、音声取得部15a、テキスト取得部15b、検索要求部15c、情報取得部15d、情報提供処理部15e等として機能する。
【0059】
音声取得部15aは、マイク12から出力されたユーザの音声を取得して、携帯端末装置20を介して音声認識サーバ30へ受け渡す処理を行う処理部である。
【0060】
具体的には、音声取得部15aは、例えば、ドライバーや同乗者によって「音声入力開始ボタン」が押下された場合に、スピーカ14から出力される音声を取得する。また、音声取得部15aは、スピーカ14から取得した音声の情報をデジタル化して、携帯端末装置20を介して音声認識サーバ30へ送信する。この音声取得部15aは、ユーザの音声を入力し音声信号を変換する音声入力部、および音声入力部からの音声信号を音声認識サーバ30へ送信する音声信号送信部として機能する。
【0061】
テキスト取得部15bは、音声認識サーバ30による音声認識結果を取得する。この音声認識結果は、音声取得部15aによって送信された音声データに対する音声認識結果であり、テキストデータにより音声認識サーバ30から送信される。このテキストデータには、後述するように、キーワードと信頼度の情報とが含まれる。このテキスト取得部15bは、音声認識サーバ30からの音声認識結果を受信する端末側音声認識結果受信部として機能する。
【0062】
検索要求部15cは、テキスト取得部15bによって取得されたテキストデータを、携帯端末装置20を介して情報解析サーバ40へ受け渡す処理を行う処理部である。この索要求部15cは、テキスト取得部15bによって取得した音声認識結果を情報解析サーバ40へ送信する端末側音声認識結果送信部として機能する。
【0063】
情報取得部15dは、情報解析サーバ40から送信される情報(解析結果情報)を、携帯端末装置20を介して取得する。情報解析サーバ40から送信される情報は、例えば、各種のコンテンツの名称やアドレス情報、およびソース種別の情報などである。
【0064】
情報提供処理部15eは、例えば、表示操作部13の操作部への操作などを契機として、情報取得部15dによって取得された情報を表示操作部13の表示部やスピーカ14から出力する。情報提供処理部15eは、表示操作部13やスピーカ14と共に情報提供部として機能する。また、情報提供処理部15eは、コンテンツの名称を表示操作部13の表示部に表示したり、コンテンツのアドレス情報に基づいてコンテンツを取得して再生したりする。
【0065】
また、情報提供処理部15eには、動画再生アプリ15f、音再生アプリ15gおよびブラウザアプリ15hなどのアプリケーションを含んでいる。動画再生アプリ15fは、動画コンテンツを再生して表示操作部13の表示部やスピーカ14から出力する。音再生アプリ15gは、音声コンテンツを再生してスピーカ14から出力する。また、ブラウザアプリ15hは、ウェブページなどのコンテンツを再生して表示操作部13の表示部から出力する。
【0066】
なお、ここでは、情報提供処理部15eは、動画再生アプリ15f、音再生アプリ15gおよびブラウザアプリ15hを含む例を示したが、情報提供処理部15eの構成はこれに限られるものではない。情報取得部15dによって取得されたコンテンツなどの情報を表示操作部13の表示部やスピーカ14から出力することができれば、情報提供処理部15eはどのような構成であってもよい。
【0067】
つづいて、音声認識サーバ30の構成について図3を参照して説明する。図3に示すように、音声認識サーバ30は、通信I/F31と、記憶部32と、制御部33とを備えている。また、記憶部32は、辞書情報32aを記憶する。
【0068】
通信I/F31は、インターネット22を介して、他の装置とデータの送受信を行うための通信デバイスで構成されている。たとえば、通信I/F31は、車載装置10からインターネット22を介して送信される音声データを取得する。また、通信I/F31は、車載装置10へインターネット22を介して音声認識結果を送信する。
【0069】
記憶部32は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部である。この記憶部32は、複数の音声認識用辞書データを含む情報を辞書情報32aとして記憶する。
【0070】
制御部33は、音声認識サーバ30の全体制御を行う制御部である。制御部33は、音声データ取得部33aと、音声認識処理部33bと、音声認識結果送信部33cとをさらに備えている。
【0071】
なお、図3には、制御部33の機能的な構成を示しているが、この制御部33は、物理的にはCPU(Central Processing Unit)とROM(Read Only Memory)とRAM(Random Access Memory)とを有する情報処理装置を備えている。
【0072】
そして、CPUがROMから各種プログラムを読出し、RAMを作業領域として使用して実行することにより、音声データ取得部33a、音声認識処理部33b、音声認識結果送信部33c等として機能する。
【0073】
音声データ取得部33aは、車載装置10から音声データ(音声信号の一例)を受信したならば、受信した音声データを音声認識処理部33bへ送信する。
【0074】
音声認識処理部33bは、音声データ取得部33aから受信した音声データに対して音声認識処理を行う。上述したように記憶部32には、複数の音声認識用辞書データが記憶されており、音声認識処理部33bは、辞書データ毎に音声認識処理を行う。
【0075】
具体的には、音声認識処理部33bは、音声データ取得部33aから受信した音声データに対して、音声データに含まれるキーワードを抽出する処理を辞書データ毎に行い、抽出したキーワードとその信頼度とを辞書データ毎に出力する。
【0076】
例えば、第1音声認識用辞書データと第2音声認識用辞書データとがあるとし、車載装置10のユーザが「レストラン」という発話をしたときの音声データに対して音声認識処理を行うとする。この場合、第1音声認識用辞書データでは、例えば、「レストラン(信頼度90%)」という音声認識結果となり、第2音声認識用辞書データでは、例えば、「レストライン(信頼度60%)」という音声認識結果となる。
【0077】
音声認識結果送信部33cは、音声認識処理部33bによる音声認識が終了すると、辞書データ毎の音声認識結果をテキストデータとして車載装置10へ送信する。
【0078】
このように、音声認識サーバ30では、車載装置10から送信された音声データからソース種別を決定するためのキーワードを抽出して車載装置10へ送信する。なお、キーワードを抽出するのではなく、音声データを単にテキストデータへ変換した結果を音声認識結果として車載装置10へ出力するようにしてもよい。この場合、車載装置10又は情報解析サーバ40によってキーワードの抽出を行うことになる。
【0079】
つづいて、情報解析サーバ40の構成について図4を参照して説明する。図4に示すように、情報解析サーバ40は、通信I/F41と、記憶部42と、制御部43とを備えている。また、記憶部42は、第1辞書データ42aおよび第2辞書データ42bなどのソース情報を記憶する。
【0080】
通信I/F41は、インターネット22を介して、他の装置とデータの送受信を行うための通信デバイスで構成されている。たとえば、通信I/F41は、車載装置10からインターネット22を介して送信されるテキストデータを取得する。また、通信I/F41は、車載装置10へインターネット22を介して検索結果を送信する。
【0081】
記憶部42は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部である。第1辞書データ42aは、キーワードとソース種別とを関連付けるデータである。この第1辞書データ42aは、キーワード毎にキーワードをソース種別に関連づけるデータであるが、これに限定されるものではなく、例えば、ソース種別毎にソース種別をキーワードに関連づけるデータであってもよい。
【0082】
図5の(A)には、第1辞書データ42aの一例が示されている。同図に示す例では、「△△△」というキーワードに対して、ソース種別Aとソース種別Bが関連づけられ、「○○○」というキーワードに対してソース種別Aとソース種別Cが関連づけられている。
【0083】
例えば、ソース種別Aは、ユーザが「見る」という動作を目的とする場合のソース種別であり、ソース種別Bは、ユーザが「聴く」という動作を目的とする場合のソース種別であり、ソース種別Cは、ユーザが「行く」という動作を目的とする場合のソース種別である。
【0084】
なお、ソース種別はこれらに限られるものではない。例えば、ユーザが「食べる」という動作を目的とする場合のソース種別や、ユーザが「遊ぶ」という動作を目的とする場合のソース種別など、様々な種別を設けることができる。また、ここでは、ソース種別を、ユーザが目的とする動作に基づいて設定される種別とした例を挙げて説明するが、これに限られるものではない。
【0085】
第2辞書データ42bは、ソース種別とソースを関連付けるデータである。この第2辞書データ42bは、ソース種別毎にソース種別をソースに関連づけるデータであるが、これに限定されるものではなく、例えば、ソース毎にソースをソース種別に関連づけるデータであってもよい。また、ソース種別にソースを関連付けるために、第2辞書データ42bには、ソースを特定するためのソース特定情報(ソースのアドレスなど)とソース種別とを関連付けた情報を含んでいる。
【0086】
図5の(B)には、第2辞書データ42bの一例が示されている。同図に示す例では、「ソース種別A」というソース種別に対して、動画サイトXおよび動画サイトWが関連づけられ、「ソース種別B」というソース種別に対して音楽サイトVおよびインターネットラジオサイトZが関連づけられている。
【0087】
ここでは、動画サイトX,W、音楽サイトV、インターネットラジオサイトZ、地域情報サイトE、Fは、ウェブサーバ501〜506よりそれぞれ提供されるウェブサイトとする。なお、地域情報サイトは、地域情報を提供するウェブサイトであり、例えば、飲食店、コンビニエンスストア、遊園地、ゴルフ場などの各種の施設情報や、地域別のランキング情報などを提供するウェブサイトである。
【0088】
図4に戻って、説明をつづける。制御部43は、情報解析サーバ40の全体制御を行う制御部である。制御部43は、テキスト取得部43aと、決定部43bと、検索部43cと、検索結果送信部43dとをさらに備えている。
【0089】
なお、図4には、制御部43の機能的な構成を示しているが、この制御部43は、物理的にはCPU(Central Processing Unit)とROM(Read Only Memory)とRAM(Random Access Memory)とを有する情報処理装置を備えている。
【0090】
そして、CPUがROMから各種プログラムを読出し、RAMを作業領域として使用して実行することにより、テキスト取得部43a、決定部43b、検索部43c、検索結果送信部43d等として機能する。
【0091】
テキスト取得部43aは、車載装置10からテキストデータを受信したならば、受信したテキストデータを決定部43bへ送信する。このテキスト取得部43aは、車載装置10から送信される音声認識結果を受信するサーバ側音声認識結果受信部として機能する。
【0092】
決定部43bは、テキスト取得部43aから受信したテキストデータに基づいて、検索対象のソース種別を決定する。具体的には、決定部43bは、テキスト取得部43aから受信したテキストデータに含まれるキーワードに関連づけられたソース種別を、記憶部42に記憶された第1辞書データ42aに基づいて決定する。
【0093】
例えば、第1辞書データ42aが図5の(A)に示すデータである場合に、テキスト取得部43aから受信したテキストデータに、「○○○」というテキストデータが含まれていたならば、決定部43bは、ソース種別Aおよびソース種別Cを検索対象のソース種別として決定する。
【0094】
なお、決定部43bは、例えば、第1音声認識用辞書データでは「レストラン」と認識され、第2音声認識用辞書データでは「レストライン」と認識された場合、キーワードとして信頼度が高い方を選択する。
【0095】
例えば、テキスト取得部43aから受信したテキストデータに、音声認識結果として「レストラン(信頼度90%)」と「レストライン(信頼度60%)」とが含まれているとき、信頼度の高い方である「レストラン」をキーワードとして選択する。
【0096】
検索部43cは、決定部43bによって決定されたソース種別に関連づけられたソースから、テキスト取得部43aによって取得したテキストデータに応じた情報を外部ソースであるウェブサーバ501〜506から検索する。この検索部43cは、ソース種別に関連付けられたソース特定情報を選択するソース選択部およびソース選択部により選択されたソース特定情報に基づき該当ソースから情報を検索取得する情報検索取得部として機能する。
【0097】
具体的には、検索部43cは、決定部43bによって決定されたソース種別に関連づけられたソースを、記憶部42に記憶された第2辞書データ42bに基づき選択する。そして、当該選択したソースから、テキスト取得部43aによって取得したテキストデータに応じた情報を検索する。
【0098】
例えば、第1辞書データ42aが図5の(A)に示すデータであり、第2辞書データ42bが図5の(B)に示すデータであるとし、また、テキスト取得部43aから受信したテキストデータに、「○○○」というテキストデータが含まれているとする。
【0099】
この場合、決定部43bによって決定されたソース種別がソース種別Aおよびソース種別Cであり、検索部43cは、動画サイトX,Wおよび地域情報サイトE,Fを検索対象のソースとして選択する。そして、動画サイトX,Wおよび地域情報サイトE,Fから「○○○」に関連する動画コンテンツや地域情報コンテンツを検索する。
【0100】
したがって、検索部43cによる検索結果には、例えば、図6に示すように、「○○○」に関連する動画コンテンツとして、動画サイトWのコンテンツW2,W3が含まれ、「○○○」に関連する地域情報コンテンツとして、地域情報サイトE,FのウェブページE1,F1が含まれる。
【0101】
また、例えば、検索部43cによる検索結果には、検索したソースに対応するソース種別情報が含まれる。図6に示す例では、検索結果として、ソース種別Aおよびソース種別Cが含まれていることを示している。
【0102】
検索結果送信部43dは、検索部43cから検索結果を取得したならば、かかる検索結果を車載装置10へ送信する。この検索結果送信部43dは、検索部43cによる検索取得情報を含む情報解析結果を車載装置10へ送信する情報解析結果送信部として機能する。なお、検索結果送信部43dは、検索結果(検索取得情報)に加えて、決定部43bによって決定されたソース種別に関連づけられたソースの情報を送信することもできる。この場合、検索結果送信部43dは、検索部43cによって選択されたソース特定情報を含む情報解析結果を車載装置10へ送信する情報解析結果送信部として機能する。
【0103】
かかる検索結果は、検索結果送信部43dにより車載装置10へ送信され、図2に示す車載装置10の情報取得部15dによって取得される。車載装置10の情報提供処理部15eは、情報取得部15dによって取得された検索結果を車載装置10のユーザに提示する。
【0104】
ここで、検索結果に複数のソース種別に関するソースからの情報が含まれている場合、情報提供処理部15eは、表示操作部13の表示部に選択画面を表示する。例えば、キーワードが「□□□」である場合であり、第1辞書データ42aにおいて、図5の(A)に示すように「□□□」というキーワードにソース種別A〜Cが関連付けられている場合、情報提供処理部15eは、図7に示すような選択画面を表示する。
【0105】
なお、ソース種別の選択を要求するものであればよく、これに限られない。例えば、マイク12に入力された音声を情報提供処理部15eによって取得することができるようにし、情報提供処理部15eにおいて、音声入力によりソース種別の選択を可能としてもよい。
【0106】
また、例えば、情報提供処理部15eは、車載装置10の図示しない位置検出部又は車速検出部によって移動中であると判断した場合に、選択画面から音声による選択に切り替えるようにしてもよい。
【0107】
図7において、ボタン25aはソース種別Aを選択するためのボタンであり、ボタン25bはソース種別Bを選択するためのボタンであり、ボタン25cはソース種別Cを選択するためのボタンである。車載装置10のユーザは、表示操作部13の操作部からボタン25a〜25cを選択することにより、ソース種別を選択する。
【0108】
例えば、「□□□」についての動画を見たいときには、ユーザは、ボタン25aを押下することで、図8に示すように、情報提供処理部15eは、「□□□」に関する動画コンテンツを再生して表示操作部13の表示部へ表示する。
【0109】
この場合、ソース種別Aを選択するためのボタン25aには「見る」というユーザの動作が表示されており、ソース種別Bを選択するためのボタン25bには「聴く」というユーザの動作が表示されており、ソース種別Cを選択するためのボタン25cには「行く」というユーザの動作が表示されている。これにより、ユーザは、何がしたくて情報の検索を行ったのかという動作の目的に基づいてソースの選択が判断できるため、直感的で分かりやすい操作が可能となる。
【0110】
また、音声入力によりソース種別を選択する場合、ボタン25aに表示された「見る」又はボタン25bに表示された「聴く」、ボタン25cに表示された「行く」という言葉を発声すれば、音声認識処理が実行され、ソース種別を選択できる。
【0111】
また、情報提供処理部15eは、「□□□」に関する動画コンテンツが複数ある場合には、動画コンテンツ名のリストを表示操作部13の表示部へ表示して、ユーザに動画コンテンツを選択させる。そして、ユーザが動画コンテンツを選択したとき、情報提供処理部15eは、選択された動画コンテンツを再生して表示操作部13の表示部へ表示する。
【0112】
また、情報提供処理部15eは、動画コンテンツ名をリスト表示して動画コンテンツを選択させるのではなく、「△△△」に関する複数の動画コンテンツを順次再生することもできる。例えば、情報提供処理部15eは、車載装置10の図示しない位置検出部又は車速検出部によって移動中であると判断した場合に、リスト表示を行わずに、「△△△」に関する複数の動画コンテンツを順次再生するようにしてもよい。
【0113】
なお、情報提供処理部15eは、動画コンテンツを再生する場合、情報解析サーバ40から受信した検索結果に含まれる動画コンテンツのアドレス情報に基づいて、ウェブサーバ50から動画コンテンツを取得して再生する。
【0114】
例えば、動画コンテンツのアドレス情報がウェブサーバ503内のアドレスを示すアドレス情報であるとき、情報提供処理部15eは、ウェブサーバ503から動画コンテンツを取得して再生する。
【0115】
次に、本実施例に係る車載装置10の具体的動作について図9を用いて説明する。図9は、車載装置10の制御部15が実行する処理手順の概要を示すフローチャートである。なお、この処理は、音声入力の開始操作を行う「音声入力開始ボタン」がユーザにより押下されたときに開始される処理である。また、これらの処理は制御部15を構成するマイクロコンピュータ(CPU)がプログラムに基づき処理を行なって実行(実現)されるが、図2に示した機能ブロックとの関係を分かりやすくする為、便宜的に各機能ブロックが実行すると言う表現を用いて説明する。
【0116】
図9に示すように、車載装置10では、音声取得部15aが、マイク12から入力されたユーザの音声の録音を開始する(ステップS20)。音声取得部15aは、録音が終了すると、録音した音声を所定のフォーマットの音声データに変換して、音声認識サーバ30へ送信する(ステップS21)。
【0117】
つづいて、テキスト取得部15bが、音声認識サーバ30から車載装置10へ送信される音声認識結果を受信する(ステップS22)。この音声認識結果は、ステップS21において送信された音声データに対して音声認識サーバ30が行った音声認識結果である。
【0118】
テキスト取得部15bによって受信された音声認識結果は、検索要求部15cによって情報解析サーバ40へ送信される(ステップS23)。その後、情報解析サーバ40から送信された検索結果が情報取得部15dによって受信される(ステップS24)。情報取得部15dが取得する検索結果は、ステップS23において送信された音声認識結果に対する検索結果である。
【0119】
情報取得部15dによって受信された検索結果は、情報取得部15dから情報提供処理部15eへ送信される。情報提供処理部15eは、情報取得部15dから受信した検索結果に、複数のソース種別の情報が含まれているか否かを判定する(ステップS25)。
【0120】
この処理において、情報提供処理部15eは、検索結果に複数のソース種別の情報が含まれていると判定すると(ステップS25,Yes)、表示操作部13の表示部にソース種別を選択させるための選択画面を表示する(ステップS26)。そして、情報提供処理15部eは、ユーザからソース種別の選択があるまで待つ(ステップS27)。
【0121】
ステップS25において、検索結果に複数のソース種別の情報が含まれていないと判定した場合(ステップS25,No)、又は、ステップS27において、ユーザからソース種別の選択があると判定した場合(ステップS27,Yes)、情報提供処理部15eは、処理をステップS28へ移行する。
【0122】
ステップS28において、情報提供処理部15eは、検索結果に複数のコンテンツが含まれているか否かを判定する。この処理において、検索結果に複数のコンテンツが含まれていると判定すると(ステップS28,Yes)、情報提供処理部15eは、表示操作部13の表示部にコンテンツを選択させるためのコンテンツリストを表示する(ステップS29)。このコンテンツリストは、例えば、図1の(C)に示すようなリストである。
【0123】
つづいて、情報提供処理部15eは、ユーザからコンテンツの選択があるまで待つ(ステップS30)。情報提供処理部15eは、ユーザからコンテンツの選択があったと判定した場合(ステップS30,Yes)、又は、ステップS28において検索結果に複数のコンテンツが含まれていないと判定した場合(ステップS28,No)、コンテンツをソースから取得して再生する情報提示処理を行う(ステップS31)。
【0124】
次に、本実施例に係る音声認識サーバ30の具体的動作について図10を用いて説明する。図10は、音声認識サーバ30の制御部33が実行する処理手順の概要を示すフローチャートである。この処理は、音声認識サーバ30の音声データ取得部33aが車載装置10から音声データを受信した場合に開始される処理である。
【0125】
図10に示すように、音声認識サーバ30では、音声認識処理部33bが、音声データ取得部33aによって取得された音声データの音声認識処理を実行する(ステップS40)。この音声認識処理によって、音声データがテキストデータに変換される。
【0126】
つづいて、音声認識結果送信部33cは、音声認識処理部33bによって変換されたテキストデータを車載装置10へ送信する(ステップS41)。
【0127】
このように、音声認識サーバ30は、車載装置10から音声データが送信されてくる毎に、音声認識処理を行って、音声認識結果であるテキストデータを車載装置10へ送信する。
【0128】
次に、本実施例に係る情報解析サーバ40の具体的動作について図11を用いて説明する。図11は、情報解析サーバ40の制御部43が実行する処理手順の概要を示すフローチャートである。この処理は、情報解析サーバ40のテキスト取得部43aが車載装置10から検索用のテキストデータを受信した場合に開始される処理である。
【0129】
図11に示すように、情報解析サーバ40では、決定部43bが、テキスト取得部43aによって受信されたテキストデータの解析を行って(ステップS50)、ソース種別を決定する(ステップS51)。具体的には、決定部43bが決定するソース種別は、テキストデータに含まれるキーワードに対応するソース種別を第1辞書データ42aから抽出したソース種別である。
【0130】
つづいて、検索部43cは、決定したソース種別に関するソースから、テキスト取得部43aが取得したテキストデータに関係する情報を検索する(ステップS52)。そして、検索結果送信部43dは、検索部43cによる検索結果を車載装置10へ送信する(ステップS53)。
【0131】
このように、情報解析サーバ40では、ソースと予め設定されたソース種別とを関連づける第1辞書データ42aを記憶しており、第1辞書データ42aに基づいて、車載装置10から送信されたテキストデータから検索対象のソース種別を決定する。
【0132】
そして、決定したソース種別に関連づけられたソースを、第2辞書データ42bに基づいて選択し、当該選択したソースから、車載装置10から送信されたテキストデータに応じた情報を検索する。
【0133】
かかる検索結果は、検索結果送信部43dにより車載装置10へ送信され、図2に示す車載装置10の情報取得部15dによって取得される。そして、車載装置10の情報提供処理部15eは、情報取得部15dによって取得された検索結果を車載装置10のユーザに提示する。
【0134】
したがって、車載装置10のユーザは、キーワードを発するだけで、膨大なコンテンツの中から所望のコンテンツを取得することができる。すなわち、ユーザによる操作要求を低減し、ユーザが直感的に操作することが可能となる。
【0135】
しかも、ユーザから発せられたキーワードに対して複数のソース種別が関連づけられている場合には、ユーザにソース種別を選択させることで、コンテンツを収集するソースのソース種別を決定することができる。これによって、ユーザによる操作要求を低減し、ユーザが直感的に操作することが可能となる。
【0136】
なお、上述においては、決定部43bによって決定したソース種別が複数あった場合、検索部43cは、決定部43bによって決定されたソース種別に関するソースから検索するため、不要なソース種別に関するソースからも検索を行うことになる。
【0137】
そこで、決定部43bによって決定したソース種別が複数あった場合には、まず、決定部43bが車載装置10に対してソース種別の選択を促すための情報を送信するようにしてもよい。このようにすることにより情報解析サーバ40による検索処理の負担を軽減することができる。
【0138】
この場合、車載装置10の情報提供処理部15eは、選択画面などによりソース種別の選択を要求する。この要求に対してユーザによる選択があった場合、情報提供処理部15eは、ユーザが選択したソース種別の情報を情報解析サーバ40へ送信する。そして、情報解析サーバ40の検索部43cは、ユーザが選択したソース種別に関するソースから検索を行い、その検索結果が検索結果送信部43dから車載装置10へ送信される。
【0139】
このような方法によっても、情報提供処理部15eは、決定部43bにより決定されたソース種別が複数ある場合、ユーザに対してソース種別の選択を要求し、かかる要求に応じて選択されたソース種別に関するソースから取得された情報を提示することができる。
【0140】
また、上述においては、情報解析サーバ40の検索結果送信部43dが送信する検索結果として、コンテンツ名やコンテンツのアドレス情報などが含まれるものであるが、コンテンツ自体を送信するようにしてもよい。特に、検索結果が少ない場合には、コンテンツ自体をそのまま車載装置10へ送信することで、車載装置10とソース間との送受信処理の負担を軽減することができる。
【0141】
また、上述においては、音声認識サーバ30および情報解析サーバ40を車載装置10外に配置したが、これらの機能のいずれか又は全部を車載装置10に設けるようにしてもよい。このようにすることで、車載装置10と外部装置との間の通信負担を軽減することができる。
【0142】
また、上述においては、車載装置10が携帯端末装置20を介して音声認識サーバ30および情報解析サーバ40と通信するようにしたが、車載装置10に代えて携帯端末装置20に置き換えることも可能である。図12は、車載装置10を携帯端末装置20に置き換えた場合のブロック図であり、携帯端末装置20は、近距離通信部11が通信I/F23に置き換わった以外は、上述の車載装置10と同様にマイク24、表示操作部25、スピーカ26と、制御部27を備える。
【0143】
また、制御部27は、音声取得部27a、テキスト取得部27b、検索要求部27c、情報取得部27d、情報提供処理部27eを備えており、さらに情報提供処理部27eは、動画再生アプリ27f、音再生アプリ27gおよびブラウザアプリ27hなどのアプリケーションを含んでいる。
【0144】
なお、通信I/F23は、インターネット22を介して制御部27の各種データの送受信を行う。図12は近距離通信部11が通信I/F23に置き換わった以外は、図2と同様であるため、ここでは詳細な説明は省略する。このようにすることで、車両を運転中の携帯端末装置20を持ったユーザに対し情報を提供することができる。
【0145】
また、第1辞書データ42aや第2辞書データ42bを複数設けるようにしてもよい。例えば、第1辞書データ42aを地域に対応させて設け、車載装置10から送信される現在位置情報や目的地情報などに基づいて、ソース種別を決定するための第1辞書データ42aや検索するソースを決定するための第2辞書データ42bを変更してもよい。このように、現在位置情報や目的地情報に応じた第1辞書データ42aや第2辞書データ42bを用いることで、より地域性に富んだコンテンツを提供することができる。
【0146】
また、上述においては、ソース種別と関連づけるソースとして、ウェブサーバやデータベースサーバなどの外部ソースを例に挙げて説明したが、車載装置10内のソースをソース種別と関連づける、あるいは外部ソースと車載装置10内のソースの両方をソース種別と関連づけるようにしてもよい。例えば、車載装置10のオーディオ機能やカーナビ機能をソース種別に関連づけてもよい。このようにすることで、さらに、オーディオ機能やカーナビ機能の操作性を向上させることができる。
【0147】
以上、本発明の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【産業上の利用可能性】
【0148】
以上のように、本発明に係る情報提供システムおよび情報提供装置は、ユーザによる操作要求を低減したい場合に適しており、特に、車載装置を用いて情報の検索操作が行われる場合に有用である。
【符号の説明】
【0149】
S 情報提供システム
1,10 車載装置
2,30 音声認識サーバ
3,40 情報解析サーバ
15 制御部
15a 音声取得部
15b テキスト取得部
15c 検索要求部
15d 情報取得部
15e 情報提供処理部
42 記憶部
42a 第1辞書データ
42b 第2辞書データ
43 制御部
43a テキスト取得部
43b 決定部
43c 検索部
43d 検索結果送信部

【特許請求の範囲】
【請求項1】
ユーザの要求に応じた情報を提供する情報提供システムであって、
情報を提供するソースとソース種別とを関連づけるソース情報を記憶する記憶部と、
前記要求に応じたテキストデータを取得する取得部と、
前記取得部によって取得されたテキストデータに基づいて、前記ソース種別を決定する決定部と、
前記ソース情報に基づいて、前記決定部によって決定されたソース種別に関連づけられたソースを選択し、当該選択したソースから情報を検索する検索部と、
前記検索部によって検索された情報を提示する情報提供部と
を備えたことを特徴とする情報提供システム。
【請求項2】
前記情報提供部は、
前記決定部によって決定されたソース種別が複数ある場合、前記ソース種別の選択を要求する要求画面を提示し、当該要求画面において選択されたソース種別に関連するソースから取得された情報を提示することを特徴とする請求項1に記載の情報提供システム。
【請求項3】
前記ソース種別は、
前記ユーザが目的とする動作に関連して設定されることを特徴とする請求項1又は2に記載の情報提供システム。
【請求項4】
前記ユーザの音声を取得する音声取得部と、
前記音声取得部によって取得された前記音声の情報をテキストデータへ変換する変換部と
をさらに備え、
前記取得部は、
前記変換部によって変換された前記テキストデータを取得することを特徴とする請求項1〜3のいずれか1項に記載の情報提供システム。
【請求項5】
前記ソース種別は、
少なくとも音楽情報を提供するソース種別、動画情報を提供するソース種別、および地域情報を提供するソース種別を有することを特徴とする請求項1〜4のいずれか1項に記載の情報提供システム。
【請求項6】
ユーザの要求に応じた情報を提供する情報提供装置において、
情報を提供するソースとソース種別とを関連づけるソース情報を記憶する記憶部と、
前記要求に応じたテキストデータを取得する取得部と、
前記取得部によって取得されたテキストデータに基づいて前記ソース種別を決定する決定部と、
前記ソース情報に基づいて、前記決定部によって決定されたソース種別に関連づけられたソースを選択し、当該選択したソースから情報を検索する検索部と、
前記検索部によって検索された前記情報を提示する情報提供部と
を備えたことを特徴とする情報提供装置。
【請求項7】
ユーザ端末装置と、音声認識サーバと、情報解析サーバとを含み、ユーザの要求に応じた情報を該ユーザ端末装置によってユーザに提供する情報提供システムであって、
前記ユーザ端末装置は、
ユーザの音声を入力し音声信号に変換する音声入力部と、
前記音声入力部からの音声信号を音声認識サーバに送信する音声信号送信部と、
前記音声認識サーバからの音声認識結果を受信する端末側音声認識結果受信部と、
前記端末側音声認識結果受信部で受信した音声認識結果を前記情報解析サーバに送信する端末側音声認識結果送信部と、
前記情報解析サーバからの情報解析結果に基づきソースを選択して該ソースから情報を取得する情報取得部とを備え、
前記音声認識サーバは、
前記ユーザ端末装置からの音声信号を受信する音声信号受信部と、
前記音声信号受信部で受信した音声信号の音声認識処理を行なう音声認識部と、
前記音声認識部による音声認識結果を前記ユーザ端末装置に送信する音声認識結果送信部とを備え、
前記情報解析サーバは、
前記ユーザ端末装置からの音声認識結果を受信するサーバ側音声認識結果受信部と、
ソースを特定するソース特定情報とソース種別とを関連づけるソース情報を記憶する記憶部と、
前記サーバ側音声認識結果受信部で受信した音声認識結果に基づいて前記ソース種別を決定する決定部と、
前記記憶部に記憶されたソース情報に基づいて、前記決定部によって決定されたソース種別に関連づけられたソース特定情報を選択するソース選択部と、
前記ソース選択部により選択されたソースを特定するためのソース特定情報を含む情報解析結果を前記ユーザ端末装置へ送信する情報解析結果送信部とを備えることを特徴とする情報提供システム。
【請求項8】
ユーザ端末装置と、音声認識サーバと、情報解析サーバとを含み、ユーザの要求に応じた情報を該ユーザ端末装置によってユーザに提供する情報提供システムであって、
前記ユーザ端末装置は、
ユーザの音声を入力し音声信号に変換する音声入力部と、
前記音声入力部からの音声信号を音声認識サーバに送信する音声信号送信部と、
前記音声認識サーバからの音声認識結果を受信する端末側音声認識結果受信部と、
前記端末側音声認識結果受信部で受信した音声認識結果を前記情報解析サーバに送信する端末側音声認識結果送信部と、
前記情報解析サーバからの情報解析結果を取得する情報取得部とを備え、
前記音声認識サーバは、
前記ユーザ端末装置からの音声信号を受信する音声信号受信部と、
前記音声信号受信部で受信した音声信号の音声認識処理を行なう音声認識部と、
前記音声認識部による音声認識結果を前記ユーザ端末装置に送信する音声認識結果送信部とを備え、
前記情報解析サーバは、
前記ユーザ端末装置からの音声認識結果を受信するサーバ側音声認識結果受信部と、
ソースを特定するソース特定情報とソース種別とを関連づけるソース情報を記憶する記憶部と、
前記サーバ側音声認識結果受信部で受信した音声認識結果に基づいて前記ソース種別を決定する決定部と、
前記記憶部に記憶されたソース情報に基づいて、前記決定部によって決定されたソース種別に関連づけられたソース特定情報を選択するソース選択部と、
前記ソース選択部により選択されたソース特定情報に基づき該当ソースから情報を検索取得する情報検索取得部と、
前記情報検索取得部による検索取得情報を含む情報解析結果を前記ユーザ端末装置へ送信する情報解析結果送信部とを備えることを特徴とする情報提供システム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate


【公開番号】特開2012−123492(P2012−123492A)
【公開日】平成24年6月28日(2012.6.28)
【国際特許分類】
【出願番号】特願2010−272059(P2010−272059)
【出願日】平成22年12月6日(2010.12.6)
【出願人】(000237592)富士通テン株式会社 (3,383)
【Fターム(参考)】