説明

国際特許分類[G10L15/00]の内容

物理学 (1,541,580) | 楽器;音響 (32,226) | 音声の分析または合成;音声認識;音響分析または処理 (17,022) | 音声認識 (6,879)

国際特許分類[G10L15/00]の下位に属する分類

国際特許分類[G10L15/00]に分類される特許

1,041 - 1,050 / 1,893


【課題】被写体となる人物が容易に笑顔を作り出せるような案内をして、その案内に従った発話によって作られたより自然な笑顔をタイムリーに撮影する人物撮影装置を提供すること。
【解決手段】複数の撮影モードを有する人物撮影装置であって、被写体となる人物に対し、指定する2種類の単語を指定する順序で発声するように案内する案内手段と、前記人物が発声する単語を認識する音声認識手段と、前記2種類の単語のうち、最初の順番の単語が発声されたことを認識したときに、前記複数の撮影モードの一つを選択する選択手段と
を有することを特徴とする人物撮影装置。 (もっと読む)


【課題】より簡単な構成で車室内での音声認識率を向上させることができる車両用音声認識装置を提供する。
【解決手段】音声認識装置2は、車両側より車速情報を取得すると、その車速に応じて当該車両が走行中である道路の状況を推定し、その推定結果に応じて不要と判断される音声認識対象のコマンドを排除した上で音声認識処理を行う。具体的には、認識対象とするコマンド群がナビゲーション装置1の操作に関するものである場合、車両が高速道路を走行中であると推定すると、認識対象コマンド群からその高速道路の外部に存在する立ち寄り先の店舗や施設等を検索するためのコマンド群を削除する。 (もっと読む)


【課題】複数の音声入出力処理の間の競合を防止する。
【解決手段】音声対話機能を有する情報処理装置は、優先度を有する複数のサービス・シナリオを格納するサービス・シナリオ格納手段40と、そのサービス・シナリオ格納手段における高い優先度のサービス・シナリオに従って次の第1の音声処理のタイミングを推定する通知時間推定手段20と、現時点からその第1の音声処理のタイミングまでの空き時間を推定する空き時間推定手段30と、そのサービス・シナリオ格納手段における低い優先度のサービス・シナリオに従って音声出力を含む第2の音声処理に要する時間長さを推定する対話時間推定手段50と、その第2の音声処理のその推定された時間長さがその推定された空き時間未満である場合に、その空き時間にその低い優先度のサービス・シナリオに従ってその第2の音声処理を行う対話制御手段70と、を具えている。 (もっと読む)


【解決手段】アンドロイド制御システムは、たとえば遠隔操作端末とアンドロイドの制御装置を含む。操作者が発話すると、その発話音声は一定の遅延のもとに再生される。また、当該発話音声から抽出された音響特徴に基づいて、非線形モデルを用いて口唇形状が推定される(S27)。特定の口唇形状のための動作指令発行から当該口唇形状が実際に形成されるまでにかかる動作遅延が推定される(S31)。推定された口唇形状の時系列をもとに、所定の区間を通じて最適化された口唇動作に再構成される(S35)。各動作指令は、各動作遅延に基づいて音声再生開始タイミングを基準として設定されたそれぞれのタイミングで発行される(S39)。
【効果】アンドロイドにおいて操作者の発話音声に適合させた口唇動作を実現することができる。 (もっと読む)


【課題】記録されたコンテンツをより効率的に視聴できるようにする。
【解決手段】音声信号解析部261は、音声認識を行い、音声信号をテキスト情報に変換する。形態素解析部262は、テキスト情報に対して形態素解析を行って、単語を抽出し、記憶部264に記憶させる。記憶部264は、供給された単語とともに、その単語の出現回数を記録する。キーワード検出部263は、単語の出現回数に基づいて、キーワードとなる単語をその単語の出現回数と対応づけて評価値処理部281に出力する。テキスト情報抽出部271は、ホームページに含まれるテキスト情報を抽出し、同様に、キーワード検出部273がキーワードを出力する。評価値処理部281は、キーワード検出部273からのキーワードと、キーワード検出部263からのキーワードとの一致の度合いを表す評価値を算出し、その評価値を、キーワードに対応するシーンの評価値として出力する。 (もっと読む)


【課題】雑音の変動に対応できる音声認識システムの提供。
【解決手段】雑音推定手段2が雑音状況を推定すると、音声比較手段3は、前記推定した雑音状況に応じて、音声認識動作に必要な発声回数を決定する。音声比較手段3は、発声回数が、前記決定した必要発声回数に達した場合に、音声記憶手段4に記憶した発声を音声認識手段7に出力する。音声認識手段7は、前記各発声を同一内容と仮定して音声認識を行う。以上により、周囲の雑音状況に応じた制御が実現され、高騒音環境下での高い認識性能を確保するとともに、低騒音環境下での使い勝手の向上を実現できる。 (もっと読む)


【課題】機械学習に基づく動画像ハイライト作成では、専門家が予め十分な数のサンプル動画像から抽出したトレーニング動画像を学習させた学習データファイルを作成しておく必要がある。一方、テレビ番組の放送内容は、たとえ同じ番組ジャンルであっても様々なパターンが存在するため、その全てを網羅する学習データを予め準備しておくことは困難である。
【解決手段】ユーザがハイライト検出処理完了済のテレビ番組動画像を視聴中に、未検出のハイライト区間を見つけた場合、ユーザがそのハイライト区間をUIから選択すると、学習データに新たなトレーニングデータとして追加される。次回の検出処理では更新された学習データを使用することで、類似の特徴ベクトルを持つハイライトシーンが検出可能となる。さらに、学習データ更新時には、初期設定時の性能を著しく損なわぬよう、ユーザが追加できるデータの割合に制限を設けておく。 (もっと読む)


【課題】車室内で行う音声認識処理の認識率を更に向上させることができる車両用音声認識装置を提供する。
【解決手段】車室内において、集音マイク4〜7を、ハンドル11,ダッシュボード5,助手席側スピーカ14の前,助手席13後方側に設置し、音声分離処理部2は、BSS法により、これらの集音マイク4〜7により入力された音声信号を、ドライバ音声信号Sとその他の雑音信号N1〜N3とに分離し、車両用ナビゲーション装置1の音声認識処理部3は、分離されたドライバ音声信号について音声認識処理を行なう。 (もっと読む)


【課題】ガイドボーカルの各音素の発音タイミングと歌詞との対応付けを自動的に生成する。
【解決手段】CPU11は、楽曲データを読み出し(SA1)、歌詞テキストデータに対して形態素解析を施して、各文字の発音を表す平仮名列を取得する(SA2)。そして、CPU11は、平仮名列の各文字に対応付けて歌詞発音タイミングデータを生成する(SA3)。次に、CPU11は、歌詞発音タイミングデータを参照して、処理単位に対応する区間の音声データを抽出する(SA4)。CPU11は、歌詞の文字に対応付けられている歌詞発音タイミングデータに代えて、対応する音声データの区間の音素の発音タイミングを各歌詞(仮名)に対応付ける(SA5)。 (もっと読む)


【課題】クライアントごとの製品知識レベル、発音の良し悪しに関するデータベースを、応対データ(音声)や応対ログのクライアントとオペレータの発話から抽出した判定結果に基づいてクライアントの属性情報を更新する受付支援システムを提供する。
【解決手段】クライアント端末とオペレータ端末から発話される音声信号をテキスト変換してログファイルを生成するとともに、ログファイルを前記クライアントに対応付けてログデータベースに保存する音声認識処理をして、情報属性としてクライアントごとのレベルを設定するためログファイルのテキストにオペレータが聴き直しをした箇所があるかを検出する。その後、検出結果に基づいて属性情報を変更するための条件を有する属性情報内容更新データベースを参照して回数に基づいてレベルを選択し、クライアントデータベースを更新する受付支援システムとそのプログラムである。 (もっと読む)


1,041 - 1,050 / 1,893