説明

翻訳システム

【課題】 見知らぬ外国人と会話をするための翻訳装置において、相手の話す言語を確実に決定し会話を成立させる翻訳システムを提供する。
【解決手段】 ユーザ端末100に、現在の位置情報を決定する位置決定手段113と、相手の映像を撮影するカメラ130とを備え、翻訳センタサーバ200に、会話を行っている相手の音声から言語を判別する言語判別手段221と、その撮影された映像からその人物の人種を判別し言語を判別する人種判別手段231とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、翻訳システムに関し、特に、相手の使用する言語を判別する翻訳システムに関する。
【背景技術】
【0002】
従来の翻訳端末では翻訳する言語をユーザが設定する、またはGPS装置を内蔵しその地域で使用されている言語が設定されていた。
【発明の開示】
【発明が解決しようとする課題】
【0003】
従来の翻訳システムでは位置情報に基づいてその地域で使用されている言語を設定し翻訳を行っているが、会話をしたい相手がその地域の言語を使用するとは限らないという問題があった。
【課題を解決するための手段】
【0004】
本発明の翻訳システムは、現在の位置情報を決定する位置決定手段と、相手の映像を撮影するカメラとを備えるユーザ端末と、会話を行っている相手の音声から言語を判別する言語判別手段と、その撮影された映像からその人物の人種を判別し言語を判別する人種判別手段とを備える翻訳センタサーバとを有する。
【発明の効果】
【0005】
本発明によれば、会話を行いたい相手が見知らぬ外国人であってもユーザ端末に装備されたさまざまな入力装置を使用して翻訳センタサーバでそれらの入力された情報を解析することによって相手の使用する言語をより確実に決定することができる。
【0006】
また、ユーザ端末では処理できない大きな処理を翻訳センタサーバで行い、翻訳センタサーバにある大きなデータベースからき必要な情報のみをユーザ端末に転送することにより、ユーザ端末には翻訳に必要な機能のみが搭載されていればよくユーザ端末を小型化することができる。
【発明を実施するための最良の形態】
【0007】
次に、本発明を実施するための最良の形態について図面を参照して詳細に説明する。
【0008】
本発明の第1の実施例について説明する。
【0009】
図1を参照すると、翻訳を行うための複数のユーザ端末100−1,ユーザ端末100−2,・・・,ユーザ端末100−nと、各ユーザ端末100からの要求を処理する翻訳センタサーバ200がインターネットなどのネットワーク300に接続されている。
【0010】
図2を参照すると、ユーザ端末100は、現在の位置を測定するためのGPS(Global Positioning System)装置110と、GPS装置110の精度を高めるための位置補正手段111と、ユーザ端末から離れた場所までの距離を測定する距離測定手段112と、GSP装置110,位置補正手段111,距離測定手段112からの情報を基に位置情報を決定する位置決定手段113と、マイク120に入力された音声を認識する音声認識手段121と、人物を撮影するためのカメラ130と、キーボードなど文字を入力するための文字入力手段140と、音声認識手段121によって認識された文章や文字入力手段140から入力された文章を翻訳をする翻訳手段161と、翻訳するために必要な辞書を格納する辞書格納手段160と、翻訳手段161によって翻訳された文章を表示するためのディスプレイ170と、翻訳された文章を音声に変換しスピーカ180に出力する音声合成手段181と、ネットワーク300を通じて翻訳センタサーバ200と通信を行う通信手段190と、ユーザ端末100のすべての制御を行う制御部150から構成されている。
【0011】
図3を参照すると、翻訳センタサーバ200は、あらゆる言語についてその言語が使用されている地域の情報やその言語の音声情報など言語の特徴を記憶した言語データベース220と、ユーザ端末100から送られてきた位置情報や音声情報と言語データベース220の情報から言語を決定する言語決定手段221と、あらゆる人種の顔や皮膚の色や骨格などの身体的特徴を記憶した人種データベース230と、ユーザ端末100から送られてきた映像と人種データベース230の情報から人種を決定する人種決定手段231と、あらゆる言語の辞書を格納した辞書データベース240と、ユーザ端末100を使用しているすべてのユーザの個人情報を記憶している個人情報データベース250と、ネットワーク300を通じてユーザ端末100と通信を行う通信手段260と、翻訳センタサーバ200のすべての制御を行う制御部210から構成されている。
【0012】
次に、図1〜図6を参照して本発明の第1の実施例の動作について詳細に説明する。
【0013】
まずはじめにユーザは初期設定としてユーザ端末100に自分の使用している言語を設定し翻訳センタサーバ200から辞書を取り出す。ユーザはユーザ端末100の文字入力手段140またはマイク120と音声認識手段121を使用して自分の使用する言語名を入力する(ステップA1)。文字入力手段140またはマイク120から入力された言語名は通信手段190から翻訳センタサーバ200に送信される(ステップA2)。ユーザ端末100は翻訳センタサーバ200からの辞書の受信待ちの状態になる(ステップA3)。
【0014】
ユーザ端末100から送信された言語名は翻訳センタサーバ200の通信手段260で受信される(ステップB1)。通信手段260で受信された言語名は個人情報データベース250の中にユーザごとに記憶され(ステップB2)、言語名に対応する辞書を辞書データベース240から読み出す(ステップB3)。辞書データベース240から読み出された辞書は通信手段260によってユーザ端末100に送信される(ステップB4)。翻訳センタサーバ200から送信された辞書はユーザ端末100の通信手段190で受信される(ステップA4)。通信手段190で受信された辞書は辞書格納手段160に格納される(ステップA5)。
【0015】
ユーザは会話を行いたい相手がいた場合、GPS装置110で現在の自分の位置を計測し必要に応じて位置補正手段111を使用することによって正確な位置情報が位置情報決定手段113で決定される(ステップC1)。位置情報決定手段113で測定された位置情報は通信手段190から翻訳センタサーバ200に送信される(ステップC2)。ユーザ端末100から送信された位置情報は翻訳センタサーバ200の通信手段260で受信される(ステップD1)。通信手段260で受信された位置情報と言語データベース220の情報をもとにその地域で使用されている言語が言語判別手段221で決定される(ステップD2)。
【0016】
次に会話を行いたい相手の顔など身体を撮影することができる場合(ステップC3)、ユーザ端末100のカメラ130で相手を撮影する(ステップC4)。カメラ130で撮影された映像は通信手段190から翻訳センタサーバ200に送信される(ステップC5)。ユーザ端末100から送信された映像は翻訳センタサーバ200の通信手段260で受信される(ステップD3)。通信手段260で受信された映像は人種判別手段231に送られる。人種判別手段231ではユーザ端末100から送られてきた映像と人種データベース230から顔の形や皮膚の色などの身体的特徴からその人たちが主に使用している言語を判別する(ステップD4)。
【0017】
また相手から話しかけられた場合など相手の声を録音することができる場合(ステップC6)、ユーザ端末100のマイク120で相手の声を録音する(ステップC7)。マイク120で録音された音声を通信手段190で翻訳センタサーバ200に送信する(ステップC8)。ユーザ端末100から送信された音声は翻訳センタサーバ200の通信手段260で受信される(ステップD5)。通信手段260で受信された音声は言語判別手段221に送られる。言語判別手段221ではユーザ端末100から送られてきた音声と言語データベース220の情報を比較しこの言語を判別する(ステップD6)。
【0018】
ユーザ端末100は翻訳センタサーバ200に対して辞書の送信要求を出し(ステップC9)、辞書の受信待ち状態になる(ステップC10)。翻訳センタサーバ200はユーザ端末100からの要求を受信する(ステップD7)。翻訳センタサーバ200ではこの要求を受け取るとこれまでに判別した結果(ステップD2,D4,D6)から最終的に言語を決定し辞書データベース240から辞書を読み出す(ステップD8)。辞書データベース240から読み出された辞書は通信手段260によってユーザ端末100に送信される(ステップD9)。翻訳センタサーバ200から送信された辞書はユーザ端末100の送信手段190で受信される(ステップC11)。通信手段190で受信された辞書は辞書格納手段160に格納される(ステップC12)。
【0019】
ユーザ端末100ではユーザが使用する言語と会話を行う相手の言語に対応した辞書の両方が辞書格納手段160に設定されると相互の翻訳が可能となる。ユーザ端末100の文字入力手段140またはマイク120を使用して音声を音声認識手段121で認識させることにより翻訳したい文章を入力する(ステップE1)。入力された文章は翻訳手段161で辞書格納手段160に格納された辞書を使用して翻訳される(ステップE2)。翻訳手段161で翻訳された文章はディスプレイ170に表示される(ステップE3)。それと同時に翻訳手段161で翻訳された文章は音声合成装置181に送られ音声に変換されスピーカ180から音声が出力される(ステップE5)。
【0020】
次に、本発明の第2の実施例について図面を参照して詳細に説明する。
本実施例においては、同時に複数のユーザ端末100が翻訳センタサーバ200に接続されている場合、ユーザの位置情報のみで相手の使用している言語が判別できるところが前述した実施例と異なる。
【0021】
図7を参照して本実施例の動作について詳細に説明する。
【0022】
ユーザは自分の位置をGPS装置110と位置補正手段111からの情報のもとに位置決定手段113で位置を測定する(ステップG1)。位置決定手段113で決定された位置情報は通信手段190から翻訳センタサーバ200に送信される。ユーザ端末100から送信された位置情報は翻訳センタサーバ200の通信手段260で受信される(ステップH1)。通信手段260で受信された位置情報は個人情報データベース250にユーザの使用言語と一緒に記録される(ステップH2)。
【0023】
次に会話をしたい人物と自分までの距離を距離測定手段112で測定し、GPS装置110と位置補正手段111で測定した位置情報をもとに位置決定手段113で相手の位置情報を決定する(ステップG3)。位置決定手段113で決定された相手の位置情報は通信手段190から翻訳センタサーバ200に送信される(ステップG4)。ユーザ端末100は翻訳センタサーバ200からの辞書の受信待ちの状態になる(ステップG5)。ユーザ端末100から送信された相手の位置情報は翻訳センタサーバ200の通信手段260で受信される(ステップH3)。
【0024】
通信手段260で受信された相手の位置情報は個人情報データベース250と照合され現在の位置情報が一致するユーザの使用する言語が読み出される(ステップH4)。個人情報データベース250から読み出されたユーザの使用する言語に対応する辞書が辞書データベース240から読み出される(ステップH5)。辞書データベース250から読み出された辞書は通信手段260からユーザ端末100に送信される(ステップH6)。ユーザ端末100の通信手段190は翻訳センタサーバ200から送られた辞書を受信する(ステップG6)。通信手段190で受信された辞書は辞書格納手段160に格納される(ステップG9)。
【図面の簡単な説明】
【0025】
【図1】本発明の第1の実施例の構成を示すブロック図。
【図2】図1のユーザ端末の構成を示す詳細ブロック図。
【図3】図1の翻訳センタサーバの構成を示す詳細ブロック図。
【図4】本発明の第1の実施例の動作を示すフローチャート。
【図5】本発明の第1の実施例の動作を示すフローチャート。
【図6】本発明の第1の実施例の動作を示すフローチャート。
【図7】本発明の第2の実施例の動作を示すフローチャート。
【符号の説明】
【0026】
100−1 ユーザ端末
100−2 ユーザ端末
100−n ユーザ端末
100 ユーザ端末
200 翻訳センタサーバ
300 ネットワーク
110 GPS装置
111 位置補正手段
112 距離測定手段
113 位置決定手段
120 マイク
121 音声認識手段
130 カメラ
140 文字入力手段
150 制御部
160 辞書格納手段
161 翻訳手段
170 ディスプレイ
180 スピーカ
181 音声合成手段
190 通信手段
210 制御部
221 言語判別手段
220 言語データベース
230 人種データベース
231 人種判別手段
240 辞書データベース
250 個人情報データベース
260 通信手段

【特許請求の範囲】
【請求項1】
現在の位置情報を決定する位置決定手段と、相手の映像を撮影するカメラとを備えるユーザ端末と、会話を行っている相手の音声から言語を判別する言語判別手段と、その撮影された映像からその人物の人種を判別し言語を判別する人種判別手段とを備える翻訳センタサーバとを有することを特徴とする翻訳システム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2006−268710(P2006−268710A)
【公開日】平成18年10月5日(2006.10.5)
【国際特許分類】
【出願番号】特願2005−88951(P2005−88951)
【出願日】平成17年3月25日(2005.3.25)
【出願人】(000004237)日本電気株式会社 (19,353)
【Fターム(参考)】