説明

理解支援システム、支援端末、理解支援方法およびプログラム

【課題】被支援者に、被支援者が認識できる視覚表示可能な情報を提供し、また、被支援者から支援者に対する質問を受け付け、支援者に提供する。
【解決手段】講師端末100は、講師を含む、話者の発話音声、および話者の周辺映像または画像を取得し、支援端末200に送る。支援端末200は、視覚表示可能な支援情報として、発話音声の要約の文字情報や話者の周辺映像または画像からの画像の選択を含む、編集指示の入力などを受け付ける。そして、編集指示に基づき、話者の周辺映像または画像から選択された画像を支援情報に重畳し、支援情報を被支援端末300に送る。被支援端末300は、質問の入力を受け付け、質問を支援端末200に送る。支援端末200は、被支援者の質問に対する回答や、上述の編集指示を受け付け、支援情報に重畳し、支援情報を被支援端末300に送る。被支援端末300は、支援情報に含まれる複数の情報および質問を共に出力する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、理解支援システム、支援端末、理解支援方法およびプログラムに関する。
【背景技術】
【0002】
音声を認識することができない聴覚障がい者が、健聴者が講師を務める講義や講演を受講する際には、手話通訳や要約筆記通訳などの支援が必要である。そこで、聴覚障がい者が講師の口頭での説明を理解することを支援する技術や、聴覚障がい者と健聴者の間のコミュニケーションを支援する技術が開発されている。
【0003】
特許文献1には、要約者支援装置および要約者支援方法が開示されている。この要約者支援方法により、話者の発話音声に含まれる指示代名詞および話者の指示動作に基づく、図、写真、式などの指示対象候補を要約者端末に表示することが可能となる。そして、要約者から、指示対象の選択および文字の入力を受け付け、選択された指示対象を、入力された文字情報と共に聴覚障がい者端末に表示する。
【0004】
特許文献2には、要約者から提供される文字情報中に、聴覚障がい者がメモをとることができる要約筆記通訳支援システムが開示されている。この要約筆記通訳支援システムにおいて、要約者端末は、要約者から、話者の発話音声の要約の入力を受け付け、要約の文字情報を聴覚障がい者端末に送る。また、聴覚障がい者端末は、聴覚障がい者から、注釈や板書の内容などのメモの入力を受け付けることができる。
【0005】
特許文献3には、健聴者と聴覚障がい者の間のコミュニケーションを支援する技術が開示されている。このコミュニケーション支援技術は、健聴者の発話音声を文字に変換し、冗長な言い回しを除去して、聴覚障がい者端末に表示する。また、発話データに基づき、文字入力予測データを更新し、聴覚障がい者の文字入力を支援する。
【0006】
特許文献4には、文字入力を音声に変換して音声出力し、音声入力を文字に変換して表示する聴覚障がい者用対話支援装置が開示されている。
【0007】
特許文献5には、手話を認識して文字に変換し、音声入力を文字に変換して表示するインターフォン装置および双方向通話方法が開示されている。
【0008】
特許文献6には、1の講師端末から複数の受講者端末へ講義を配信し、受講者端末から講師端末へ質問が送られた場合に、所定の条件に基づいて質問の回答の取得および質問の分類を行い、分類に基づいて所定の受講者端末に回答を送信する技術が開示されている。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】特開2009−175803号公報
【特許文献2】特開平07−199803号公報
【特許文献3】特開2002−323969号公報
【特許文献4】特開2003−150188号公報
【特許文献5】特開2004−254217号公報
【特許文献6】特開2009−217151号公報
【発明の概要】
【発明が解決しようとする課題】
【0010】
講義や講演の受講者の中には、聴覚障がい者のように、話者の発話音声を理解するために、手話通訳や要約筆記通訳などの支援が必要な受講者(以下、被支援者と記す)がいる場合がある。被支援者が、講師や被支援者でない聴講者の発話音声を理解するためには、例えば、要約者などの支援者が入力する発話音声の要約の文字情報のような、被支援者が認識できる視覚表示可能な情報が、被支援者に提供される必要がある。また、被支援者から支援者に対する質問を受け付け、被支援者が認識可能な形で、支援者からの回答が被支援者に提供されると、被支援者がより理解を深めることを支援することが可能となる。
【0011】
特許文献1に開示されている技術では、被支援者に、被支援者が認識可能な形で、話者の発話内容が提供されるが、被支援者から質問を受け付けることはできない。
【0012】
特許文献2に開示されている技術では、被支援者に、被支援者が認識可能な形で、話者の発話音声が提供される。また、被支援者がメモをとり、支援者が、被支援者のメモを確認することができる。しかし、被支援者から質問を受け付け、支援者に質問を提供することはできない。
【0013】
特許文献3、4および5に開示されている技術では、話者の発話音声を文字情報に変換することにより、被支援者に、被支援者が認識可能な形で、話者の発話音声を提供することが可能となり、被支援者の文字または手話の入力により、質問を受け付けることが可能となる。しかし、講師以外の第三者である、支援者に質問を提供することはできない。
【0014】
特許文献6に開示されている技術では、被支援者と講師の間で、文字での質問と回答のやりとりが可能であるが、被支援者の質問に、講師が口頭で回答した場合には、被支援者に、被支援者が認識可能な形で、講師の回答を提供することができない。また、講師以外の第三者である、支援者に質問を提供することはできない。
【0015】
本発明は、上述の事情に鑑みてなされたものであり、被支援者に、被支援者が認識できる視覚表示可能な情報を提供し、また、被支援者から支援者に対する質問を受け付け、支援者に伝えることを目的とする。
【課題を解決するための手段】
【0016】
上記目的を達成するため、本発明の第1の観点に係る理解支援システムは、
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得手段と、
前記音声信号から、前記発話音声を再生する、講義内容再生手段と、
前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力手段と、
前記支援情報を被支援者に表示する、支援情報表示手段と、
前記被支援者から、質問情報の入力を受け付ける、質問取得手段と、
入力された前記質問情報を、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示手段と、
を備えることを特徴とする。
【0017】
本発明の第2の観点に係る支援端末は、
講師を含む、話者の発話音声から生成された音声信号を受信する、講義内容受信手段と、
前記音声信号から、前記発話音声を再生する、講義内容再生手段と、
前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力手段と、
前記支援情報を、被支援者に表示、または被支援端末に送信する、支援情報表示手段と、
前記被支援者から入力を受け付けた質問情報を受信する、質問受信手段と、
前記質問情報を、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示手段と、
を備えることを特徴とする。
【0018】
本発明の第3の観点に係る理解支援方法は、
聴覚障がい者が、話者の発話音声を理解することを支援する、理解支援システムが行う理解支援方法であって、
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を被支援者に表示する、支援情報表示ステップと、
前記被支援者から、質問情報の入力を受け付ける、質問取得ステップと、
入力された前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を備えることを特徴とする。
【0019】
本発明の第4の観点に係る理解支援方法は、
聴覚障がい者が、話者の発話音声を理解することを支援するための、支援情報の入力を受け付ける、支援端末が行う理解支援方法であって、
講師を含む、話者の発話音声から生成された音声信号を受信する、講義内容受信ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を、被支援者に表示、または被支援端末に送信する、支援情報表示ステップと、
前記被支援者から入力を受け付けた質問情報を受信する、質問受信ステップと、
前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を備えることを特徴とする。
【0020】
本発明の第5の観点に係るプログラムは、コンピュータに、
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を被支援者に表示する、支援情報表示ステップと、
前記被支援者から、質問情報の入力を受け付ける、質問取得ステップと、
入力された前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を実行させることを特徴とする。
【発明の効果】
【0021】
本発明によれば、被支援者に、被支援者が認識できる視覚表示可能な情報を提供し、また、被支援者から支援者に対する質問を受け付け、支援者に伝えることが可能となる。
【図面の簡単な説明】
【0022】
【図1】本発明の実施の形態に係る理解支援システムの構成例を示すブロック図である。
【図2】実施の形態に係る講義出力部における表示例を示す図である。
【図3】実施の形態に係る被支援側出力部における表示例を示す図である。
【図4】実施の形態に係る理解支援の動作の一例を示すフローチャートである。
【図5】実施の形態に係る質問支援の動作の一例を示すフローチャートである。
【図6】実施の形態に係る各端末の物理的構成例を示すブロック図である。
【発明を実施するための形態】
【0023】
以下、本発明の実施の形態について図面を参照して詳細に説明する。なお図中、同一または同等の部分には同一の符号を付す。
【0024】
図1は、本発明の実施の形態に係る理解支援システムの構成例を示すブロック図である。理解支援システム1は、1または2以上の講師端末100、1または2以上の支援端末200、および、1または2以上の被支援端末300を備える。講師端末100、支援端末200、および被支援端末300は、物理的に離れて存在し、それぞれ互いに、ネットワーク2で接続されている。ネットワーク2には、LAN、WAN、インターネットなどの規格を用いることができる。
【0025】
理解支援システム1は、講師端末100、支援端末200、および被支援端末300が協働して、被支援者に、講師を含む、話者の発話音声に基づき、支援者から、例えば、発話音声の要約の文字情報や理解を支援するための図のように、被支援者が認識できる視覚表示可能な支援情報の入力を受け付け、被支援者に提供する、理解支援を行う。また、被支援者から支援者に対する質問を受け付け、支援者に伝える、質問支援を行う。支援者および被支援者が、話者と同じ空間にいる場合や、話者と別の空間にいるが、通信装置により講義を視聴できる場合や、支援者および被支援者がそれぞれ録画された講義を視聴している場合などに、理解支援システム1は、理解支援および質問支援を行う。なお質問支援については、さらに、講師に質問を伝えるよう構成してもよい。以下に、講師端末100、支援端末200、および被支援端末300の各部について説明する。
【0026】
講師端末100は、話者の発話音声、および話者の周辺映像または画像の取得を行い、それぞれを基に音声信号および映像信号を生成する端末である。講師端末100は、講師側受信部11、講師側送信部12、講師側出力部13および講義取得部14を備える。
【0027】
講義取得部14は、例えば、複数のビデオカメラやマイクなどの、入力装置を用いて、例えば、講師の口頭での説明、被支援者以外の聴講者の口頭での質問、および講師の口頭での回答などの、講師を含む話者の発話音声を取得し、音声信号を生成する。また、例えば、講師を含む話者の周辺映像または画像を取得し、映像信号を生成する。入力装置は、講師端末100に設けられ、または、講師端末100の外部に設けられ講師端末100に接続されている。講義取得部14は、生成した音声信号および映像信号を、講師側送信部12に送る。講師側送信部12は、送られた音声信号および映像信号を、支援端末200に送信する。
【0028】
講師側受信部11は、支援端末200、および/または、被支援端末300が送信した、被支援者の質問を受信し、講師側出力部13に送る。講師側出力部13は、講師側受信部11から送られた被支援者の質問を出力する。
【0029】
支援端末200は、音声信号および映像信号に基づき、話者の発話音声および話者の周辺映像または画像を出力し、支援者から、発話音声の要約や被支援者の質問に対する回答を含む、視覚表示可能な支援情報、および話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付ける端末である。支援端末200は、講義受信部21、支援側送信部22、講義出力部23、支援部24、支援側入力部25、質問受信部28、および質問出力部29を備える。支援部24は、編集部26および重畳部27を備える。講義受信部21は、講師端末100が送信した、音声信号および映像信号、を受信し、講義出力部23および支援部24に送る。
【0030】
講義出力部23は、送られた音声信号および映像信号から、話者の発話音声および話者の周辺映像または画像を再生する。講義取得部14から、講義出力部23への伝送遅延時間の差で、被支援者に発話音声が伝達されるのと同時に、講義出力部23は、音声信号から発話音声を再生する。また、支援者および被支援者がライブで講義を視聴している場合には、講義取得部14から、講義出力部23への伝送遅延時間の差で、発話音声が発されるのと同時に、講義出力部23は、音声信号から発話音声を再生する。伝送遅延時間には、例えば、発話音声の取得、A/D変換、変調、伝送、復調、D/A変換、再生などの処理にかかる時間が含まれる。
【0031】
話者の発話音声および話者の周辺映像または画像については、例えば、支援者が発話音声を聞きながら、話者の周辺映像または画像の一部を選択して画像を生成する指示、および必要に応じて生成された画像を加工する指示の入力ができるように、再生された発話音声を聞き取ることができる範囲において、講義出力部23は、映像信号から話者の周辺映像または画像を再生する。なお、上述の編集指示として、話者の周辺映像の任意の一部を動画として抽出する指示を受け付けるよう構成してもよい。
【0032】
支援側入力部25は、講義出力部23において再生された発話音声を聞き取ることができる範囲において、発話音声の要約や被支援者の質問に対する回答などの視覚表示可能な支援情報の入力を受け付ける。さらに、話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付ける。支援側入力部25は、受け付けた入力を支援部24に送る。支援部24内の、編集部26は、入力された編集指示に基づき、例えば、話者の周辺映像または画像から選択された画像を生成する。重畳部27は、入力された支援情報に、編集部26において、話者の周辺映像または画像から選択された画像を重畳する。支援部24は、支援情報を、支援側送信部22に送る。
【0033】
なお、講師端末100において、映像を画像に変換して、支援端末200に送信し、支援端末200において、複数の画像から、支援者が選択した画像を支援情報に重畳するよう構成してもよい。視覚表示可能な情報とは、文字に限らず、例えば、手話を撮影した映像や画像などの、視覚的に認識可能な情報が含まれる。
【0034】
質問受信部28は、被支援端末300から、被支援者の質問を受信し、支援側送信部22および質問出力部29に送る。質問出力部29は、講義出力部23において再生された、発話音声を聞き取ることができる範囲において、送られた質問を出力する。
【0035】
支援側送信部22は、送られた支援情報を、被支援端末300に送信する。支援側入力部25から、支援側送信部22への処理遅延時間の差で、支援情報の入力の受け付けと同時に、被支援端末300に支援情報を送信する。処理遅延時間には、例えば、話者の周辺映像または画像から選択された画像の生成、支援情報への画像の重畳、伝送などの処理にかかる時間が含まれる。支援側送信部22は、支援者から、被支援者の質問を講師端末100に送る旨の入力を受け付けた場合は、送られた被支援者の質問を講師端末100に転送する。
【0036】
図2は、実施の形態に係る講義出力部における表示例を示す図である。話者の周辺映像または画像が講義内容エリアに出力され、被支援者の質問が質問エリアに出力される。編集エリアは、編集指示に基づき話者の周辺映像または画像から選択された画像を出力する。入力された視覚表示可能な支援情報は、支援情報入力エリアに出力される。なお、上述の出力方法は一例であり、例えば、入力された視覚表示可能な支援情報と話者の周辺映像または画像から選択された画像を同じエリアに出力するよう構成してもよい。
【0037】
図1の被支援端末300は、被支援者からの質問の入力を受け付け、支援情報および被支援者の質問を出力する端末である。被支援端末300は、被支援側受信部31、被支援側送信部32、被支援側出力部33、質問部34、および被支援側記憶部35を備える。被支援側受信部31は、支援端末200が送信した、支援情報を受信し、被支援側出力部33および被支援側記憶部35に送る。
【0038】
質問部34は、被支援者からの、質問の入力を受け付け、被支援側送信部32、被支援側出力部33、および被支援側記憶部35に送る。被支援側送信部32は、送られた被支援者の質問を、支援端末200に送信する。なお、被支援者の質問を、被支援端末300から講師端末100に送信するよう構成してもよい。
【0039】
被支援側出力部33は、送られた支援情報および被支援者の質問を出力する。被支援側出力部33は、支援情報に含まれる複数の情報、例えば、発話音声の要約や回答などの文字入力と、話者の周辺映像または画像から選択された画像を共に出力する。また、被支援者の質問の入力を受け付けた場合には、支援情報と被支援者の質問を共に出力する。支援側入力部25から、被支援側出力部33への処理遅延時間の差で、支援情報の入力の受け付けと同時に、被支援側出力部33は、支援情報を出力する。処理遅延時間には、例えば、話者の周辺映像または画像からの画像の選択、支援情報への画像の重畳、伝送などの処理にかかる時間が含まれる。
【0040】
図3は、実施の形態に係る被支援側出力部における表示例を示す図である。支援情報に含まれる話者の周辺映像または画像から選択された画像や視覚表示可能な支援情報として入力された画像などが、画像エリアに出力される。支援情報に含まれる視覚表示可能な支援情報として入力された文字情報が文字エリアに出力される。また、被支援者から入力を受け付けた質問は、質問エリアに出力される。なお、上述の出力方法は一例であり、例えば、入力された文字情報と話者の周辺映像または画像から選択された画像を同じエリアに出力するよう構成してもよい。
【0041】
図1の被支援側記憶部35は、送られた支援情報および被支援者の質問を記憶する。被支援側記憶部35は、支援情報に含まれる、入力された視覚表示可能な支援情報と、話者の周辺映像または画像から選択された画像との関連づけを保持したまま記憶する。また、被支援者の質問の入力を受け付けた場合には、支援情報と被支援者の質問の関連づけを保持したまま記憶する。
【0042】
これにより、被支援側記憶部35に記憶されたデータを読み込むことで、例えば、講義後に、被支援側出力部33が、支援情報に含まれる、入力された発話音声の要約の文字情報または回答と、話者の周辺映像または画像から選択された画像とを共に出力することが可能となる。また、支援情報と支援情報に対する被支援者の質問を共に出力することも可能となる。
【0043】
図1を用いて説明した、理解支援および質問支援の動作について、順に説明する。図4は、実施の形態に係る理解支援の動作の一例を示すフローチャートである。講師端末100、支援端末200、および被支援端末300が協働して、理解支援を行う。講師端末100は、話者の発話音声および話者の周辺映像または画像の取得を行い、それぞれを基に音声信号および映像信号を生成する(ステップS101)。講師端末100は、音声信号および映像信号を、支援端末200に送信する(ステップS102)。講師端末100は、音声信号および映像信号の送信(ステップS102)が完了すると、ステップS101に戻る。
【0044】
支援端末200は、講師端末100から、音声信号および映像信号を受信する(ステップS201)。支援端末200は、音声信号および映像信号から、話者の発話音声および話者の周辺映像または画像を再生する(ステップS202)。支援端末200は、支援者から、視覚表示可能な支援情報および編集指示の入力を受け付け、支援情報に話者の周辺映像または画像から選択された画像を重畳する(ステップS203)。支援端末200は、支援情報を、被支援端末300に送信する(ステップS204)。支援端末200は、支援情報送信(ステップS204)が完了すると、ステップS201に戻る。
【0045】
被支援端末300は、支援端末200から、支援情報を受信する(ステップS301)。被支援端末300は、支援情報を出力する(ステップS302)。被支援端末300は、支援情報を記憶する(ステップS303)。被支援端末300は、支援情報記憶(ステップS303)が完了すると、ステップS301に戻る。なお、ステップS302およびステップS303の順序は問わない。また、ステップS302およびステップS303を並行して行うよう構成してもよい。
【0046】
理解支援システム1は、上述の処理を繰り返し行い、理解支援を行う。
【0047】
図5は、実施の形態に係る質問支援の動作の一例を示すフローチャートである。講師端末100、支援端末200、および被支援端末300が協働して、質問支援を行う。被支援者の質問を支援端末200において受信し、講師端末100に転送せず支援者が回答する場合、講師端末100に転送する場合のそれぞれについて、説明する。
【0048】
(講師に転送せず、支援者が被支援者の質問に回答)
被支援端末300は、被支援者から、質問の入力を受け付ける(ステップS401、S402:質問入力)。被支援端末300は、被支援者の質問を支援端末200に送信する(ステップS403)。被支援端末300は、被支援者の質問を記憶する(ステップS404)。被支援者の質問の記憶(ステップS404)が完了すると、被支援端末300は、ステップS401に戻る。なお、ステップS403およびステップS404の順序は問わない。また、ステップS403およびステップS404を並行して行うよう構成してもよい。
【0049】
支援端末200は、被支援端末300から、被支援者の質問を受信する(ステップS501)。支援端末200は、被支援者の質問を出力する(ステップS502)。
【0050】
支援端末200は、被支援者の質問を講師端末100に転送するか否かの入力を受け付ける(ステップS503)。転送しない旨の入力を受け付けた場合は(ステップS503:NO)、支援者から、視覚表示可能な支援情報、および話者の周辺映像または画像に対する編集指示の入力を受け付け、話者の周辺映像または画像から選択された画像を支援情報に重畳する(ステップS504)。支援端末200は、支援情報を、被支援端末300に送信する(ステップS505)。支援端末200は、支援情報送信(ステップS505)が完了すると、ステップS501に戻る。
【0051】
被支援端末300は、支援端末200から、支援情報を受信する(ステップS401、S402:支援情報受信)。被支援端末300は、支援情報を出力する(ステップS405)。被支援端末300は、支援情報を記憶する(ステップS406)。被支援端末300は、支援情報記憶(ステップS406)が完了すると、ステップS401に戻る。なお、ステップS405およびステップS406の順序は問わない。また、ステップS405およびステップS406を並行して行うよう構成してもよい。
【0052】
(講師に質問を転送)
支援者が被支援者の質問に回答する場合と同様に、被支援端末300は、被支援者から、質問の入力を受け付ける(ステップS401、S402:質問入力)。被支援端末300は、被支援者の質問を支援端末200に送信する(ステップS403)。被支援端末300は、被支援者の質問を記憶する(ステップS404)。被支援者の質問の記憶(ステップS404)が完了すると、被支援端末300は、ステップS401に戻る。
【0053】
支援者が被支援者の質問に回答する場合と同様に、支援端末200は、被支援端末300から、被支援者の質問を受信する(ステップS501)。支援端末200は、被支援者の質問を出力する(ステップS502)。
【0054】
支援端末200は、被支援者の質問を講師端末100に転送するか否かの入力を受け付ける(ステップS503)。転送する旨の入力を受け付けた場合は(ステップS503:YES)、被支援者の質問を講師端末100に転送する(ステップS506)。被支援者の質問の転送(ステップS506)が完了すると、支援端末200は、ステップS501に戻る。なお質問の転送(ステップS506)が完了した後に、上述のステップS504、S505を行い、支援者が質問に回答するよう構成してもよい。
【0055】
講師端末100は、支援端末200から、被支援者の質問を受信する(ステップS601)。講師端末100は、被支援者の質問を出力する(ステップS602)。講師端末100は、被支援者の質問の出力(ステップS602)が完了すると、ステップS601に戻る。講師端末100が行う被支援者の質問の出力(ステップS602)により、講師が被支援者の質問を確認することが可能となる。その後、講師の口頭での回答は、図4の講師端末100が行うステップS101において取得され、図4を用いて説明した理解支援が行われる。そして、図4を用いて説明したとおり、被支援端末300に、支援情報が出力され、被支援者が講師の回答を認識することが可能となる。
【0056】
理解支援システム1は、上述の処理を繰り返し行い、質問支援を行う。
【0057】
以上説明したとおり、本発明の実施の形態に係る理解支援システム1が、被支援者に、被支援者が認識できる視覚表示可能な情報を提供することで、被支援者が講義内容を理解することを支援することが可能となる。また、被支援者から質問を受け付け、支援者および/または講師に提供し、被支援者が認識可能な形で、支援者および/または講師の回答を提供することで、被支援者が回答を理解することを支援することが可能となる。
【0058】
本発明の実施の形態は上述の実施の形態に限られない。上述の実施の形態においては、各端末が出力部を備えていたが、例えば大型スクリーンのような、出力装置を講師端末100、支援端末200および被支援端末300が共有するよう構成してもよい。
【0059】
図6は、本発明の実施の形態に係る各端末の物理的な構成例を示すブロック図である。講師端末100、支援端末200および被支援端末300は、図6に示すように、制御部41、主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46、および送受信部47を備える。主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46および送受信部47はいずれも内部バス40を介して制御部41に接続されている。
【0060】
制御部41はCPU(Central Processing Unit)などから構成され、外部記憶部43に記憶されている制御プログラム48に従って、講師端末100、支援端末200、および被支援端末300が行う理解支援および質問支援を実行する。
【0061】
主記憶部42はRAM(Random-Access Memory)などから構成され、外部記憶部43に記憶されている制御プログラム48をロードし、制御部41の作業領域として用いられる。
【0062】
外部記憶部43は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)などの不揮発性メモリから構成され、上述の処理を制御部41に行わせるための制御プログラム48を予め記憶し、また、制御部41の指示に従って、この制御プログラム48が記憶するデータを制御部41に供給し、制御部41から供給されたデータを記憶する。
【0063】
操作部44はキーボードおよびマウスまたはタッチパネルなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス40に接続するインタフェース装置から構成されている。操作部44を介して、視覚表示可能な支援情報、話者の周辺映像または画像に対する編集指示、および被支援者の質問などの入力を受け付ける。
【0064】
表示部45は、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)もしくは有機ELディスプレイ、およびスピーカなどから構成され、例えば、話者の発話音声、話者の周辺映像または画像、被支援者の質問、および支援情報などを出力する。
【0065】
入出力部46は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部46に、例えば、ビデオカメラやマイクなどが接続され、話者の発話音声、および話者の周辺映像または画像を取得する。
【0066】
送受信部47は、無線送受信機、無線モデムまたは網終端装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。講師端末100、支援端末200、および被支援端末300は、それぞれ送受信部47を介して、ネットワーク2に接続し、相互の通信を行う。
【0067】
講師端末100、支援端末200、および被支援端末300の処理は、制御プログラム48が、制御部41、主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46、送受信部47などを資源として用いて処理することによって実行する。
【0068】
その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
【0069】
制御部41、主記憶部42、外部記憶部43、内部バス40などから構成される制御処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROMなど)に格納して配布し、前記コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する講師端末100、支援端末200、および被支援端末300を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に前記コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで講師端末100、支援端末200、および被支援端末300を構成してもよい。
【0070】
また、講師端末100、支援端末200、および被支援端末300の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
【0071】
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
【0072】
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0073】
(付記1)
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得手段と、
前記音声信号から、前記発話音声を再生する、講義内容再生手段と、
前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力手段と、
前記支援情報を被支援者に表示する、支援情報表示手段と、
前記被支援者から、質問情報の入力を受け付ける、質問取得手段と、
入力された前記質問情報を、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示手段と、
を備えることを特徴とする理解支援システム。
【0074】
(付記2)
前記講義内容取得手段は、前記話者の発話音声に加えて、前記話者の、周辺映像または画像を取得して映像信号を生成し、
前記講義内容再生手段は、再生された前記発話音声を聞き取ることができる範囲において、前記映像信号から、前記話者の周辺映像または画像を再生し、
前記支援情報入力手段は、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、前記話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付け、前記話者の周辺映像または画像から選択された画像を前記支援情報に重畳する、
ことを特徴とする付記1に記載の理解支援システム。
【0075】
(付記3)
前記講義内容再生手段は、前記講義内容取得手段から前記講義内容再生手段への、前記音声信号の伝送遅延時間の差で、前記発話音声が発されるのと同時に、前記音声信号から前記発話音声を再生する、
ことを特徴とする付記1または2に記載の理解支援システム。
【0076】
(付記4)
前記支援情報入力手段は、前記視覚表示可能な支援情報として、文字、画像もしくは映像、またはこれらの組み合わせ、の入力を受け付ける、
ことを特徴とする付記1ないし3のいずれかに記載の理解支援システム。
【0077】
(付記5)
講師を含む、話者の発話音声から生成された音声信号を受信する、講義内容受信手段と、
前記音声信号から、前記発話音声を再生する、講義内容再生手段と、
前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力手段と、
前記支援情報を、被支援者に表示、または被支援端末に送信する、支援情報表示手段と、
前記被支援者から入力を受け付けた質問情報を受信する、質問受信手段と、
前記質問情報を、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示手段と、
を備えることを特徴とする支援端末。
【0078】
(付記6)
前記講義内容受信手段は、前記音声信号に加え、前記話者の、周辺映像または画像から生成された映像信号を受信し、
前記講義内容再生手段は、再生された前記発話音声を聞き取ることができる範囲において、前記映像信号から、前記話者の周辺映像または画像を再生し、
前記支援情報入力手段は、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、前記話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付け、前記話者の周辺映像または画像から選択された画像を前記支援情報に重畳する、
ことを特徴とする付記5に記載の支援端末。
【0079】
(付記7)
前記支援情報入力手段は、前記視覚表示可能な支援情報として、文字、画像もしくは映像、またはこれらの組み合わせ、の入力を受け付ける、
ことを特徴とする付記5または6に記載の支援端末。
【0080】
(付記8)
聴覚障がい者が、話者の発話音声を理解することを支援する、理解支援システムが行う理解支援方法であって、
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を被支援者に表示する、支援情報表示ステップと、
前記被支援者から、質問情報の入力を受け付ける、質問取得ステップと、
入力された前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を備えることを特徴とする理解支援方法。
【0081】
(付記9)
前記講義内容取得ステップにおいて、前記話者の発話音声に加えて、前記話者の、周辺映像または画像を取得して映像信号を生成し、
前記講義内容再生ステップにおいて、再生された前記発話音声を聞き取ることができる範囲において、前記映像信号から、前記話者の周辺映像または画像を再生し、
前記支援情報入力ステップにおいて、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、前記話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付け、前記話者の周辺映像または画像から選択された画像を前記支援情報に重畳する、
ことを特徴とする付記8に記載の理解支援方法。
【0082】
(付記10)
前記講義内容再生ステップにおいて、前記講義内容取得ステップから前記講義内容再生ステップへの、前記音声信号の伝送遅延時間の差で、前記発話音声が発されるのと同時に、前記音声信号から前記発話音声を再生する、
ことを特徴とする付記8または9に記載の理解支援方法。
【0083】
(付記11)
前記支援情報入力ステップにおいて、前記視覚表示可能な支援情報として、文字、画像もしくは映像、またはこれらの組み合わせ、の入力を受け付ける、
ことを特徴とする付記8ないし10のいずれかに記載の理解支援方法。
【0084】
(付記12)
聴覚障がい者が、話者の発話音声を理解することを支援するための、支援情報の入力を受け付ける、支援端末が行う理解支援方法であって、
講師を含む、話者の発話音声から生成された音声信号を受信する、講義内容受信ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を、被支援者に表示、または被支援端末に送信する、支援情報表示ステップと、
前記被支援者から入力を受け付けた質問情報を受信する、質問受信ステップと、
前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を備えることを特徴とする理解支援方法。
【0085】
(付記13)
前記講義内容受信ステップにおいて、前記音声信号に加え、前記話者の、周辺映像または画像から生成された映像信号を受信し、
前記講義内容再生ステップにおいて、再生された前記発話音声を聞き取ることができる範囲において、前記映像信号から、前記話者の周辺映像または画像を再生し、
前記支援情報入力ステップにおいて、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、前記話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付け、前記話者の周辺映像または画像から選択された画像を前記支援情報に重畳する、
ことを特徴とする付記12に記載の理解支援方法。
【0086】
(付記14)
前記支援情報入力ステップにおいて、前記視覚表示可能な支援情報として、文字、画像もしくは映像、またはこれらの組み合わせ、の入力を受け付ける、
ことを特徴とする付記12または13に記載の理解支援方法。
【0087】
(付記15)
コンピュータに、
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を被支援者に表示する、支援情報表示ステップと、
前記被支援者から、質問情報の入力を受け付ける、質問取得ステップと、
入力された前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を実行させることを特徴とするプログラム。
【符号の説明】
【0088】
1 理解支援システム
2 ネットワーク
11 講師側受信部
12 講師側送信部
13 講師側出力部
14 講義取得部
21 講義受信部
22 支援側送信部
23 講義出力部
24 支援部
25 支援側入力部
26 編集部
27 重畳部
28 質問受信部
29 質問出力部
31 被支援側受信部
32 被支援側送信部
33 被支援側出力部
34 質問部
35 被支援側記憶部
40 内部バス
41 制御部
42 主記憶部
43 外部記憶部
44 操作部
45 表示部
46 入出力部
47 送受信部
48 制御プログラム
100 講師端末
200 支援端末
300 被支援端末

【特許請求の範囲】
【請求項1】
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得手段と、
前記音声信号から、前記発話音声を再生する、講義内容再生手段と、
前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力手段と、
前記支援情報を被支援者に表示する、支援情報表示手段と、
前記被支援者から、質問情報の入力を受け付ける、質問取得手段と、
入力された前記質問情報を、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示手段と、
を備えることを特徴とする理解支援システム。
【請求項2】
前記講義内容取得手段は、前記話者の発話音声に加えて、前記話者の、周辺映像または画像を取得して映像信号を生成し、
前記講義内容再生手段は、再生された前記発話音声を聞き取ることができる範囲において、前記映像信号から、前記話者の周辺映像または画像を再生し、
前記支援情報入力手段は、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、前記話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付け、前記話者の周辺映像または画像から選択された画像を前記支援情報に重畳する、
ことを特徴とする請求項1に記載の理解支援システム。
【請求項3】
前記講義内容再生手段は、前記講義内容取得手段から前記講義内容再生手段への、前記音声信号の伝送遅延時間の差で、前記発話音声が発されるのと同時に、前記音声信号から前記発話音声を再生する、
ことを特徴とする請求項1または2に記載の理解支援システム。
【請求項4】
前記支援情報入力手段は、前記視覚表示可能な支援情報として、文字、画像もしくは映像、またはこれらの組み合わせ、の入力を受け付ける、
ことを特徴とする請求項1ないし3のいずれか1項に記載の理解支援システム。
【請求項5】
講師を含む、話者の発話音声から生成された音声信号を受信する、講義内容受信手段と、
前記音声信号から、前記発話音声を再生する、講義内容再生手段と、
前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力手段と、
前記支援情報を、被支援者に表示、または被支援端末に送信する、支援情報表示手段と、
前記被支援者から入力を受け付けた質問情報を受信する、質問受信手段と、
前記質問情報を、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示手段と、
を備えることを特徴とする支援端末。
【請求項6】
前記講義内容受信手段は、前記音声信号に加え、前記話者の、周辺映像または画像から生成された映像信号を受信し、
前記講義内容再生手段は、再生された前記発話音声を聞き取ることができる範囲において、前記映像信号から、前記話者の周辺映像または画像を再生し、
前記支援情報入力手段は、前記講義内容再生手段で再生された、前記発話音声を聞き取ることができる範囲において、前記話者の周辺映像または画像からの画像の選択を含む、編集指示の入力を受け付け、前記話者の周辺映像または画像から選択された画像を前記支援情報に重畳する、
ことを特徴とする請求項5に記載の支援端末。
【請求項7】
前記支援情報入力手段は、前記視覚表示可能な支援情報として、文字、画像もしくは映像、またはこれらの組み合わせ、の入力を受け付ける、
ことを特徴とする請求項5または6に記載の支援端末。
【請求項8】
聴覚障がい者が、話者の発話音声を理解することを支援する、理解支援システムが行う理解支援方法であって、
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を被支援者に表示する、支援情報表示ステップと、
前記被支援者から、質問情報の入力を受け付ける、質問取得ステップと、
入力された前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を備えることを特徴とする理解支援方法。
【請求項9】
聴覚障がい者が、話者の発話音声を理解することを支援するための、支援情報の入力を受け付ける、支援端末が行う理解支援方法であって、
講師を含む、話者の発話音声から生成された音声信号を受信する、講義内容受信ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を、被支援者に表示、または被支援端末に送信する、支援情報表示ステップと、
前記被支援者から入力を受け付けた質問情報を受信する、質問受信ステップと、
前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を備えることを特徴とする理解支援方法。
【請求項10】
コンピュータに、
講師を含む、話者の発話音声を取得して音声信号を生成する、講義内容取得ステップと、
前記音声信号から、前記発話音声を再生する、講義内容再生ステップと、
前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、視覚表示可能な支援情報の入力を受け付ける、支援情報入力ステップと、
前記支援情報を被支援者に表示する、支援情報表示ステップと、
前記被支援者から、質問情報の入力を受け付ける、質問取得ステップと、
入力された前記質問情報を、前記講義内容再生ステップで再生された、前記発話音声を聞き取ることができる範囲において、表示する、質問表示ステップと、
を実行させることを特徴とするプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate