説明

診断ロボット、診断ロボットの制御方法及び制御プログラム

【課題】例えば、会話を十分に行うことができない子供の患部を探し当てることができる診断ロボット、診断ロボットの制御方法及び制御プログラムを得ることを目的とする。
【解決手段】押し当て部5により触診用部材であるロボットの指23aが押し当てられている状態にあるときのユーザの反応を観測する反応観測部6を設け、患部認定部7が触診ポイント設定部4により設定された触診ポイントP1〜PNの中で、反応観測部6により観測されたユーザの反応が最も大きい触診ポイントPmaxを特定して、その触診ポイントPmaxを患部に認定する。

【発明の詳細な説明】
【技術分野】
【0001】
この発明は、例えば、会話を十分に行うことができない子供(例えば、1〜3歳児)の患部を探し当てる診断ロボット、診断ロボットの制御方法及び制御プログラムに関するものである。
【背景技術】
【0002】
従来の診断ロボットは、車両の診断部位を撮影する撮影部と、正常時における撮影画像を保持する画像保持部とを搭載し、撮影部により撮影された診断部位の撮影画像と正常時における撮影画像を比較して、その診断部位の故障を診断するものである(例えば、特許文献1を参照)。
即ち、従来の診断ロボットは、あくまでも、車両などの機械の故障を診断するものであって、人間を診断するものとは本質的に異なっている。
【0003】
【特許文献1】特開2005−324267号公報(段落番号[0038]、図1)
【発明の開示】
【発明が解決しようとする課題】
【0004】
従来の診断ロボットは以上のように構成されているので、車両などの機械の故障を診断することができるが、例えば、会話を十分に行うことができない子供(例えば、1〜3歳児)の患部を探し当てることができないなどの課題があった。
【0005】
この発明は上記のような課題を解決するためになされたもので、例えば、会話を十分に行うことができない子供の患部を探し当てることができる診断ロボット、診断ロボットの制御方法及び制御プログラムを得ることを目的とする。
【課題を解決するための手段】
【0006】
請求項1記載の発明に係る診断ロボットは、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測手段を設け、患部認定手段が触診ポイント設定手段により設定された1以上の触診ポイントの中で、反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するようにしたものである。
【0007】
請求項1記載の発明によれば、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果が得られる。
【0008】
請求項2記載の発明に係る診断ロボットは、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザを撮影し、ユーザの映像の変化量をユーザの反応として観測するようにしたものである。
【0009】
請求項2記載の発明によれば、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果が得られる。
【0010】
請求項3記載の発明に係る診断ロボットは、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの声を集音し、その声の音量をユーザの反応として観測するようにしたものである。
【0011】
請求項3記載の発明によれば、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果が得られる。
【0012】
請求項4記載の発明に係る診断ロボットは、患部認定手段により認定された患部の位置を示す情報を閲覧可能な記録媒体に登録する患部情報登録手段を設けるようにしたものである。
【0013】
請求項4記載の発明によれば、例えば、家族や医師などが本格的な治療を行う前に、患部を把握することができる効果が得られる。
【0014】
請求項5記載の発明に係る診断ロボットは、押し当て手段が触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる際、ユーザに問い掛けを行うようにしたものである。
【0015】
請求項5記載の発明によれば、触診が行われている旨をユーザが容易に理解することができる効果が得られる。
【0016】
請求項6記載の発明に係る診断ロボットは、ユーザのバイタルを測定し、そのバイタルを示す情報を閲覧可能な記録媒体に登録するバイタル情報登録手段を設けるようにしたものである。
【0017】
請求項6記載の発明によれば、例えば、家族や医師などが患者の状態を容易に把握することができる効果が得られる。
【0018】
請求項7記載の発明に係る診断ロボットの制御方法は、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測ステップを設け、患部認定手段が触診ポイント設定手段により設定された1以上の触診ポイントの中で、反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するようにしたものである。
【0019】
請求項7記載の発明によれば、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果が得られる。
【0020】
請求項8記載の発明に係る診断ロボットの制御プログラムは、押し当て処理手順により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測処理手順を設け、患部認定処理手順が触診ポイント設定処理手順により設定された1以上の触診ポイントの中で、反応観測処理手順により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するようにしたものである。
【0021】
請求項8記載の発明によれば、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果が得られる。
【発明の効果】
【0022】
この発明によれば、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測手段を設け、患部認定手段が触診ポイント設定手段により設定された1以上の触診ポイントの中で、反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するように構成したので、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果がある。
【発明を実施するための最良の形態】
【0023】
実施の形態1.
図1はこの発明の実施の形態1による診断ロボットの内部を示す構成図であり、図1において、カルテ記録部1は例えば家族や医師などが携帯端末やパソコンなどを使用して閲覧することが可能な電子的な記録媒体であり、患者の個人情報(例えば、氏名、年齢、住所、電話番号、血液型、体型(身長、体重、座高、胸囲、腹囲、腰囲など))が記録されているカルテを記憶している。なお、カルテ記録部1は電子的な記録媒体であれば、メディアの種別は如何なるものであってもよい。したがって、例えば、ハードディスクや、データベースなどで構成することができる。
患者情報入力受付部2は例えばキーボードやマウスなどのマンマシンインタフェースから構成されており、患者である子供の個人情報(例えば、氏名)の入力を受け付ける処理を実施する。
【0024】
体型把握部3は患者情報入力受付部2により入力が受け付けられた個人情報をキーにして、カルテ記録部1から患者である子供の体型情報を収集する処理を実施する。
ただし、体型把握部3は、例えば子供だけが自宅にいるような状況では、子供が患者情報入力受付部2を操作して、個人情報の入力を行うことができないので、例えば、内蔵しているカメラ3aを用いて、患者である子供を撮影し、子供の映像を解析して体型を把握する。
触診ポイント設定部4は体型把握部3により収集された子供の体型情報を参照して、N箇所の触診ポイントPn(n=1,2,・・・,N)を設定する処理を実施する。
なお、患者情報入力受付部2、体型把握部3及び触診ポイント設定部4から触診ポイント設定手段が構成されている。
【0025】
押し当て部5は例えばロボットの手を駆動するアクチュエータを制御して、触診ポイント設定部4により設定された触診ポイントP1〜PNにロボットの手を押し当てる処理を実施する。なお、押し当て部5は押し当て手段を構成している。
反応観測部6は例えばカメラ6aと画像解析部6bから構成されており、押し当て部5によりロボットの手が押し当てられている状態にあるときのユーザの反応を観測する処理を実施する。なお、反応観測部6は反応観測手段を構成している。
反応観測部6のカメラ6aは押し当て部5によりロボットの手が押し当てられている状態にあるときのユーザを撮影し、ユーザの映像を出力する。
反応観測部6の画像解析部6bはカメラ6aから出力されたユーザの映像の変化量C1〜CNを解析し、その変化量C1〜CNをユーザの反応の観測量としてメモリ6cに格納する。
【0026】
患部認定部7は触診ポイント設定部4により設定された触診ポイントP1〜PNの中で、反応観測部6により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する処理を実施する。なお、患部認定部7は患部認定手段を構成している。
患部情報登録部8は患部認定部7により認定された患部の位置を示す情報をカルテ記録部1に登録する処理を実施する。なお、患部情報登録部8は患部情報登録手段を構成している。
【0027】
図1の例では、診断ロボットの構成要素である体型把握部3、触診ポイント設定部4、押し当て部5、反応観測部6、患部認定部7及び患部情報登録部8が専用のハードウェア(例えば、CPUなどのICが搭載されている半導体集積回路基板)から構成されているものを想定しているが、診断ロボットがコンピュータから構成されている場合、体型把握部3、触診ポイント設定部4、押し当て部5、反応観測部6、患部認定部7及び患部情報登録部8の処理内容(体型把握処理手順、触診ポイント設定処理手順、押し当て処理手順、反応観測処理手順、患部認定処理手順、患部情報登録処理手順)が記述されている制御プログラムをメモリに格納し、コンピュータのCPUが当該メモリに格納されている制御プログラムを実行するようにしてもよい。
【0028】
図2はこの発明の実施の形態1による診断ロボットを示す正面図であり、図3はこの発明の実施の形態1による診断ロボットを示す側面図である。
図2及び図3では、手のひら又は指を患者である子供に押し当てて、患部を探し当てる診断ロボットの例を示している。
図2及び図3において、診断ロボットの上腕部21a,21bは一端が可動自在に肩関節部24a,24bに取り付けられており、下腕部22a,22bは一端が可動自在に肘関節部25a,25bに取り付けられている。
また、診断ロボットの指23a,23bは一端が可動自在に手首関節部26a,26bに取り付けられている。
【0029】
肩関節部24a,24bは押し当て部5の指示の下、例えば、上腕部21a,21bを矢印A方向に回転させるアクチュエータや、上腕部21a,21bを矢印B方向にスイングさせるアクチュエータなどからなる機械要素である。
肘関節部25a,25bは押し当て部5の指示の下、例えば、下腕部22a,22bを矢印C方向に回転させるアクチュエータなどからなる機械要素である。
手首関節部26a,26bは押し当て部5の指示の下、例えば、指23a,23bを上げたり下げたりさせるアクチュエータなどからなる機械要素である。
なお、診断ロボットの目27aには体型把握部3のカメラ3aが搭載され、診断ロボットの目27bには反応観測部6のカメラ6aが搭載されている。
また、診断ロボットの口28にはスピーカ9が搭載されている。
図4はこの発明の実施の形態1による診断ロボットの制御方法を示すフローチャートである。
【0030】
次に動作について説明する。
例えば、病院の待合室において、診断ロボットを使用して、医師の診察に先立って患部を事前に把握するような状況下では、例えば、医療事務員や看護師が診断ロボットの患者情報入力受付部2を操作して、患者である子供の個人情報(例えば、氏名)を入力する(ステップST1)。
体型把握部3は、患者情報入力受付部2が患者である子供の個人情報の入力を受け付けると、その個人情報をキーにして、カルテ記録部1から子供の体型情報を収集し、その体型情報を参照して子供の体型を把握する(ステップST2)。
ここで、子供の体型情報は、子供の身長、体重、座高、胸囲、腹囲、腰囲などが示されている情報である。
【0031】
体型把握部3は、子供の個人情報がカルテ記録部1に登録されておらず、カルテ記録部1から子供の体型情報を収集することができない場合や、患者情報入力受付部2を操作して、患者である子供の個人情報を入力することができない場合(例えば、子供だけが自宅にいるような状況下では、個人情報を入力することができないものと考えられる)には、内蔵しているカメラ3aを用いて、患者である子供を撮影し、子供の映像を解析して体型を把握する。即ち、映像を解析して、子供の身長、座高、胸囲や腹囲などを測定する。
なお、カメラ3aが子供を撮影する際、カメラ3aから子供までの距離を測定すれば、その距離と映像中の子供の大きさとを比較すれば、子供の身長や座高などを計算することができる。
【0032】
ただし、体型把握部3は、カメラ3aが子供を撮影して、子供の体型を把握する際、子供が直立しておらず、例えば、うずくまっているような状況下では、子供の映像を解析しても、体型を把握することができないので、例えば、起き上がって直立の姿勢をとるように指示するメッセージをスピーカ9から音声出力する。
言うまでもないが、“直立の姿勢”はあくまでも一例に過ぎず、例えば、仰向けで寝る姿勢や、椅子の腰掛ける姿勢でもよい。
【0033】
触診ポイント設定部4は、体型把握部3が子供の体型を把握すると、子供の体型に応じてN箇所の触診ポイントP1〜PNを設定する(ステップST3)。
例えば、子供の胴体の中から患部を探し当てる場合、図5に示すように、子供の座高と、胸囲又は腹囲とを基準にして、縦方向と横方向に等間隔に触診ポイントP1〜PNを設定する。
図5では、縦方向に5ポイント、横方向に6ポイントを設定する例を示している。ただし、これはあくまでも一例であり、縦方向に6ポイント以上、横方向に7ポイント以上を設定するようにしてもよい。
【0034】
押し当て部5は、触診ポイント設定部4が触診ポイントP1〜PNを設定すると、例えば、ロボットの指23aを触診用部材として使用する設定がなされている場合、肩関節部24a,肘関節部25a及び手首関節部26aを制御して、上腕部21a,下腕部22a及び指23aを駆動することにより、ロボットの指23aを触診ポイントP1まで移動し、その触診ポイントP1にロボットの指23aを押し当てるようにする(ステップST4)。
【0035】
反応観測部6は、押し当て部5がロボットの指23aを触診ポイントP1に押し当てているとき、ユーザの反応を観測する(ステップST5)。
即ち、反応観測部6のカメラ6aは、押し当て部5がロボットの指23aを触診ポイントP1に押し当てているとき、ユーザを撮影し、ユーザの映像を画像解析部6bに出力する。
反応観測部6の画像解析部6bは、カメラ6aからユーザの映像を受けると、ユーザの映像の変化量C1を解析し、その変化量C1をユーザの反応の観測量としてメモリ6cに格納する。
例えば、カメラ6aがユーザを時系列に2回撮影し、最新の映像と前回の映像とを比較して、両映像のずれ量を変化量C1として計測する。
【0036】
押し当て部5は、反応観測部6が触診ポイントP1におけるユーザの反応を観測すると、再度、肩関節部24a,肘関節部25a及び手首関節部26aを制御して、上腕部21a,下腕部22a及び指23aを駆動することにより、ロボットの指23aを触診ポイントP2まで移動し、その触診ポイントP2にロボットの指23aを押し当てるようにする(ステップST4)。
反応観測部6は、押し当て部5がロボットの指23aを触診ポイントP2に押し当てているとき、ユーザの映像の変化量C2を解析し、その変化量C2をユーザの反応の観測量としてメモリ6cに格納する(ステップST5)。
押し当て部5及び反応観測部6は、N箇所の触診ポイントP1〜PNにおけるユーザの反応の観測が完了するまで、ステップST4,ST5の処理を繰り返し実施する(ステップST6)。
【0037】
患部認定部7は、反応観測部6が触診ポイントP1〜PNにおけるユーザの反応を観測すると、その触診ポイントP1〜PNにおけるユーザの反応の観測量C1〜CNを比較して、その触診ポイントP1〜PNの中で観測量C1〜CNが最も大きい触診ポイントPmaxを特定し、その触診ポイントPmaxを患部に認定する(ステップST7)
患部情報登録部8は、患部認定部7が患部に認定すると、その患部の位置を示す情報(触診ポイントPmaxの位置)をカルテ記録部1に登録する(ステップST8)。
これにより、例えば、家族や医師などが携帯端末やパソコンなどを使用して、カルテ記録部1をアクセスすれば、患者である子供の患部を把握することができる。
【0038】
以上で明らかなように、この実施の形態1によれば、押し当て部5により触診用部材であるロボットの指23aが押し当てられている状態にあるときのユーザの反応を観測する反応観測部6を設け、患部認定部7が触診ポイント設定部4により設定された触診ポイントP1〜PNの中で、反応観測部6により観測されたユーザの反応が最も大きい触診ポイントPmaxを特定して、その触診ポイントPmaxを患部に認定するように構成したので、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果を奏する。
【0039】
また、この実施の形態1によれば、押し当て部5により触診用部材であるロボットの指23aが押し当てられている状態にあるときのユーザを撮影し、ユーザの映像の変化量C1〜CNをユーザの反応として観測するように構成したので、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果を奏する。
さらに、この実施の形態1によれば、患部情報登録部8が患部認定部7により認定された患部の位置を示す情報をカルテ記録部1に登録するように構成したので、例えば、家族や医師などが本格的な治療を行う前に、患部を把握することができる効果を奏する。
【0040】
なお、この実施の形態1では、ロボットの指23aが触診用部材として使用されるように設定されているものについて示したが、これはあくまでも一例であり、例えば、ロボットの指23b、ロボットの手のひら、ロボットの肘などを触診用部材として使用するように設定してもよい。
触診用部材の設定は、例えば、図示せぬ設定用スイッチがロボットに搭載されていれば実現することができる。
【0041】
この実施の形態1では、子供の患部を認定するものについて示したが、言うまでもないが、子供以外のユーザの患部を認定するようにしてもよい。
【0042】
実施の形態2.
図6はこの発明の実施の形態2による診断ロボットの内部を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
反応観測部6のマイク6dは押し当て部5によりロボットの手が押し当てられている状態にあるときのユーザの声を集音する。
反応観測部6の音量観測部6eはマイク6dにより集音されたユーザの声の音量V1〜VNをユーザの反応の観測量としてメモリ6cに格納する。
【0043】
上記実施の形態1では、反応観測部6のカメラ6aが、押し当て部5によりロボットの指23aが触診ポイントP1〜PNに押し当てられているとき、ユーザを撮影してユーザの映像を画像解析部6bに出力し、画像解析部6bがユーザの映像の変化量C1〜CNを解析し、その変化量C1〜CNをユーザの反応の観測量としてメモリ6cに格納するものについて示したが、以下に示すように、ユーザの声の音量V1〜VNをユーザの反応の観測量としてメモリ6cに格納するようにしてもよい。
【0044】
即ち、反応観測部6のマイク6dは、押し当て部5がロボットの指23aを触診ポイントP1に押し当てているとき、ユーザの声を集音して、その音声信号を音量観測部6eに出力する。
反応観測部6の音量観測部6eは、マイク6dから音声信号を受けると、その音声信号の信号レベルを示す音量V1をユーザの反応の観測量としてメモリ6cに格納する。
ここでは、ロボットの指23aが触診ポイントP1に押し当てている状態のときのユーザの反応を観測するものについて示したが、反応観測部6は、上記実施の形態1と同様に、すべての触診ポイントP1〜PNでのユーザの反応を観測する。
【0045】
患部認定部7は、反応観測部6が触診ポイントP1〜PNにおけるユーザの反応を観測すると、その触診ポイントP1〜PNにおけるユーザの反応の観測量V1〜VNを比較して、その触診ポイントP1〜PNの中で観測量V1〜VNが最も大きい触診ポイントPmaxを特定し、その触診ポイントPmaxを患部に認定する。
【0046】
以上で明らかなように、この実施の形態2によれば、押し当て部5により触診用部材であるロボットの指23aが押し当てられている状態にあるときのユーザの声を集音し、その声の音量V1〜VNをユーザの反応として観測するように構成したので、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果を奏する。
【0047】
実施の形態3.
図7はこの発明の実施の形態3による診断ロボットの内部を示す構成図である。
上記実施の形態1では、反応観測部6がユーザの映像の変化量C1〜CNをユーザの反応の観測量としてメモリ6cに格納し、上記実施の形態2では、ユーザの声の音量V1〜VNをユーザの反応の観測量としてメモリ6cに格納するものについて示したが、ユーザの映像の変化量C1〜CNとユーザの声の音量V1〜VNをポイントに換算し、そのポイントの合計を観測量としてメモリ6cに格納するようにしてもよい。
【0048】
具体的には、以下の通りである。
反応観測部6の画像解析部6bは、上記実施の形態1と同様にして、ユーザの映像の変化量Cnを解析すると、その変化量Cnを閾値Cref1,Cref2と比較し(Cref1>Cref2)、下記に示すように、その比較結果に応じて、その変化量Cnに関するポイントCPnを決定する。
変化量Cn ポイントCPn
n≧Cref1
ref1>Cn≧Cref2
ref2>Cn
【0049】
反応観測部6の音量観測部6eは、上記実施の形態2と同様にして、ユーザの声の音量Vnを観測すると、下記に示すように、その音量Vnのレベルに応じて、その音量Vnに関するポイントVPnを決定する。
音量Vn ポイントVPn
60dB以上 20
59dB〜50dB 15
49dB〜40dB 11
39dB〜30dB 7
29dB〜20dB 3
19dB〜10dB 2
9dB〜 0dB 1
【0050】
したがって、反応観測部6のメモリ6cには、各触診ポイントPnについて、画像解析部6bにより決定されたポイントCPnと、音量観測部6eにより決定されたポイントVPnとの合計Tn(=CPn+VPn)がユーザの反応の観測量として格納される。
患部認定部7は、反応観測部6が触診ポイントP1〜PNにおけるユーザの反応を観測すると、その触診ポイントP1〜PNにおけるユーザの反応の観測量T1〜TNを比較して、その触診ポイントP1〜PNの中で観測量T1〜TNが最も大きい触診ポイントPmaxを特定し、その触診ポイントPmaxを患部に認定する。
この実施の形態3によれば、ユーザの変化量と音声の双方を観測しているので、上記実施の形態1,2よりも、ユーザの反応を正確に捉えることができる効果を奏する。
【0051】
なお、上記実施の形態1〜3では、触診ポイント設定部4が触診ポイントP1〜PNを設定すると、押し当て部5が触診ポイントP1〜PNにロボットの手を押し当てるものについて示したが、押し当て部5が触診ポイントP1〜PNにロボットの手を押し当てる際、例えば「ここが痛いですか?」などの音声出力を行う問い掛けを実施するようにしてもよい。音声出力は、例えば、押し当て部5がスピーカを内蔵し、内蔵のスピーカを通じて出力してもよい。これにより、触診が行われている旨をユーザが容易に理解することができる。
このように、押し当て部5が「ここが痛いですか?」などの問い掛けを実施する場合、患部認定部7は、この問い掛けに対して、ユーザが例えば「うなずく」などの動作を行えば、あるいは、「痛い」などの音声を発すれば、現在、ロボットの手が押し当てている触診ポイントP1〜PNを患部に認定することができる。
なお、ユーザの「うなずく」などの動作は、例えば、患部認定部7がカメラや画像解析部を実装すれば検知することができる。また、ユーザの「痛い」などの音声は、例えば、患部認定部7がマイクや音声認識処理部を実装すれば検知することができる。
【0052】
実施の形態4.
図8はこの発明の実施の形態4による診断ロボットの内部を示す構成図であり、図において、図7と同一符号は同一または相当部分を示すので説明を省略する。
バイタル測定部10は例えば触診用部材であるロボットの指23aに取り付けられているセンサー(例えば、血圧計、体温計、硬度計、心音計、肌色検査器、エコー検査器など)であり、例えば、押し当て部5によりロボットの手が触診ポイントP1〜PNに押し当てられているとき、あるいは、患部認定部7により患部が認定されたとき、子供のバイタルを測定する処理を実施する。ただし、バイタルの測定は、必ずしも反応観測部6が反応を観測している最中である必要はない。
バイタル情報登録部11はバイタル測定部10により測定されたバイタルを示す情報をカルテ記録部1に登録する処理を実施する。
なお、バイタル測定部10及びバイタル情報登録部11からバイタル情報登録手段が構成されている。
【0053】
上記実施の形態1〜3では、患部情報登録部8が患部認定部7により認定された患部の位置を示す情報(触診ポイントPmaxの位置)をカルテ記録部1に登録するものについて示したが、さらに、患者である子供のバイタルを示す情報をカルテ記録部1に登録するようにしてもよい。
即ち、バイタル測定部10は、例えば、押し当て部5によりロボットの手が触診ポイントP1〜PNに押し当てられているとき、あるいは、患部認定部7により患部が認定されたとき、子供のバイタルを測定する。
バイタル情報登録部11は、バイタル測定部10が子供のバイタルを測定すると、そのバイタルを示す情報をカルテ記録部1に登録する。
【0054】
以上で明らかなように、この実施の形態4によれば、患者である子供のバイタルを測定し、そのバイタルを示す情報をカルテ記録部1に登録するように構成したので、例えば、家族や医師などが患者の状態を容易に把握することができる効果を奏する。
【0055】
実施の形態5.
図9はこの発明の実施の形態5による診断ロボットの内部を示す構成図であり、図において、図8と同一符号は同一または相当部分を示すので説明を省略する。
音声出力部12は例えば音声合成装置から構成されており、患者である子供に痛い部位を手で触れることを促すメッセージを音声出力する処理を実施する。なお、音声出力部12は音声出力手段を構成している。
映像登録部13はカメラ13aを実装しており、音声出力部12から音声が出力されたのち、患者である子供が触れている手の位置を撮影して、手の位置の映像をカルテ記録部1に登録する処理を実施する。なお、映像登録部13は映像登録手段を構成している。
【0056】
上記実施の形態1〜4では、患部認定部7が反応観測部6により観測された子供の反応に基づいて患部を認定するものについて示したが、子供の状態によっては、反応が顕著に現れず、患部を正確に認定することができない場合がある。
そこで、この実施の形態5では、患部認定部7における患部の認定を補助するために、音声出力部12と映像登録部13を実装するようにしている。
具体的には、以下の通りである。
【0057】
音声出力部12は、患者である子供に痛い部位を手で触れることを促すメッセージを音声出力する。これにより、患者である子供が、自分の手で患部を触れることが想定される。
映像登録部13は、音声出力部12から音声が出力されたのち、実装しているカメラ13aを使用して、患者である子供が触れている手の位置を撮影し、手の位置の映像をカルテ記録部1に登録する。
これにより、家族や医師が映像中の手の位置を見れば、患部を把握することができる。
【0058】
以上で明らかなように、この実施の形態5によれば、患者である子供に痛い部位を手で触れることを促すメッセージを音声出力する音声出力部12と、その音声出力部12から音声が出力されたのち、ユーザが触れている手の位置を撮影して、手の位置の映像をカルテ記録部1に登録する映像登録部13とを設けるように構成したので、上記実施の形態1〜4よりも正確に患部を認定することができる効果を奏する。
【0059】
実施の形態6.
上記実施の形態1〜5では、患部認定部7により認定された患部の位置を示す情報(触診ポイントPmaxの位置)をカルテ記録部1に登録するものについて示したが、患部認定部7が患部を認定すると、患部を認定した旨を例えば医師の携帯端末などに直接通知するようにしてもよい。
その際、医師などが、診断ロボットを遠隔操作できる仕組みを実装するようにしてもよい。例えば、診断ロボットが心臓マッサージ用のAEDを患者に貼り付ける処置を行う遠隔操作などが考えられる。
また、患部認定部7が患者の患部に、患部である旨を示すマークをつけるようにしてもよい。
また、患部認定部7が患部の対処法や受診診療科を案内するようにしてもよい。
【0060】
なお、上記実施の形態1〜6では、複数のカメラ(例えば、カメラ3a,6a,13a)が実装されているものについて示したが、診断ロボットには1台のカメラを実装し、1台のカメラがカメラ3a,6a,13aの機能を兼ねるようにしてもよい。
【図面の簡単な説明】
【0061】
【図1】この発明の実施の形態1による診断ロボットの内部を示す構成図である。
【図2】この発明の実施の形態1による診断ロボットを示す正面図である。
【図3】この発明の実施の形態1による診断ロボットを示す側面図である。
【図4】この発明の実施の形態1による診断ロボットの制御方法を示すフローチャートである。
【図5】触診ポイントP1〜PNの設定を示す説明図である。
【図6】この発明の実施の形態2による診断ロボットの内部を示す構成図である。
【図7】この発明の実施の形態3による診断ロボットの内部を示す構成図である。
【図8】この発明の実施の形態4による診断ロボットの内部を示す構成図である。
【図9】この発明の実施の形態5による診断ロボットの内部を示す構成図である。
【符号の説明】
【0062】
1 カルテ記録部(閲覧可能な記録媒体)
2 患者情報入力受付部(触診ポイント設定手段)
3 体型把握部(触診ポイント設定手段)
3a カメラ
4 触診ポイント設定部(触診ポイント設定手段)
5 押し当て部(押し当て手段)
6 反応観測部(反応観測手段)
6a カメラ
6b 画像解析部
6c メモリ
6d マイク
6e 音量観測部
7 患部認定部(患部認定手段)
8 患部情報登録部(患部情報登録手段)
9 スピーカ
10 バイタル測定部(バイタル情報登録手段)
11 バイタル情報登録部(バイタル情報登録手段)
12 音声出力部(音声出力手段)
13 映像登録部(映像登録手段)
13a カメラ
21a,21b 上腕部
22a,22b 下腕部
23a,23b 指(触診用部材)
24a,24b 肩関節部
25a,25b 肘関節部
26a,26b 手首関節部
27a,27b 目
28 口

【特許請求の範囲】
【請求項1】
ユーザの体型を把握して、少なくとも1以上の触診ポイントを設定する触診ポイント設定手段と、上記触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる押し当て手段と、上記押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測手段と、上記触診ポイント設定手段により設定された1以上の触診ポイントの中で、上記反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する患部認定手段とを備えた診断ロボット。
【請求項2】
反応観測手段は、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザを撮影し、ユーザの映像の変化量をユーザの反応として観測することを特徴とする請求項1記載の診断ロボット。
【請求項3】
反応観測手段は、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの声を集音し、その声の音量をユーザの反応として観測することを特徴とする請求項1または請求項2記載の診断ロボット。
【請求項4】
患部認定手段により認定された患部の位置を示す情報を閲覧可能な記録媒体に登録する患部情報登録手段を設けたことを特徴とする請求項1から請求項3のうちのいずれか1項記載の診断ロボット。
【請求項5】
押し当て手段は、触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる際、ユーザに問い掛けを行うことを特徴とする請求項1から請求項4のうちのいずれか1項記載の診断ロボット。
【請求項6】
ユーザのバイタルを測定し、そのバイタルを示す情報を閲覧可能な記録媒体に登録するバイタル情報登録手段を設けたことを特徴とする請求項1から請求項5のうちのいずれか1項記載の診断ロボット。
【請求項7】
触診ポイント設定手段がユーザの体型を把握して、少なくとも1以上の触診ポイントを設定する触診ポイント設定ステップと、押し当て手段が上記触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる押し当てステップと、反応観測手段が上記押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測ステップと、患部認定手段が上記触診ポイント設定手段により設定された1以上の触診ポイントの中で、上記反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する患部認定ステップとを備えた診断ロボットの制御方法。
【請求項8】
ユーザの体型を把握して、少なくとも1以上の触診ポイントを設定する触診ポイント設定処理手順と、上記触診ポイント設定処理手順により設定された触診ポイントに触診用部材を押し当てる押し当て処理手順と、上記押し当て処理手順により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測処理手順と、上記触診ポイント設定処理手順により設定された1以上の触診ポイントの中で、上記反応観測処理手順により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する患部認定処理手順とをコンピュータに実行させるための診断ロボットの制御プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2008−167866(P2008−167866A)
【公開日】平成20年7月24日(2008.7.24)
【国際特許分類】
【出願番号】特願2007−2741(P2007−2741)
【出願日】平成19年1月10日(2007.1.10)
【出願人】(599108242)Sky株式会社 (257)
【Fターム(参考)】