関係検知システム
【課題】複数の構成員同士の間の「好き」又は「嫌い」などの関係を把握する関係検知システムを提供する。
【解決手段】関係検知システム10は構成員を近付かせる接近装置としてのコミュニケーションロボット12を含む。組織内の複数の構成員A,B,C…にはたとえば無線タグ14および赤外線LEDタグ16がそれぞれ装着される。構成員がロボット12とコミュニケーションを図るために近付いて所定領域内に入ると、ロボット12に設けられた無線タグ読取装置および赤外線カメラ44によって各識別情報がそれぞれ取得され、そのような所定領域における行動の履歴が記録される。この行動の履歴はたとえば好意を持つ者同士は同時に滞在するなど構成員間の関係が反映されている。この行動履歴に基づいて構成員の他者との共存の仕方から各構成員間の関係が把握される。
【解決手段】関係検知システム10は構成員を近付かせる接近装置としてのコミュニケーションロボット12を含む。組織内の複数の構成員A,B,C…にはたとえば無線タグ14および赤外線LEDタグ16がそれぞれ装着される。構成員がロボット12とコミュニケーションを図るために近付いて所定領域内に入ると、ロボット12に設けられた無線タグ読取装置および赤外線カメラ44によって各識別情報がそれぞれ取得され、そのような所定領域における行動の履歴が記録される。この行動の履歴はたとえば好意を持つ者同士は同時に滞在するなど構成員間の関係が反映されている。この行動履歴に基づいて構成員の他者との共存の仕方から各構成員間の関係が把握される。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は関係検知システムおよび接近装置に関し、特にたとえば、複数の構成員を含む組織における各構成員間の関係を検知する関係検知システム、および組織の存在する空間内に設けられて構成員を近付かせるための接近装置に関する。
【背景技術】
【0002】
従来、組織内の構成員の人間関係を把握する手法として、たとえばモレノ(J.L.Moreno)によって考案されたソシオメトリ(sociometry)がよく知られている。ソシオメトリは、集団内における好き(受容)と嫌い(拒否)とを調査することで、集団内における個人の位置や人間関係等のような組織の構造を測定するものである。具体的には、学校教育における学級内の児童・生徒の人間関係を把握するために適用されることが多い。ソシオメトリックテストと呼ばれる調査では、たとえば「クラス内で好きな人は誰?一緒に遊びたくない人は誰?」や、「席替え時に誰の隣に座りたい?誰の隣には座りたくない?」などの設問がなされ、好きな人および嫌いな人の名前を各人に書かせている。このテストの結果に基づいて、必要に応じてソシオグラムと呼ばれる図やソシオマトリクスと呼ばれる表などを作成することで、たとえば集団内の人気者、孤立児,排斥児など、個々の集団内の位置や友人関係等が明らかになる。たとえば、非特許文献1や非特許文献2には、PCにおいて、ソシオメトリックテストによって得た情報を入力データとしてソシオグラム等を出力するソフトウェアが紹介されている。
【非特許文献1】“ソシオメトリックスふれん図”、[online]、スズキ教育ソフト株式会社、[平成15年9月17日検索]、インターネット<URL:http://www.suzukisoft.co.jp/products/frends/index.htm>
【非特許文献2】“ソシオメトリックテスト for Windows”、[online]、シーイーエス開発室、[平成15年9月17日検索]、インターネット<URL:http://plaza5.mbn.or.jp/~cesdev/socio.html>
【発明の開示】
【発明が解決しようとする課題】
【0003】
従来では、ソシオメトリックテストで各構成員に直接好き嫌いを答えさせるので、そのあからさまな設問に各構成員は構えてしまってその回答に偽りが含まれるおそれがあった。また、設問の内容や時期等の調査の仕方によっては、人権問題となってしまったり、あるいはその後の人間関係に悪影響を及ぼしたりするおそれが強かった。したがって、正確な情報が得られず、構成員の関係を正確に把握することができないという問題があった。
【0004】
それゆえに、この発明の主たる目的は、構成員の関係の正確な把握を可能にする、関係検知システムおよび接近装置を提供することである。
【課題を解決するための手段】
【0005】
請求項1の発明は、複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴に基づいて関係を把握する把握手段を備える、関係検知システムである。
【0006】
請求項1の発明では、記録手段は、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する。所定領域はたとえばこのシステムの近くに設定される。この所定領域に対する構成員の行動は、各構成員の普段どおりの極自然な振る舞いであり、構成員間の関係性が反映されたものとなっている。そして、把握手段は、このような振る舞いすなわち行動の履歴に基づいて関係を把握する。したがって、請求項1の発明によれば、構成員の普段の関係の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。
【0007】
請求項2の発明は、複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、組織の存在する空間内に設けられるかつ構成員をして自発的に近付かせるための接近装置、構成員が接近装置の近くの所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴に基づいて関係を把握する把握手段を備える、関係検知システムである。
【0008】
請求項2の発明では、構成員をして自発的に近付かせるための接近装置が、組織の存在する空間内に設けられる。このような接近装置は、たとえば、一般的に言えば、構成員の興味を引いたり、構成員の注目を集めたり、構成員の注意を引いたり、あるいは、親しみを感じさせたりするようなものであり、実施例では、請求項4に挙げるようにコミュニケーションロボットなどが用いられる。そして、記録手段は、その接近装置の近くの所定領域内に構成員が存在するかどうかに関する行動の履歴を記録する。したがって、記録される構成員の行動は、たとえば、接近装置の近くに来ているかどうかに関するものであり、つまり、たとえば誰と誰とが一緒に来ているといったものである。これは、各構成員の普段どおりの極自然な振る舞いであって、構成員間の関係性が反映されたものとなっている。そして、把握手段は、このような行動の履歴に基づいて関係を把握する。したがって、請求項2の発明によれば、構成員の普段の関係性の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。
【0009】
請求項3の発明は、請求項1または2に従属する関係検知システムであって、記録手段は、構成員の識別情報を取得する取得手段を含み、取得手段によって取得された識別情報に基づいて、行動の履歴を記録する。
【0010】
請求項3の発明では、構成員の識別情報が取得手段によって取得され、記録手段は、取得された識別情報に基づいて、行動の履歴を記録する。したがって、構成員の識別情報を取得することによって、各構成員の行動を捕らえて見分けることができ、識別情報によって構成員の行動の履歴を確実に記録することができる。
【0011】
請求項4の発明は、請求項3に従属する関係検知システムであって、接近装置は、自律移動するための自律移動手段および取得手段を備えるコミュニケーションロボットを含む。
【0012】
請求項4の発明では、構成員を近付かせるための接近装置として、自律移動するコミュニケーションロボットが組織の存在する空間内に設けられ、コミュニケーションロボットに設けられる取得手段によって、構成員の識別情報が取得される。所定領域は、たとえばコミュニケーションロボットの近くに設定され、したがって、この所定領域に対する構成員の行動は、たとえばコミュニケーションを図るためにコミュニケーションロボットのところにやって来ているかどうかである。このようなコミュニケーションロボットに対する行動は、構成員間の普段の関係性が反映されたものとなっている。つまり、たとえば、普段から好意的関係を有する構成員同士は一緒にコミュニケーションロボットとコミュニケーションを図って遊ぼうとするであろうし、逆に、嫌いな関係にある構成員同士は一緒には遊ぼうとはしないであろう。したがって、コミュニケーションロボットを組織の空間内に配置することによって、構成員の普段どおりの極自然な振る舞いの中に各構成員の関係を浮かび上がらせて記録することができるので、各構成員の関係を正確に把握できる。
【0013】
請求項5の発明は、請求項3または4に従属する関係検知システムであって、取得手段は、複数の構成員のそれぞれに取り付けられた無線タグからの識別情報を取得する無線タグ読取手段を含む。
【0014】
請求項5の発明では、複数の構成員には識別情報の登録された無線タグがそれぞれ取り付けられ、取得手段は、無線タグからの識別情報を取得する無線タグ読取手段を含む。したがって、請求項5の発明によれば、各構成員に無線タグを装着させるだけで、所定領域に対する行動の履歴を簡単かつ確実に記録することができる。
【0015】
請求項6の発明は、請求項3ないし5のいずれかに従属する関係検知システムであって、取得手段は、複数の構成員のそれぞれに取り付けられた赤外線LEDタグからの識別情報を取得する赤外線検出手段を含む。
【0016】
請求項6の発明では、複数の構成員には赤外線LEDタグがそれぞれ取り付けられ、取得手段は、赤外線LEDタグからの識別情報を取得する赤外線検出手段を含む。したがって、請求項6の発明によれば、各構成員に赤外線LEDタグを装着させるだけで、所定領域に対する行動の履歴を簡単かつ確実に記録することができる。
【0017】
請求項7の発明は、請求項1ないし6のいずれかに従属する関係検知システムであって、把握手段は、所定領域における構成員の共存の仕方と、その共存の仕方に対応する構成員間の関係とを規定した所定の規則に基づいて、関係を把握する。
【0018】
請求項7の発明では、把握手段は、記録された行動の履歴と所定の規則とに基づいて関係を把握する。所定の規則は、所定領域における構成員の共存の仕方と、それに対応する構成員間の関係とを規定したものである。つまり、所定領域における他者との共存の仕方には人間関係が反映されているので、たとえば、その共存の仕方をパターン化した行動パターンと、それに対応する人間関係とを予め規定している。したがって、請求項7の発明によれば、組織における構成員の関係を簡単かつ正確に把握することができる。
【0019】
請求項8の発明は、請求項1ないし7のいずれかに従属する関係検知システムであって、把握手段によって把握された関係を表示する表示手段をさらに備える。
【0020】
請求項8の発明では、表示手段が把握された関係を表示する。したがって、請求項8の発明によれば、構成員の関係を明確かつ簡単に把握することができる。
【0021】
請求項9の発明は、請求項8に従属する関係検知システムであって、表示手段は関係をソシオグラムとして表示する。
【0022】
請求項9の発明では、把握された関係が図に表されたソシオグラムとして表示されるので、組織内の構成員の関係を明確かつ簡単に把握することができる。
【0023】
請求項10の発明は、請求項1ないし9のいずれかに従属する関係検知システムであって、把握手段によって把握される関係は、各構成員間の好き度もしくは嫌い度、または組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者の少なくとも一つを含む。
【0024】
請求項10の発明では、各構成員の関係が、たとえば、好き度もしくは嫌い度によって把握され、あるいは、組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者など特殊な関係が明らかにされる。したがって、組織における各構成員の関係を明確にかつ分かり易く把握することができる。
【0025】
請求項11の発明は、複数の構成員を含む組織が存在する空間内に設けられかつ構成員をして近付かせるための接近装置であって、組織の構成員の識別情報を取得する取得手段、取得手段によって取得された識別情報に基づいて、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴に基づいて構成員の関係を把握する把握手段を備える、接近装置である。
【0026】
請求項11の発明では、複数の構成員を含む組織の存在する空間内に設けられて、構成員をして近付かせるための接近装置が、上述の関係検知システムとして機能する。つまり、取得手段は構成員を識別するための情報を取得し、取得された識別情報に基づいて、記録手段は、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する。所定領域は、たとえば当該接近装置の近くに設定され、したがって、この所定領域に対する構成員の行動は、当該接近装置のところにやって来ているかどうかである。これは、各構成員の普段どおりの極自然な振る舞いであって、構成員間の関係性が反映されたものとなっている。そして、把握手段は、このような行動の履歴に基づいて関係を把握する。したがって、請求項11の発明によれば、構成員の普段の関係性の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。
【0027】
請求項12の発明は、請求項11に従属する接近装置であって、接近装置は、動物の形状をしたぬいぐるみである。請求項12の発明では、たとえば構成員の興味を引いたり、親しみを感じさせたりすることが容易であるので、構成員を自発的に近付かせることができる。したがって、構成員の普段どおりの極自然な振る舞いを記録することができ、それに基づいて構成員の関係を正確に把握することができる。
【0028】
請求項13の発明は、請求項11に従属する接近装置であって、接近装置は、さらに自律移動するための自律移動手段を備えたコミュニケーションロボットである。請求項13の発明では、請求項12と同様に、たとえば構成員の興味を引いたりすることが容易であるので、構成員をして自発的に近付かせることができる。したがって、構成員の普段どおりの極自然な振る舞いを記録することができ、それに基づいて構成員の関係を正確に把握できる。
【発明の効果】
【0029】
この発明によれば、各構成員の極自然な振る舞いを記録することができ、そのような振る舞いの履歴に基づいて、構成員の関係を把握することができる。したがって、各構成員に直接「好き」や「嫌い」やを尋ねて答えさせていないので、ありのままの情報を得ることができ、その結果構成員の関係を正確に把握することができる。
【0030】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【発明を実施するための最良の形態】
【0031】
図1を参照して、この実施例の関係検知システム(以下、単に「システム」とも言う。)10は、複数の構成員A,B,C…を含む組織における各構成員間の関係を検知するためのものである。ここで、組織内の各構成員間の関係は、具体的には、組織を個別の構成員単位で捉える場合には個個の構成員間の関係性であり、組織を何らかの特徴ないし共通性を基にした所定のまとまった単位で捉える場合には当該単位間での関係性である。この各構成員間の関係は、詳しくは、たとえば好き―嫌いや受容―拒否等のような関係を含み、また、リーダー的存在、嫌われ者的存在等といった構成員の組織内での位置のような特殊な関係等も含む。このような各構成員間の関係は、組織全体を構成する部分部分の関係であるので、以下では「組織構造」とも言うものとする。
【0032】
システム10は、構成員をして自発的に近付かせるための接近装置としてコミュニケーションロボット(以下、単に「ロボット」とも言う。)12を含み、ロボット12は検知対象の組織の存在する実空間内に設けられる。つまり、たとえば組織構造として学級内の児童の人間関係を検知するような場合には、当該学級の教室内にロボット12を配置する。ロボット12の詳細な構成は後述するが、ロボット12は、自律移動するための機構を備えた自律移動型のコミュニケーションロボットであり、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振りおよび音声の少なくとも一方を用いてコミュニケーションを行う機能を備えている。
【0033】
このようなロボット12が組織内に配置されると、各構成員A,B,C…はロボット12に興味を持ち、ロボット12に自発的に近付いて、コミュニケーションを図ろうとすることが期待される。しかし、ロボット12が一度に大勢とコミュニケーションをとることは無理があり、限られた数の人しかロボット12の前に存在することができない。このため、各構成員がロボット12に対して接近したり離れたりする行動は、その人間関係が反映されたものとなると考えられる。すなわち、たとえば、普段から好意的関係にある構成員同士はロボット12の前に一緒に滞在しようとするであろうし、逆に嫌いな関係にある構成員同士は一緒に滞在しようとはしないであろう。このように、各構成員のロボット12の前の所定領域内での共存の仕方には、その組織構造が現れていると言える。したがって、ロボット12を対象組織に導入することによって、組織構造を自然に浮かび上がらせることができる。この組織構造は各構成員の普段どおりの極自然な振る舞いの中に現れたものであり、従来のあからさまで直接的な調査では得ることのできない正確性を有している。
【0034】
したがって、そのような組織構造の反映されている所定領域内の構成員の行動をロボット12によって検知して、行動の履歴を記録する。行動を起こしている構成員を捕らえて見分けるために、たとえばロボット12に設けられた各種センサ等の取得手段によって構成員の識別情報が取得される。この実施例では、各構成員には、たとえばその正面側の胸や腹などの適宜な位置に、無線タグ14および赤外線LEDタグ16が取付または装着される。これらのタグ14および16からそれぞれ発せられた識別情報を取得することで、どの構成員がロボット12のところにやって来たのか、あるいは去っていったのかなど、ロボット12の近くに設定された所定領域内に対するその行動を確実に把握することが可能になる。
【0035】
無線タグ14にはたとえばRFIDタグが用いられる。RFID(Radio Frequency Identification)は、電磁波を利用した非接触ICタグによる自動認識技術のことである。RFIDタグ14は、識別情報用のメモリや通信用の制御回路等を備えるICチップおよびアンテナ等を含む。メモリには、構成員を識別可能な情報が予め記憶され、その識別情報が所定周波数の電磁波・電波等によってアンテナから出力される。伝送方式としては、この実施例では、構成員がロボット12のところにコミュニケーションを図りに来ているかどうかを記録するので、たとえば、交信距離の比較的長い電磁誘導方式(最大1m程度)またはマイクロ波方式(最大5m程度)のものを使用するのが望ましい。これらの場合には、各構成員はロボット12の検知可能な所定領域に入ると、無線タグ14を身に着けているだけで簡単に認識されることになる。
【0036】
なお、通信距離の比較的短い静電結合方式(数mm程度)や電磁結合方式(数cm程度)などを使用してもよいが、これらの場合にはロボット12のところに来た各構成員に、その無線タグ14を無線タグ読取装置18(図3参照)に近づけて読み取らせる作業をさせる必要がある。
【0037】
また、この実施例のように赤外線LEDタグ16を併用する場合には、赤外線を使用した光方式のRFIDは使用しないのが望ましい。さらにまた、電源の方式は電池内蔵の能動型および電池無しの受動型のどちらでもよいが、適切な交信距離領域を確保する必要がある。また、タグの形態ないし形状も任意であり、たとえばカード形、ラベル形、コイン形、スティック形等のいずれでもよい。
【0038】
赤外線LEDタグ16は、赤外線LED,その駆動回路および内蔵電池等を含む。赤外線LEDは、そのタグ16が取り付けられた構成員を識別可能なように、所定の点滅パターンで発光するよう制御される。この赤外線LEDタグ16の形態もRFIDタグ16と同様に任意である。また、各構成員はロボット12の検知可能な所定領域に入ると、赤外線LEDタグ16を装着しているだけで簡単に認識されることになる。
【0039】
ロボット12によって記録されたデータは、ロボット12の内部で、あるいはPC等のような外部コンピュータ20に転送された後に処理され、構成員の関係性が把握されて、出力されることとなる。把握された組織構造はたとえばソシオグラムで出力され、外部コンピュータ20のCRTやLCD等の表示手段に表示される。
【0040】
図2はロボット12の外観を示す正面図であり、この図2を参照して、ロボット12のハードウェアの構成について説明する。ロボット12は台車22を含み、この台車22の下面にはロボット12を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図3参照)によって駆動され、台車22すなわちロボット12を前後左右任意の方向に動かすことができる。このように、ロボット12は組織の空間内を移動可能なものであるが、場合によっては空間内の所定位置に固定的に設けられてもよい。
【0041】
なお、図2においては省略するが、台車22の前面には、衝突センサ28(図3参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット12の移動を急停止させる。
【0042】
また、この実施例では、ロボット12の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
【0043】
台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット12の周囲の主として人との距離を計測するものである。
【0044】
また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット12の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット12の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図3参照)によって駆動される。
【0045】
なお、上述したロボット12の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット12の背の高さは、100cm以上にすることも可能である。
【0046】
上部胴体36のほぼ中央には、1つの全方位カメラ42と1つの赤外線カメラ44と1つのマイク46とが設けられる。全方位カメラ42は、ロボット12の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。
【0047】
赤外線カメラ44は、赤外線を検出するためのものであり、所定数の赤外線検出素子を含む。この赤外線カメラ44の画角の領域内に構成員が存在する場合、その赤外線LEDタグ16から発せられた赤外線が取得され、赤外線の点滅パターンによってその構成員が識別されることとなる。また、マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42,赤外線カメラ44およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。
【0048】
上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
【0049】
また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。
【0050】
なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。
【0051】
また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図3で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット12の当該各部位に触れたかどうかを検知する。
【0052】
前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0053】
なお、ロボット12の形状・寸法等は適宜設定されるが、他の実施例では、たとえば、上部胴体36は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体36を上から見た形状が台形になるように形成されてもよい。
【0054】
このような場合、肩関節50Rおよび50Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕52Rおよび上腕52Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕52Rおよび52Lは取り付け面を超えて回動することはない。
【0055】
しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕52Rおよび52Lの長さ、ならびに前腕56Rおよび56Lの長さ等を適宜に設定すれば、上腕52Rおよび52Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット12の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接で親密なコミュニケーション行動を実行することができる。
【0056】
上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット12が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット12の他の部位、たとえば胴体などに設けられてもよい。
【0057】
また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。
【0058】
眼カメラ48は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。
【0059】
たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
【0060】
なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
【0061】
さらに、たとえば頭部64の横の右肩部には、無線タグ読取装置18のアンテナ70が設けられる。アンテナ70はRFIDタグ14から送信される識別情報が重畳された電磁波ないし電波を受信する。
【0062】
図3はロボット12の電気的な構成を示すブロック図であり、この図3を参照して、ロボット12は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。
【0063】
メモリ76は、図示は省略するが、ROMやRAMを含み、ROMにはロボット12の制御プログラムが予め記憶され、RAMはワークメモリやバッファメモリとして用いられる。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部コンピュータ20と通信するためのプログラム、および識別情報を取得して構成員の行動履歴を記録するためのプログラム等を含む。メモリ76にはまた、コミュニケーション行動の実行の際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等も記憶される。
【0064】
モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。
【0065】
また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。
【0066】
さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
【0067】
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
【0068】
センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ58」と示す。)からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。さらに、上述した衝突センサ28からの信号も、同様にして、CPU72に与えられる。赤外線カメラ44からの赤外線画像はこのセンサ入力/出力ボード80で処理されることによって、赤外線LEDタグ16から発せられる識別情報およびその画像内の位置情報等が取得された後、CPU72に与えられる。
【0069】
音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。
【0070】
また、CPU72は、バス74を介して通信LANボード94および無線タグ読取装置18に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータ20に送信させる。また、通信LANボード94は、無線通信装置96を介してデータを受信し、受信したデータをCPU72に与える。つまり、この通信LANボード94および無線通信装置96によって、ロボット12は外部コンピュータ20等と無線通信を行うことができる。
【0071】
無線タグ読取装置18は、RFIDタグ14から送信される識別情報の重畳された電波を、アンテナ70を介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該情報を復調(デコード)してCPU72に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU72に与えるようにしてもよい。
【0072】
さらに、CPU72は、バス74を介してユーザ情報データベース(以下「ユーザDB」とする。)98および行動履歴データベース(以下「履歴DB」とする。)100に接続される。ただし、これらのデータベースは、外部コンピュータ20または外部のネットワーク上にアクセス可能に設けるようにしてもよい。
【0073】
ユーザDB98は、ユーザ情報すなわち検知対象組織に属する構成員の情報を登録しているデータベースであり、この実施例では、図4に示すようなユーザ情報のテーブルを記憶している。ユーザDB98には、たとえば、構成員IDに対応付けて、構成員名、装着されるRFIDタグ14の識別情報および赤外線LEDタグ16の識別情報(点滅パターン)等が記憶される。図4では、たとえば構成員Aには、“AAAA”という識別情報の登録されたRFIDタグ14が装着され、また、“Ta”の点滅パターンで発光される赤外線LEDタグ16が装着されていることが分かる。
【0074】
履歴DB100は、構成員の行動の履歴を記録するためのデータベースである。この行動は、構成員がロボット12のところにコミュニケーションを図りに来ているかどうかに関しての行動を意味する。つまり、取得手段(この実施例では無線タグ読取装置18および赤外線カメラ44)によって検知可能なロボット12の近くの所定領域内に構成員が存在しているかどうかについての時間変化が記録される。
【0075】
コミュニケーション行動の一例として、ロボット12は次のような種々の行動を取ることが可能である。たとえば、「こんにちは」と話しかけて返事があった場合、「握手しよう」と言って一方の腕52および60を前方に差し出す。「こんにちは」と話しかけて返事がなかった場合、「バイバイ」と言う。眼カメラ48からの画像データに人の顔を認識した場合、その人の顔の方向に頭部64の顔側や眼球部68を向ける。触られた場合、触られた部位の方に頭部64の顔側を向ける。このように、ロボット12は、自ら能動的にコミュニケーション行動を提示して、それに対する人間の反応を認識し、その認識結果に応じて異なった行動をさらに提示することができるし、人間と同じような反応動作も行うことができる。
【0076】
また、この実施例では、コミュニケーション相手となる各構成員にRFIDタグ14および赤外線LEDタグ16によって識別情報が与えられるので、実際のコミュニケーション相手に合わせた個別のコミュニケーション行動を実行することも可能である。たとえば、各構成員の名前に相当する音声データを記憶しておけば、識別情報を取得してコミュニケーションをとっている構成員を特定し、その構成員の名前を呼びかけることができる。また、どの構成員との間でどのようなコミュニケーション行動を実行したかが分かる実行履歴を記録しておいて、その履歴に基づいたコミュニケーション行動を実行することも可能である。たとえば、初めて来た構成員に対しては「はじめまして」と、久しぶりに来た構成員に対しては「久しぶり」と呼びかけることができるし、全員に連絡すべき情報がある場合、未だ聞いていない構成員が来たときのみその情報を伝えるといった適切な行動を実行できる。ロボット12がこのような個人的なコミュニケーション行動をも実行できるので、各構成員にRFIDタグ14や赤外線LEDタグ16等を装着させたとしても、特に違和感や疑問を覚えさせることもなく、自然な行動を記録することができる。
【0077】
このようなロボット12が、組織の存在する空間内に、たとえば学級の児童の組織構造を検知する場合にはその学級の教室内に配置される。ロボット12は、コミュニケーションを図りに来た上記した各構成員に対してコミュニケーション行動を実行するとともに、一定時間ごと(たとえば1秒間隔など)に識別情報の取得を試み、取得したデータに基づいて構成員の行動の履歴を履歴DB100に記録する。具体的には、RFIDタグ14からの識別情報および赤外線LEDタグ16からの識別情報が一定時間ごとに取り込まれ、所定の領域内に存在している構成員の情報が記録される。
【0078】
履歴DB100に記録されるデータは、たとえば図5に示すように、取り込み時刻ごとの、無線タグ読取装置18によって検知された構成員の情報、および赤外線カメラ44によって検知された構成員の情報等を含む。なお、赤外線LEDタグ16の識別情報はそのオン・オフのパターンであるので、取り込み時刻を含む所定の時間にわたってデータの取り込みを行って解析することによって、その点滅パターンを特定することができる。
【0079】
構成員の情報としては、たとえば、取得した識別情報とユーザDB98とを照合して求められた構成員IDが記述される。なお、構成員情報の記述はこれに限るものではなく、たとえば無線タグ読取装置18による検知としては、取得したRFIDの識別情報をそのまま記述してもよいし、あるいは構成員名等を記述してもよい。また、赤外線カメラ44による検知としても、同様に、取得した識別情報を記述してもよいし、構成員名等を記述してもよい。
【0080】
この図5の例では、たとえば時刻t20においては、無線タグ読取装置18によって構成員A,BおよびCの3人が検知され、赤外線カメラ44によって構成員AおよびBの2人が検知されたことがわかる。この時刻t20のように取得手段の種類によって検知される構成員が異なるのは、取得手段ごとに検知可能な所定領域が異なるためである。
【0081】
図6には、無線タグ読取装置18によって検知可能な所定領域と、赤外線カメラ44によって検知可能な所定領域との関係の一例が示される。無線タグ読取装置18による検知領域(長破線表示)は、適用されるRFIDの通信距離によって決まるものであり、ロボット12(アンテナ70)からそのRFIDの通信距離までの範囲である。また、赤外線カメラ44による検知領域(点線表示)は、赤外線カメラ44の画角によって決まるものであり、赤外線カメラ44はロボット12の正面側に設けられるので、ロボット12の前方側にある。この図6では、無線タグ読取装置18による所定領域内に構成員A,BおよびCが存在しており、さらに構成員AおよびBは赤外線カメラ44による所定領域内にも存在している。したがって、この場合、上述の図5における時刻t20のような測定結果が得られることとなる。
【0082】
このような構成員A,BおよびCの位置関係を考えると、構成員AおよびBはロボット12とコミュニケーションを図るためにロボット12の直前に一緒に存在しており、一方、構成員Cは、たとえば傍らで見ているのかあるいは仲間に加わろうとしているのかは不明であるが、いずれにせよ構成員AおよびBとは一緒に存在するには至っていないと判断できる。つまり、構成員A,BおよびCのうち、無線タグ読取装置18および赤外線カメラ44の両方で検知された構成員AおよびBだけが、ロボット12の前に来ているとみなすことができる。このように、無線タグ読取装置18および赤外線カメラ44の複数の取得手段を使用することで、ロボット12の前に来ていない構成員を排除して、各構成員の行動の測定精度を上げることができ、したがって、より正確な組織構造の検知が可能になる。
【0083】
なお、赤外線カメラ44の画角が比較的大きい場合には、ロボット12とコミュニケーションを図りに来ているわけではなく、離れた位置から傍観しているような構成員までも検知することとなるので、広い視野の端部で検出される情報を除外し、視野の所定範囲において検出される情報のみを適用して、検知した構成員の情報として記録することが望ましい。
【0084】
検知した構成員の情報を履歴DB100に記録した後、無線タグ読取装置18による検知結果と赤外線カメラ44による検知結果とに基づいて、一致する構成員を抽出する。そして、図7に示すように、その抽出された構成員が、その時刻において所定領域に存在していた構成員として確定される。つまり、この場合の所定領域は、無線タグ読取装置18による検知領域と赤外線カメラ44による検知領域との重なる部分である。たとえば時刻t20にロボット12の前に来ていた構成員はAおよびBとされる。この確定された行動履歴のデータは履歴DB100に記録してもよい。このように複数の取得手段を組み合わせることで、所定領域をより正確に設定することができ、より正確な行動の履歴を記録することができるので、より正確な組織構造を検知することができる。
【0085】
なお、このような行動履歴の確定処理は、記録した行動履歴データを外部コンピュータ20に転送して、外部コンピュータ20のCPUによって実行させるようにしてもよい。
【0086】
そして、この確定された行動履歴に基づいて組織構造が把握される。この組織構造把握処理はロボット12の内部でCPU72によって行われてもよいし、または、記録した行動履歴データもしくは確定された行動履歴データを外部コンピュータ20に転送して、外部コンピュータ20のCPUによって行われてもよい。
【0087】
具体的には、行動履歴を所定の変換規則に照合して構成員間の関係性を判定する。変換規則は、所定の領域における構成員の共存の仕方と、それに対応する人間関係を規定したものである。人間のロボット12を介在させた所定の領域における他者との共存の仕方にはその人間関係が現れていると考えられるので、その共存の仕方をパターン化し、その行動パターンごとに人間関係がどのようなものであるかをルールとして予め定めている。
【0088】
図8には変換規則の一例として、典型的なルールのいくつかが示される。図8(A)には、ロボット12の前に構成員AおよびBの二人が常に同時に滞在する場合が示されていて、この場合の人間関係は、構成員AおよびBが相互に好意を持っている関係であると判定される。図8(B)には、ロボット12の前に先に構成員Aが来ていて、その後に構成員Bが来た場合が示されている。この場合の人間関係は、構成員BはAに対して好意を持っている関係であると判定される。図8(C)には、ロボット12の前に構成員Bが滞在していて、その後に構成員Aが来るとBが去っていく場合が示されている。この場合の人間関係は、構成員BはAを嫌っている関係であると判定される。
【0089】
図9には変換規則の一例として、より複雑な場合のルールのいくつかが示される。図9(A)には、ロボット12の前に構成員Aが来ると人が集まる場合が示される。この場合、集まった人達は構成員Aに好意を持っている関係にあり、さらにAはリーダー的存在の者である可能性が高いと判定される。なお、この場合の好意の度合は図8で示した1対1の関係における好意よりも弱いものに設定される。図9(B)には、ロボット12の前に人が集まっていて、その後構成員Aが来るとその人達が去っていく場合が示される。この場合、去っていった人達は構成員Aを嫌っている関係にあり、さらにAは嫌われ者的存在の者である可能性が高いと判定される。なお、この場合の嫌いの度合は、図8で示した1対1の関係における嫌いよりも弱いものに設定される。図9(C)には、構成員Aが他に誰もいないときにロボット12と遊ぶ場合が示される。この場合、構成員Aは他の人を嫌う傾向(排他的傾向)を有する者と判定される。
【0090】
たとえば、図7に示した行動履歴の場合、時刻t10からt30までは構成員AおよびBが同時に滞在していたので、この間の取得時刻の回数分は構成員AとBとは相互に好意を持っていると判定される。また、時刻t30においては構成員Cがやって来たので、構成員Cは構成員AとBに対して好意を持っていると判定される。また、時刻t30で構成員Cが来たことによって時刻t40では構成員Bが既にいなくなってしまったので、構成員Bは構成員Cを嫌っていると判定される。
【0091】
このようにして、行動履歴データと変換規則に基づいて構成員間の関係性を判定することで、簡単に組織構造を把握することができる。そして、その判定結果に基づいて関係データを生成する。関係データは、たとえば図10に示すように、構成員(構成員ID)ごとの、他の構成員のそれぞれに対する人間関係に関する情報、たとえば好き度,嫌い度等を含む。また、この関係データには、変換規則によって判定された、たとえばリーダー的存在の者、嫌われ者的存在の者および排他的傾向を有する者等のような特殊関係情報も含まれる。リーダー的存在や嫌われ者的存在等は、たとえばどの構成員に対してそのような特殊関係にあるのかも記述される。これによって、当該組織構造を明確に、また分かり易い態様で把握することができる。
【0092】
好き度および嫌い度は、たとえば、他の構成員のそれぞれに対して、好きと判定された回数、および嫌いと判定された回数をそれぞれ累計し、各累計を全滞在回数で割ることによって算出される。したがって、好き度合いは一緒に滞在した時間が長い(滞在回数が多い)程大きくなる。また、図10では省略してあるが、好き嫌いの方向性については、たとえば、一方的に好き、相互に好き、または一方的に嫌い等と判定された回数をそれぞれ累計し、最も多いものに決定する。
【0093】
このようにして得られる関係データは、測定時間を長く設定して、取得データ量を増やすことによって、その精度を向上させることができるのは言うまでもない。組織の規模にもよるが、たとえば、ロボット12を、1日から数日、あるいは1週間から数週間程度、組織内に配置することが考えられる。なお、少なくとも1度はすべての構成員にロボット12とコミュニケーションする機会を与えるのに充分な時間を確保する必要がある。
【0094】
そして、生成された関係データに基づいて、組織構造を適宜な形態で出力する。つまり、たとえば、図11に示すような組織構造を図で表したソシオグラムや、表で示したソシオマトリックス(図示せず)などを、外部コンピュータ20のディスプレイに表示させたり、プリンタに出力したりする。なお、ロボット12の内部で関係データを生成する場合には、生成した関係データを外部コンピュータ20に転送してディスプレイに表示させる。
【0095】
ソシオグラムは、上述のような各構成員間の人間関係に関する情報を、たとえば、主成分分析,ばねモデル解析等のような一般的なグラフ解析の手法を用いて変換することによって生成することができる。このソシオグラムによって当該組織の構造を明確に示すことができる。
【0096】
たとえば図11のソシオグラム画面では、各構成員は名前の書かれた丸印によって示され、各構成員間の関係性は互いを接続する矢印で示されている。この矢印は図8および図9で示した判定結果において用いられる矢印と同様であり、黒い矢印は「好き」を示し、白抜きに×印が加えられた矢印は「嫌い」を示している。それらの度合いは、矢印の長さと太さで示されている。長さに関しては、好き度合いが高いほど短くされ、嫌い度が高いほど長くされる。また、太さに関しては、好きおよび嫌いの度合いが高いほど太くされる。
【0097】
このソシオグラムによって、たとえば仲良しグループの存在が浮き彫りになるし、嫌われ者(いじめられっ子)も見つけることができる。また、誰が好き嫌いが激しく、全体の組織作りに最も関与しているか等も把握できる。たとえば図11のソシオグラムでは、組織内に、構成員A,B,CおよびDを含むグループと、構成員F,GおよびHを含むグループとが存在していることや、構成員Eが全体から排斥されていること等が明らかにわかる。したがって、組織構造を適宜な形態で表示出力することによって、組織構造を明確かつ簡単に把握することができる。そして、このシステム10によって見出された組織構造を用いて、たとえば学校教育では、いじめられっ子の発見や学級運営,生徒指導などのような、様々なコミュニケーション支援に役立てることができる。
【0098】
このようにして、ロボット12によって測定したときの当該組織における構成員の関係を明確に把握することができる。さらに、測定を継続的または定期的(たとえば毎月,毎学期,毎季など)に実施することによって、人間関係の動的な時間変化を捉えることも可能であり、たとえばいじめの解消等のようなコミュニケーション支援の成果等も確認することができる。
【0099】
図12には、ロボット12の行動履歴の記録処理の動作の一例が示される。ロボット12が対象組織内に配置されて、行動履歴の記録が開始されると、ロボット12のCPU72は、まず、ステップS1でコミュニケーション行動の開始を実行する。これによって、ロボット12は、行動履歴の記録と並行して構成員との間でのコミュニケーション行動を実行することとなる。次に、ステップS3でタイマのカウントを開始させ、ステップS5で現時刻がデータの取り込み時刻であるか否かを判断する。この実施例では一定周期(たとえば1秒間隔)でデータの取り込みが行われるので、一定時間が経過したかが判断される。ステップS5で“YES”であれば、続くステップS7で、CPU72は無線タグ読取装置18をチェックしてRFIDの識別情報があるかどうかを判断し、ある場合にはステップS9で、RFIDの識別情報を取得してメモリ76の所定エリアに記憶する。一方、ステップS7で“NO”であればそのままステップS11へ進む。
【0100】
ステップS11では、CPU72はセンサ入力/出力ボード80をチェックして赤外線タグの識別情報があるかどうかを判断し、ある場合にはステップS13で赤外線タグの識別情報を取得してメモリ76の所定エリアに記憶する。一方、ステップS11で“NO”であればそのままステップS15へ進む。
【0101】
ステップS15では、CPU72はユーザDB98(図4)を参照して、RFIDによる識別情報および赤外線LEDによる識別情報に対応する構成員IDをそれぞれ取得してメモリ76の所定エリアに記憶する。
【0102】
続いて、ステップS17で、CPU72は、当該識別情報の取り込み時刻と関連付けて、各構成員IDを履歴DB100に記録する(図5)。なお、取り込み時刻は一定時間ごとにあるので、この図5では取り込み時刻を順にtn(nは正の整数)で示している。そして、再びステップS5に戻って、取り込み時刻か否かを判断し、“YES”であれば識別情報の取得および記録を繰り返す。
【0103】
一方、ステップS5で“NO”であれば、ステップS19で、所定の取り込み終了時刻を超えたか否かを判断する。このステップS19で“NO”であれば再びステップS5に戻って識別情報の取得および記録を繰り返す。他方、ステップS19で“YES”であれば、この行動履歴の記録処理を終了する。このようにして、図5に示したような行動履歴DB100を得ることができる。
【0104】
図13には、行動履歴の確定処理の動作の一例が示される。なお、この図13の処理、ならびに後述する図14および図16の処理は、上述のように場合によってはロボット12の内部でそのCPU72によって処理されてよいが、ここでは、ロボット12で行動履歴の記録を終了した後は、その履歴DB100のデータを外部コンピュータ20へ転送して、外部コンピュータ20で行動履歴データを処理するものとして説明する。
【0105】
図13に示すように、外部コンピュータ20のCPUは、まず、ステップS31で取り込み時刻を指定するための変数nの初期値を1に設定し、次に、ステップS33で、履歴データの時刻tnのデータについて、RFID読取装置18によって検知された構成員IDが記録されているかどうかを判断する。ここでは、履歴データについて最初の取り込み時刻のデータから順に処理を行っている。このステップS33で“NO”であれば、ステップS45へ進む。一方、ステップS33で“YES”であれば、続くステップS35でRFIDタグ14による構成員IDを履歴データから読み込んで取得する。
【0106】
続いて、ステップS37で、履歴データの時刻tnのデータについて、赤外線タグによる構成員IDが記録されているかどうかを判断する。このステップS37で“NO”であればステップS45へ進む。一方、ステップS37で“YES”であれば、続くステップS39で、赤外線LEDタグ16による構成員IDを履歴データから読み込んで取得する。
【0107】
続くステップS41では、RFIDタグ14による構成員IDと赤外線LEDタグ16による構成員IDとを比較して、両者に共通する構成員IDを抽出する。このように、RFID読取装置18と赤外線カメラ44の両方で検知された構成員IDのみを所定領域に存在するものとして抽出する。
【0108】
そして、ステップS43で、当該時刻tnに対応付けて、抽出した構成員IDを確定行動履歴データとしてメモリの所定エリアに記録する。
【0109】
ステップS45では、時刻tnが取り込み終了時刻であるかどうか、つまり、履歴データのすべての取り込み時刻tnについて、抽出処理が終了したかどうかを判断し、“NO”であれば、ステップS47で、変数nをインクリメントして、ステップS33に戻り、次の取り込み時刻tnについての抽出処理を繰り返し行う。一方、ステップS45で“YES”であれば、この行動履歴の確定処理を終了する。このようにして、履歴データのすべての取り込み時刻tnについて、所定領域に存在するとみなせる構成員IDの抽出を行って、確定行動履歴データを生成する。
【0110】
この確定行動履歴データに基づいて、構成員の関係の把握処理が実行される。具体的には、上述のように、たとえば図8および図9に示したような所定の変換規則に基づいて関係が判定されるので、確定行動履歴データに前処理を施して判定を容易に行えるようにする。すなわち、図14に示すような行動パターンデータの生成処理によって、確定行動履歴データから測定時刻の前後における構成員IDの変化を抽出した行動パターンデータを生成する。
【0111】
図14の最初のステップS61で、外部コンピュータ20のCPUは、取り込み時刻を指定するための変数mの初期値を0に設定し、次に、ステップS63で、確定行動履歴データの時刻tmについての構成員IDデータと、次の時刻tm+1についての構成員IDデータとを読み込んで取得する。
【0112】
続いて、ステップS65で、両構成員IDを比較して、両者に共通する構成員ID、次の時刻tm+1になったときに増加した構成員ID、および減少した構成員ID等を抽出する。
【0113】
そして、ステップS67で、抽出した共通する構成員ID、増加した構成員ID、および減少した構成員ID等を、たとえばその時刻tm+1に対応付けて、行動パターンデータとして記録する。
【0114】
続くステップS69で、当該時刻tm+1が取り込み終了時刻であるかどうか、つまり、確定行動履歴データのすべての隣り合う時刻の組について上述の抽出処理等を行ったかどうかを判断する。このステップS69で“NO”であれば、続くステップS71で変数mをインクリメントし、ステップS63へ戻って、次の時刻の組についての処理を繰り返す。一方、ステップS69で“YES”であれば、この行動パターンデータの生成処理を終了する。
【0115】
このようにして、確定行動履歴データにおいてすべての測定時刻の前後で共通するID,増加したIDおよび減少したID等の抽出を行って、図15に示すような行動パターンデータを生成する。これによって、確定行動履歴データを構成員の行動パターンとして捉えることができるので、構成員の行動パターンとそれに対応する関係とを規定した変換規則に基づいた判定を容易に行うことが可能となる。
【0116】
図16には、関係の把握および表示処理の動作の一例が示される。外部コンピュータ20のCPUは、まず、ステップS91で、関係を求める1つの構成員IDを選定する。次に、ステップS93で、行動パターンデータにおける抽出時刻を指定するための変数mの初期値を0に設定し、続くステップS95で、行動パターンデータの時刻tm+1のデータを読み込んで取得する。
【0117】
そして、ステップS97で、当該データについて、共通するID、増加したID、または減少したIDが有るか否かを判断する。このステップS97で“NO”であればステップS105へ進む。
【0118】
一方、ステップS97で“YES”であれば、ステップS99で、そのデータについて、当該選定したIDと他のIDとの関係を変換規則に基づいて判定し、その結果を記録する。たとえば、図8および図9に示した例によれば、当該選定したIDが共通IDに存在する場合には、共通IDの他のIDとは相互に好きと判定することができる。また、当該選定したIDが増加IDにある場合には、共通IDのIDに対して、または共通IDのうち所定時間前まで遡った範囲で増加していたID等に対して一方的に好きと判定することができる。また、当該選定したIDが減少IDにある場合には、所定時間前までの範囲で増加したID等に対して一方的に嫌いと判定することができる。さらにまた、当該選定したIDが増加IDに存在した後の所定時間の範囲内に所定数以上のIDの増加があった場合には、当該選定IDはそれら増加した複数IDのリーダー的存在の者であると判定できる。また、当該選定IDが増加IDに存在した後の所定時間内に所定数以上のIDの減少があった場合には、当該選定IDはそれら減少した複数IDからの嫌われ者的存在の者であると判定できる。また、当該選定IDのみが共通IDに所定時間以上存在する場合には、当該選定IDは他の人を嫌う排他的傾向の者と判定できる。
【0119】
続いて、ステップS101で、同じ関係のもの、すなわち、同じIDに対して同じ関係に判定されたものの数を累計し、ステップS103で、当該選定IDについて判定を終了するかどうか判断する。このステップS103で“NO”であれば、つまり、行動パターンデータのすべての抽出時刻について処理を終了していない場合には、ステップS105へ進み、変数mをインクリメントして、ステップS95へ戻って次の抽出時刻のデータについて処理を繰り返す。
【0120】
一方、ステップS103で“YES”であれば、続くステップS107で、当該選定IDの他のIDに対する各関係の度合いを各累計回数および全滞在回数等に基づいて算出して記録する。そして、ステップS109で、すべての構成員IDについて処理を行ったかどうかを判断し、“NO”であればステップS91へ戻って別のIDを選定し、その別のIDについて処理を繰り返す。このようにして、たとえば図10に示すような関係データが生成される。
【0121】
そして、ステップS111で、関係データに基づいて一般的なグラフ解析手法を用いてソシオグラムを描画するためのデータを生成する。続くステップS113で、たとえば図11に示すようなソシオグラムを外部コンピュータ20のディスプレイに表示させて、この関係把握および表示処理を終了する。
【0122】
この実施例によれば、組織内に導入した接近装置としてのロボット12に設けられる取得手段によって、構成員を識別する情報を取得して、所定領域における各構成員の行動の履歴を記録するので、各構成員のごく自然な振る舞いを記録することができる。そして、そのような行動履歴に基づいて、その中に反映されている構成員間の関係性を見出して明らかにすることができる。したがって、構成員にあからさまに他の構成員に対する好き嫌いを尋ねるようなことなく、ありのままの情報から構成員間の関係性を見出すことができるので、各構成員間の関係(組織構造)を正確に把握することができる。
【0123】
なお、上述の実施例では、識別情報を取得するためにロボット12に設けられた無線タグ読取装置18や赤外線カメラ44等を使用していたが、これら取得手段はロボット12の近傍や周辺等に設けて、ロボット12の周囲や前方など近くに設定した所定領域を検知させるようにしてもよい。この場合、これら取得手段は外部コンピュータ20に接続し、行動履歴の記録や関係データの生成等のすべての処理は外部コンピュータ20で行うようにしてもよい。
【0124】
また、上述の各実施例では、組織の存在する空間内にロボット12を導入し、ロボット12を介在させたときの各構成員の行動を記録するようにしているが、組織の存在する空間に導入するものは、ロボット12に限られるものではない。つまり、ロボット12と同様に、たとえば、比較的長期にわたって構成員の興味を引いたり、構成員の注目を集めたり、構成員の注意を引き付けたり、あるいは親しみを感じさせたりするなどして、構成員をして自発的に近付かせるような接近装置を導入し、その接近装置の近傍の所定領域における構成員の行動履歴を記録するようにしてもよい。この場合、無線タグ読取装置18や赤外線カメラ44等の識別情報を取得するための手段を、その構成員を近付かせるための接近装置自体または接近装置の近傍ないし周辺等に設置するとともに、検知する所定領域をその接近装置の近くに設定する。このような構成員をして自発的に近づかせるための接近装置としてロボット12以外のものは、たとえば、PC、ディスプレイに接続されたビデオゲーム機、掲示物、教材、または動物(犬や兎等)の形状をしたぬいぐるみなど、種々の機器や道具などの様々な物体が考えられる。
【0125】
また、上述の各実施例では、システム10はロボット12(接近装置)および外部コンピュータ20を含むものであったが、外部コンピュータ20の備える機能をすべてロボット12のような接近装置に設けるようにして、つまり、たとえばディスプレイや、行動履歴データから関係データを生成して出力するためのプログラム等をロボット12のような接近装置に備えさせるようにして、接近装置のみで実現するようにしてもよい。この場合、接近装置であるロボット12や上述のたとえばぬいぐるみそのもの等が関係検知システム10となる。
【0126】
また、上述の各実施例では、無線タグ読取装置18および赤外線カメラ44等のような検知可能な所定領域の異なる複数の取得手段を使用することで、行動の測定精度を高めるようにしているが、場合によっては一方のみの使用で測定を行うようにしてもよい。
【0127】
また、上述の各実施例では、構成員を識別するための情報を取得するために無線タグ14や赤外線LEDタグ16を各構成員に取り付けておくようにしていたが、構成員を識別するための情報は、構成員そのものから取得するようにしてもよい。たとえば、CCDカメラ等のイメージセンサ(ロボット12では眼カメラ48や全方位カメラ42)によって構成員の顔の画像を取得し、予め準備しておいた構成員の顔画像データベースと照合することによって、識別するようにしてもよい。あるいは、構成員の指紋や虹彩等を読み取る装置を設けて、これらを同様にデータベースで照合することによって、識別することも考えられる。
【0128】
また、上述の各実施例では、組織構造として、主として個個の構成員間の関係性を把握する場合を説明したが、構成員を何らかの特徴ないし共通性によって所定の単位(基本的なまとまり)に分けて、その単位間の関係性を決定するようにしてもよい。組織を所定単位に分類する要素の例としては、たとえば性別,年齢,学年,世代,出身校,出身地,職業,職階,趣味など種々のものが考えられる。この場合にも、種々の観点から当該組織の構造を把握することができ、また、組織内の様々なコミュニケーション支援に役立てることが可能であろう。なお、これらの各要素の詳細は予め調査しておいてユーザDB98に構成員IDに関連付けて登録しておけばよい。あるいは、たとえば構成員の肌の色(白,黒,黄,褐色等)や髪の毛の色など、構成員の外見から取得できるような要素で分類する場合には、その識別情報をたとえばイメージセンサによって構成員そのものから直接検出するようにしてもよい。
【図面の簡単な説明】
【0129】
【図1】この発明の一実施例の関係検知システムの概要を示す図解図である。
【図2】図1のコミュニケーションロボットの外観を示す図解図(正面図)である。
【図3】図1のコミュニケーションロボットの内部構成を示すブロック図である。
【図4】図3のユーザDBの内容の一例を示す図解図である。
【図5】図1の履歴DBの内容の一例を示す図解図である。
【図6】無線タグ読取装置による検知領域と赤外線カメラによる検知領域との関係を示す図解図である。
【図7】確定した行動の履歴の一例を示す図解図である。
【図8】所定領域における行動パターンとそれに対応する構成員間の関係の一例を示す図解図である。
【図9】所定領域における行動パターンとそれに対応する構成員間の関係の他の一例を示す図解図である。
【図10】生成される関係データの内容の一例を示す図解図である。
【図11】表示されるソシオグラムの一例を示す図解図である。
【図12】ロボットにおける行動履歴の記録処理の動作の一例を示すフロー図である。
【図13】行動履歴の確定処理の動作の一例を示すフロー図である。
【図14】行動パターンデータの生成処理の動作の一例を示すフロー図である。
【図15】生成される行動パターンデータの内容の一例を示す図解図である。
【図16】関係の把握および表示処理の動作の一例を示すフロー図である。
【符号の説明】
【0130】
10 …関係検知システム
12 …コミュニケーションロボット
14 …無線タグ
16 …赤外線LEDタグ
18 …無線タグ読取装置
20 …外部コンピュータ
44 …赤外線カメラ
【技術分野】
【0001】
この発明は関係検知システムおよび接近装置に関し、特にたとえば、複数の構成員を含む組織における各構成員間の関係を検知する関係検知システム、および組織の存在する空間内に設けられて構成員を近付かせるための接近装置に関する。
【背景技術】
【0002】
従来、組織内の構成員の人間関係を把握する手法として、たとえばモレノ(J.L.Moreno)によって考案されたソシオメトリ(sociometry)がよく知られている。ソシオメトリは、集団内における好き(受容)と嫌い(拒否)とを調査することで、集団内における個人の位置や人間関係等のような組織の構造を測定するものである。具体的には、学校教育における学級内の児童・生徒の人間関係を把握するために適用されることが多い。ソシオメトリックテストと呼ばれる調査では、たとえば「クラス内で好きな人は誰?一緒に遊びたくない人は誰?」や、「席替え時に誰の隣に座りたい?誰の隣には座りたくない?」などの設問がなされ、好きな人および嫌いな人の名前を各人に書かせている。このテストの結果に基づいて、必要に応じてソシオグラムと呼ばれる図やソシオマトリクスと呼ばれる表などを作成することで、たとえば集団内の人気者、孤立児,排斥児など、個々の集団内の位置や友人関係等が明らかになる。たとえば、非特許文献1や非特許文献2には、PCにおいて、ソシオメトリックテストによって得た情報を入力データとしてソシオグラム等を出力するソフトウェアが紹介されている。
【非特許文献1】“ソシオメトリックスふれん図”、[online]、スズキ教育ソフト株式会社、[平成15年9月17日検索]、インターネット<URL:http://www.suzukisoft.co.jp/products/frends/index.htm>
【非特許文献2】“ソシオメトリックテスト for Windows”、[online]、シーイーエス開発室、[平成15年9月17日検索]、インターネット<URL:http://plaza5.mbn.or.jp/~cesdev/socio.html>
【発明の開示】
【発明が解決しようとする課題】
【0003】
従来では、ソシオメトリックテストで各構成員に直接好き嫌いを答えさせるので、そのあからさまな設問に各構成員は構えてしまってその回答に偽りが含まれるおそれがあった。また、設問の内容や時期等の調査の仕方によっては、人権問題となってしまったり、あるいはその後の人間関係に悪影響を及ぼしたりするおそれが強かった。したがって、正確な情報が得られず、構成員の関係を正確に把握することができないという問題があった。
【0004】
それゆえに、この発明の主たる目的は、構成員の関係の正確な把握を可能にする、関係検知システムおよび接近装置を提供することである。
【課題を解決するための手段】
【0005】
請求項1の発明は、複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴に基づいて関係を把握する把握手段を備える、関係検知システムである。
【0006】
請求項1の発明では、記録手段は、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する。所定領域はたとえばこのシステムの近くに設定される。この所定領域に対する構成員の行動は、各構成員の普段どおりの極自然な振る舞いであり、構成員間の関係性が反映されたものとなっている。そして、把握手段は、このような振る舞いすなわち行動の履歴に基づいて関係を把握する。したがって、請求項1の発明によれば、構成員の普段の関係の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。
【0007】
請求項2の発明は、複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、組織の存在する空間内に設けられるかつ構成員をして自発的に近付かせるための接近装置、構成員が接近装置の近くの所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴に基づいて関係を把握する把握手段を備える、関係検知システムである。
【0008】
請求項2の発明では、構成員をして自発的に近付かせるための接近装置が、組織の存在する空間内に設けられる。このような接近装置は、たとえば、一般的に言えば、構成員の興味を引いたり、構成員の注目を集めたり、構成員の注意を引いたり、あるいは、親しみを感じさせたりするようなものであり、実施例では、請求項4に挙げるようにコミュニケーションロボットなどが用いられる。そして、記録手段は、その接近装置の近くの所定領域内に構成員が存在するかどうかに関する行動の履歴を記録する。したがって、記録される構成員の行動は、たとえば、接近装置の近くに来ているかどうかに関するものであり、つまり、たとえば誰と誰とが一緒に来ているといったものである。これは、各構成員の普段どおりの極自然な振る舞いであって、構成員間の関係性が反映されたものとなっている。そして、把握手段は、このような行動の履歴に基づいて関係を把握する。したがって、請求項2の発明によれば、構成員の普段の関係性の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。
【0009】
請求項3の発明は、請求項1または2に従属する関係検知システムであって、記録手段は、構成員の識別情報を取得する取得手段を含み、取得手段によって取得された識別情報に基づいて、行動の履歴を記録する。
【0010】
請求項3の発明では、構成員の識別情報が取得手段によって取得され、記録手段は、取得された識別情報に基づいて、行動の履歴を記録する。したがって、構成員の識別情報を取得することによって、各構成員の行動を捕らえて見分けることができ、識別情報によって構成員の行動の履歴を確実に記録することができる。
【0011】
請求項4の発明は、請求項3に従属する関係検知システムであって、接近装置は、自律移動するための自律移動手段および取得手段を備えるコミュニケーションロボットを含む。
【0012】
請求項4の発明では、構成員を近付かせるための接近装置として、自律移動するコミュニケーションロボットが組織の存在する空間内に設けられ、コミュニケーションロボットに設けられる取得手段によって、構成員の識別情報が取得される。所定領域は、たとえばコミュニケーションロボットの近くに設定され、したがって、この所定領域に対する構成員の行動は、たとえばコミュニケーションを図るためにコミュニケーションロボットのところにやって来ているかどうかである。このようなコミュニケーションロボットに対する行動は、構成員間の普段の関係性が反映されたものとなっている。つまり、たとえば、普段から好意的関係を有する構成員同士は一緒にコミュニケーションロボットとコミュニケーションを図って遊ぼうとするであろうし、逆に、嫌いな関係にある構成員同士は一緒には遊ぼうとはしないであろう。したがって、コミュニケーションロボットを組織の空間内に配置することによって、構成員の普段どおりの極自然な振る舞いの中に各構成員の関係を浮かび上がらせて記録することができるので、各構成員の関係を正確に把握できる。
【0013】
請求項5の発明は、請求項3または4に従属する関係検知システムであって、取得手段は、複数の構成員のそれぞれに取り付けられた無線タグからの識別情報を取得する無線タグ読取手段を含む。
【0014】
請求項5の発明では、複数の構成員には識別情報の登録された無線タグがそれぞれ取り付けられ、取得手段は、無線タグからの識別情報を取得する無線タグ読取手段を含む。したがって、請求項5の発明によれば、各構成員に無線タグを装着させるだけで、所定領域に対する行動の履歴を簡単かつ確実に記録することができる。
【0015】
請求項6の発明は、請求項3ないし5のいずれかに従属する関係検知システムであって、取得手段は、複数の構成員のそれぞれに取り付けられた赤外線LEDタグからの識別情報を取得する赤外線検出手段を含む。
【0016】
請求項6の発明では、複数の構成員には赤外線LEDタグがそれぞれ取り付けられ、取得手段は、赤外線LEDタグからの識別情報を取得する赤外線検出手段を含む。したがって、請求項6の発明によれば、各構成員に赤外線LEDタグを装着させるだけで、所定領域に対する行動の履歴を簡単かつ確実に記録することができる。
【0017】
請求項7の発明は、請求項1ないし6のいずれかに従属する関係検知システムであって、把握手段は、所定領域における構成員の共存の仕方と、その共存の仕方に対応する構成員間の関係とを規定した所定の規則に基づいて、関係を把握する。
【0018】
請求項7の発明では、把握手段は、記録された行動の履歴と所定の規則とに基づいて関係を把握する。所定の規則は、所定領域における構成員の共存の仕方と、それに対応する構成員間の関係とを規定したものである。つまり、所定領域における他者との共存の仕方には人間関係が反映されているので、たとえば、その共存の仕方をパターン化した行動パターンと、それに対応する人間関係とを予め規定している。したがって、請求項7の発明によれば、組織における構成員の関係を簡単かつ正確に把握することができる。
【0019】
請求項8の発明は、請求項1ないし7のいずれかに従属する関係検知システムであって、把握手段によって把握された関係を表示する表示手段をさらに備える。
【0020】
請求項8の発明では、表示手段が把握された関係を表示する。したがって、請求項8の発明によれば、構成員の関係を明確かつ簡単に把握することができる。
【0021】
請求項9の発明は、請求項8に従属する関係検知システムであって、表示手段は関係をソシオグラムとして表示する。
【0022】
請求項9の発明では、把握された関係が図に表されたソシオグラムとして表示されるので、組織内の構成員の関係を明確かつ簡単に把握することができる。
【0023】
請求項10の発明は、請求項1ないし9のいずれかに従属する関係検知システムであって、把握手段によって把握される関係は、各構成員間の好き度もしくは嫌い度、または組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者の少なくとも一つを含む。
【0024】
請求項10の発明では、各構成員の関係が、たとえば、好き度もしくは嫌い度によって把握され、あるいは、組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者など特殊な関係が明らかにされる。したがって、組織における各構成員の関係を明確にかつ分かり易く把握することができる。
【0025】
請求項11の発明は、複数の構成員を含む組織が存在する空間内に設けられかつ構成員をして近付かせるための接近装置であって、組織の構成員の識別情報を取得する取得手段、取得手段によって取得された識別情報に基づいて、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴に基づいて構成員の関係を把握する把握手段を備える、接近装置である。
【0026】
請求項11の発明では、複数の構成員を含む組織の存在する空間内に設けられて、構成員をして近付かせるための接近装置が、上述の関係検知システムとして機能する。つまり、取得手段は構成員を識別するための情報を取得し、取得された識別情報に基づいて、記録手段は、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する。所定領域は、たとえば当該接近装置の近くに設定され、したがって、この所定領域に対する構成員の行動は、当該接近装置のところにやって来ているかどうかである。これは、各構成員の普段どおりの極自然な振る舞いであって、構成員間の関係性が反映されたものとなっている。そして、把握手段は、このような行動の履歴に基づいて関係を把握する。したがって、請求項11の発明によれば、構成員の普段の関係性の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。
【0027】
請求項12の発明は、請求項11に従属する接近装置であって、接近装置は、動物の形状をしたぬいぐるみである。請求項12の発明では、たとえば構成員の興味を引いたり、親しみを感じさせたりすることが容易であるので、構成員を自発的に近付かせることができる。したがって、構成員の普段どおりの極自然な振る舞いを記録することができ、それに基づいて構成員の関係を正確に把握することができる。
【0028】
請求項13の発明は、請求項11に従属する接近装置であって、接近装置は、さらに自律移動するための自律移動手段を備えたコミュニケーションロボットである。請求項13の発明では、請求項12と同様に、たとえば構成員の興味を引いたりすることが容易であるので、構成員をして自発的に近付かせることができる。したがって、構成員の普段どおりの極自然な振る舞いを記録することができ、それに基づいて構成員の関係を正確に把握できる。
【発明の効果】
【0029】
この発明によれば、各構成員の極自然な振る舞いを記録することができ、そのような振る舞いの履歴に基づいて、構成員の関係を把握することができる。したがって、各構成員に直接「好き」や「嫌い」やを尋ねて答えさせていないので、ありのままの情報を得ることができ、その結果構成員の関係を正確に把握することができる。
【0030】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【発明を実施するための最良の形態】
【0031】
図1を参照して、この実施例の関係検知システム(以下、単に「システム」とも言う。)10は、複数の構成員A,B,C…を含む組織における各構成員間の関係を検知するためのものである。ここで、組織内の各構成員間の関係は、具体的には、組織を個別の構成員単位で捉える場合には個個の構成員間の関係性であり、組織を何らかの特徴ないし共通性を基にした所定のまとまった単位で捉える場合には当該単位間での関係性である。この各構成員間の関係は、詳しくは、たとえば好き―嫌いや受容―拒否等のような関係を含み、また、リーダー的存在、嫌われ者的存在等といった構成員の組織内での位置のような特殊な関係等も含む。このような各構成員間の関係は、組織全体を構成する部分部分の関係であるので、以下では「組織構造」とも言うものとする。
【0032】
システム10は、構成員をして自発的に近付かせるための接近装置としてコミュニケーションロボット(以下、単に「ロボット」とも言う。)12を含み、ロボット12は検知対象の組織の存在する実空間内に設けられる。つまり、たとえば組織構造として学級内の児童の人間関係を検知するような場合には、当該学級の教室内にロボット12を配置する。ロボット12の詳細な構成は後述するが、ロボット12は、自律移動するための機構を備えた自律移動型のコミュニケーションロボットであり、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振りおよび音声の少なくとも一方を用いてコミュニケーションを行う機能を備えている。
【0033】
このようなロボット12が組織内に配置されると、各構成員A,B,C…はロボット12に興味を持ち、ロボット12に自発的に近付いて、コミュニケーションを図ろうとすることが期待される。しかし、ロボット12が一度に大勢とコミュニケーションをとることは無理があり、限られた数の人しかロボット12の前に存在することができない。このため、各構成員がロボット12に対して接近したり離れたりする行動は、その人間関係が反映されたものとなると考えられる。すなわち、たとえば、普段から好意的関係にある構成員同士はロボット12の前に一緒に滞在しようとするであろうし、逆に嫌いな関係にある構成員同士は一緒に滞在しようとはしないであろう。このように、各構成員のロボット12の前の所定領域内での共存の仕方には、その組織構造が現れていると言える。したがって、ロボット12を対象組織に導入することによって、組織構造を自然に浮かび上がらせることができる。この組織構造は各構成員の普段どおりの極自然な振る舞いの中に現れたものであり、従来のあからさまで直接的な調査では得ることのできない正確性を有している。
【0034】
したがって、そのような組織構造の反映されている所定領域内の構成員の行動をロボット12によって検知して、行動の履歴を記録する。行動を起こしている構成員を捕らえて見分けるために、たとえばロボット12に設けられた各種センサ等の取得手段によって構成員の識別情報が取得される。この実施例では、各構成員には、たとえばその正面側の胸や腹などの適宜な位置に、無線タグ14および赤外線LEDタグ16が取付または装着される。これらのタグ14および16からそれぞれ発せられた識別情報を取得することで、どの構成員がロボット12のところにやって来たのか、あるいは去っていったのかなど、ロボット12の近くに設定された所定領域内に対するその行動を確実に把握することが可能になる。
【0035】
無線タグ14にはたとえばRFIDタグが用いられる。RFID(Radio Frequency Identification)は、電磁波を利用した非接触ICタグによる自動認識技術のことである。RFIDタグ14は、識別情報用のメモリや通信用の制御回路等を備えるICチップおよびアンテナ等を含む。メモリには、構成員を識別可能な情報が予め記憶され、その識別情報が所定周波数の電磁波・電波等によってアンテナから出力される。伝送方式としては、この実施例では、構成員がロボット12のところにコミュニケーションを図りに来ているかどうかを記録するので、たとえば、交信距離の比較的長い電磁誘導方式(最大1m程度)またはマイクロ波方式(最大5m程度)のものを使用するのが望ましい。これらの場合には、各構成員はロボット12の検知可能な所定領域に入ると、無線タグ14を身に着けているだけで簡単に認識されることになる。
【0036】
なお、通信距離の比較的短い静電結合方式(数mm程度)や電磁結合方式(数cm程度)などを使用してもよいが、これらの場合にはロボット12のところに来た各構成員に、その無線タグ14を無線タグ読取装置18(図3参照)に近づけて読み取らせる作業をさせる必要がある。
【0037】
また、この実施例のように赤外線LEDタグ16を併用する場合には、赤外線を使用した光方式のRFIDは使用しないのが望ましい。さらにまた、電源の方式は電池内蔵の能動型および電池無しの受動型のどちらでもよいが、適切な交信距離領域を確保する必要がある。また、タグの形態ないし形状も任意であり、たとえばカード形、ラベル形、コイン形、スティック形等のいずれでもよい。
【0038】
赤外線LEDタグ16は、赤外線LED,その駆動回路および内蔵電池等を含む。赤外線LEDは、そのタグ16が取り付けられた構成員を識別可能なように、所定の点滅パターンで発光するよう制御される。この赤外線LEDタグ16の形態もRFIDタグ16と同様に任意である。また、各構成員はロボット12の検知可能な所定領域に入ると、赤外線LEDタグ16を装着しているだけで簡単に認識されることになる。
【0039】
ロボット12によって記録されたデータは、ロボット12の内部で、あるいはPC等のような外部コンピュータ20に転送された後に処理され、構成員の関係性が把握されて、出力されることとなる。把握された組織構造はたとえばソシオグラムで出力され、外部コンピュータ20のCRTやLCD等の表示手段に表示される。
【0040】
図2はロボット12の外観を示す正面図であり、この図2を参照して、ロボット12のハードウェアの構成について説明する。ロボット12は台車22を含み、この台車22の下面にはロボット12を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図3参照)によって駆動され、台車22すなわちロボット12を前後左右任意の方向に動かすことができる。このように、ロボット12は組織の空間内を移動可能なものであるが、場合によっては空間内の所定位置に固定的に設けられてもよい。
【0041】
なお、図2においては省略するが、台車22の前面には、衝突センサ28(図3参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット12の移動を急停止させる。
【0042】
また、この実施例では、ロボット12の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
【0043】
台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット12の周囲の主として人との距離を計測するものである。
【0044】
また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット12の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット12の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図3参照)によって駆動される。
【0045】
なお、上述したロボット12の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット12の背の高さは、100cm以上にすることも可能である。
【0046】
上部胴体36のほぼ中央には、1つの全方位カメラ42と1つの赤外線カメラ44と1つのマイク46とが設けられる。全方位カメラ42は、ロボット12の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。
【0047】
赤外線カメラ44は、赤外線を検出するためのものであり、所定数の赤外線検出素子を含む。この赤外線カメラ44の画角の領域内に構成員が存在する場合、その赤外線LEDタグ16から発せられた赤外線が取得され、赤外線の点滅パターンによってその構成員が識別されることとなる。また、マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42,赤外線カメラ44およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。
【0048】
上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
【0049】
また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。
【0050】
なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。
【0051】
また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図3で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット12の当該各部位に触れたかどうかを検知する。
【0052】
前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
【0053】
なお、ロボット12の形状・寸法等は適宜設定されるが、他の実施例では、たとえば、上部胴体36は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体36を上から見た形状が台形になるように形成されてもよい。
【0054】
このような場合、肩関節50Rおよび50Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕52Rおよび上腕52Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕52Rおよび52Lは取り付け面を超えて回動することはない。
【0055】
しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕52Rおよび52Lの長さ、ならびに前腕56Rおよび56Lの長さ等を適宜に設定すれば、上腕52Rおよび52Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット12の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接で親密なコミュニケーション行動を実行することができる。
【0056】
上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット12が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット12の他の部位、たとえば胴体などに設けられてもよい。
【0057】
また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。
【0058】
眼カメラ48は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。
【0059】
たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
【0060】
なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
【0061】
さらに、たとえば頭部64の横の右肩部には、無線タグ読取装置18のアンテナ70が設けられる。アンテナ70はRFIDタグ14から送信される識別情報が重畳された電磁波ないし電波を受信する。
【0062】
図3はロボット12の電気的な構成を示すブロック図であり、この図3を参照して、ロボット12は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。
【0063】
メモリ76は、図示は省略するが、ROMやRAMを含み、ROMにはロボット12の制御プログラムが予め記憶され、RAMはワークメモリやバッファメモリとして用いられる。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部コンピュータ20と通信するためのプログラム、および識別情報を取得して構成員の行動履歴を記録するためのプログラム等を含む。メモリ76にはまた、コミュニケーション行動の実行の際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等も記憶される。
【0064】
モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。
【0065】
また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。
【0066】
さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
【0067】
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
【0068】
センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ58」と示す。)からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。さらに、上述した衝突センサ28からの信号も、同様にして、CPU72に与えられる。赤外線カメラ44からの赤外線画像はこのセンサ入力/出力ボード80で処理されることによって、赤外線LEDタグ16から発せられる識別情報およびその画像内の位置情報等が取得された後、CPU72に与えられる。
【0069】
音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。
【0070】
また、CPU72は、バス74を介して通信LANボード94および無線タグ読取装置18に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータ20に送信させる。また、通信LANボード94は、無線通信装置96を介してデータを受信し、受信したデータをCPU72に与える。つまり、この通信LANボード94および無線通信装置96によって、ロボット12は外部コンピュータ20等と無線通信を行うことができる。
【0071】
無線タグ読取装置18は、RFIDタグ14から送信される識別情報の重畳された電波を、アンテナ70を介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該情報を復調(デコード)してCPU72に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU72に与えるようにしてもよい。
【0072】
さらに、CPU72は、バス74を介してユーザ情報データベース(以下「ユーザDB」とする。)98および行動履歴データベース(以下「履歴DB」とする。)100に接続される。ただし、これらのデータベースは、外部コンピュータ20または外部のネットワーク上にアクセス可能に設けるようにしてもよい。
【0073】
ユーザDB98は、ユーザ情報すなわち検知対象組織に属する構成員の情報を登録しているデータベースであり、この実施例では、図4に示すようなユーザ情報のテーブルを記憶している。ユーザDB98には、たとえば、構成員IDに対応付けて、構成員名、装着されるRFIDタグ14の識別情報および赤外線LEDタグ16の識別情報(点滅パターン)等が記憶される。図4では、たとえば構成員Aには、“AAAA”という識別情報の登録されたRFIDタグ14が装着され、また、“Ta”の点滅パターンで発光される赤外線LEDタグ16が装着されていることが分かる。
【0074】
履歴DB100は、構成員の行動の履歴を記録するためのデータベースである。この行動は、構成員がロボット12のところにコミュニケーションを図りに来ているかどうかに関しての行動を意味する。つまり、取得手段(この実施例では無線タグ読取装置18および赤外線カメラ44)によって検知可能なロボット12の近くの所定領域内に構成員が存在しているかどうかについての時間変化が記録される。
【0075】
コミュニケーション行動の一例として、ロボット12は次のような種々の行動を取ることが可能である。たとえば、「こんにちは」と話しかけて返事があった場合、「握手しよう」と言って一方の腕52および60を前方に差し出す。「こんにちは」と話しかけて返事がなかった場合、「バイバイ」と言う。眼カメラ48からの画像データに人の顔を認識した場合、その人の顔の方向に頭部64の顔側や眼球部68を向ける。触られた場合、触られた部位の方に頭部64の顔側を向ける。このように、ロボット12は、自ら能動的にコミュニケーション行動を提示して、それに対する人間の反応を認識し、その認識結果に応じて異なった行動をさらに提示することができるし、人間と同じような反応動作も行うことができる。
【0076】
また、この実施例では、コミュニケーション相手となる各構成員にRFIDタグ14および赤外線LEDタグ16によって識別情報が与えられるので、実際のコミュニケーション相手に合わせた個別のコミュニケーション行動を実行することも可能である。たとえば、各構成員の名前に相当する音声データを記憶しておけば、識別情報を取得してコミュニケーションをとっている構成員を特定し、その構成員の名前を呼びかけることができる。また、どの構成員との間でどのようなコミュニケーション行動を実行したかが分かる実行履歴を記録しておいて、その履歴に基づいたコミュニケーション行動を実行することも可能である。たとえば、初めて来た構成員に対しては「はじめまして」と、久しぶりに来た構成員に対しては「久しぶり」と呼びかけることができるし、全員に連絡すべき情報がある場合、未だ聞いていない構成員が来たときのみその情報を伝えるといった適切な行動を実行できる。ロボット12がこのような個人的なコミュニケーション行動をも実行できるので、各構成員にRFIDタグ14や赤外線LEDタグ16等を装着させたとしても、特に違和感や疑問を覚えさせることもなく、自然な行動を記録することができる。
【0077】
このようなロボット12が、組織の存在する空間内に、たとえば学級の児童の組織構造を検知する場合にはその学級の教室内に配置される。ロボット12は、コミュニケーションを図りに来た上記した各構成員に対してコミュニケーション行動を実行するとともに、一定時間ごと(たとえば1秒間隔など)に識別情報の取得を試み、取得したデータに基づいて構成員の行動の履歴を履歴DB100に記録する。具体的には、RFIDタグ14からの識別情報および赤外線LEDタグ16からの識別情報が一定時間ごとに取り込まれ、所定の領域内に存在している構成員の情報が記録される。
【0078】
履歴DB100に記録されるデータは、たとえば図5に示すように、取り込み時刻ごとの、無線タグ読取装置18によって検知された構成員の情報、および赤外線カメラ44によって検知された構成員の情報等を含む。なお、赤外線LEDタグ16の識別情報はそのオン・オフのパターンであるので、取り込み時刻を含む所定の時間にわたってデータの取り込みを行って解析することによって、その点滅パターンを特定することができる。
【0079】
構成員の情報としては、たとえば、取得した識別情報とユーザDB98とを照合して求められた構成員IDが記述される。なお、構成員情報の記述はこれに限るものではなく、たとえば無線タグ読取装置18による検知としては、取得したRFIDの識別情報をそのまま記述してもよいし、あるいは構成員名等を記述してもよい。また、赤外線カメラ44による検知としても、同様に、取得した識別情報を記述してもよいし、構成員名等を記述してもよい。
【0080】
この図5の例では、たとえば時刻t20においては、無線タグ読取装置18によって構成員A,BおよびCの3人が検知され、赤外線カメラ44によって構成員AおよびBの2人が検知されたことがわかる。この時刻t20のように取得手段の種類によって検知される構成員が異なるのは、取得手段ごとに検知可能な所定領域が異なるためである。
【0081】
図6には、無線タグ読取装置18によって検知可能な所定領域と、赤外線カメラ44によって検知可能な所定領域との関係の一例が示される。無線タグ読取装置18による検知領域(長破線表示)は、適用されるRFIDの通信距離によって決まるものであり、ロボット12(アンテナ70)からそのRFIDの通信距離までの範囲である。また、赤外線カメラ44による検知領域(点線表示)は、赤外線カメラ44の画角によって決まるものであり、赤外線カメラ44はロボット12の正面側に設けられるので、ロボット12の前方側にある。この図6では、無線タグ読取装置18による所定領域内に構成員A,BおよびCが存在しており、さらに構成員AおよびBは赤外線カメラ44による所定領域内にも存在している。したがって、この場合、上述の図5における時刻t20のような測定結果が得られることとなる。
【0082】
このような構成員A,BおよびCの位置関係を考えると、構成員AおよびBはロボット12とコミュニケーションを図るためにロボット12の直前に一緒に存在しており、一方、構成員Cは、たとえば傍らで見ているのかあるいは仲間に加わろうとしているのかは不明であるが、いずれにせよ構成員AおよびBとは一緒に存在するには至っていないと判断できる。つまり、構成員A,BおよびCのうち、無線タグ読取装置18および赤外線カメラ44の両方で検知された構成員AおよびBだけが、ロボット12の前に来ているとみなすことができる。このように、無線タグ読取装置18および赤外線カメラ44の複数の取得手段を使用することで、ロボット12の前に来ていない構成員を排除して、各構成員の行動の測定精度を上げることができ、したがって、より正確な組織構造の検知が可能になる。
【0083】
なお、赤外線カメラ44の画角が比較的大きい場合には、ロボット12とコミュニケーションを図りに来ているわけではなく、離れた位置から傍観しているような構成員までも検知することとなるので、広い視野の端部で検出される情報を除外し、視野の所定範囲において検出される情報のみを適用して、検知した構成員の情報として記録することが望ましい。
【0084】
検知した構成員の情報を履歴DB100に記録した後、無線タグ読取装置18による検知結果と赤外線カメラ44による検知結果とに基づいて、一致する構成員を抽出する。そして、図7に示すように、その抽出された構成員が、その時刻において所定領域に存在していた構成員として確定される。つまり、この場合の所定領域は、無線タグ読取装置18による検知領域と赤外線カメラ44による検知領域との重なる部分である。たとえば時刻t20にロボット12の前に来ていた構成員はAおよびBとされる。この確定された行動履歴のデータは履歴DB100に記録してもよい。このように複数の取得手段を組み合わせることで、所定領域をより正確に設定することができ、より正確な行動の履歴を記録することができるので、より正確な組織構造を検知することができる。
【0085】
なお、このような行動履歴の確定処理は、記録した行動履歴データを外部コンピュータ20に転送して、外部コンピュータ20のCPUによって実行させるようにしてもよい。
【0086】
そして、この確定された行動履歴に基づいて組織構造が把握される。この組織構造把握処理はロボット12の内部でCPU72によって行われてもよいし、または、記録した行動履歴データもしくは確定された行動履歴データを外部コンピュータ20に転送して、外部コンピュータ20のCPUによって行われてもよい。
【0087】
具体的には、行動履歴を所定の変換規則に照合して構成員間の関係性を判定する。変換規則は、所定の領域における構成員の共存の仕方と、それに対応する人間関係を規定したものである。人間のロボット12を介在させた所定の領域における他者との共存の仕方にはその人間関係が現れていると考えられるので、その共存の仕方をパターン化し、その行動パターンごとに人間関係がどのようなものであるかをルールとして予め定めている。
【0088】
図8には変換規則の一例として、典型的なルールのいくつかが示される。図8(A)には、ロボット12の前に構成員AおよびBの二人が常に同時に滞在する場合が示されていて、この場合の人間関係は、構成員AおよびBが相互に好意を持っている関係であると判定される。図8(B)には、ロボット12の前に先に構成員Aが来ていて、その後に構成員Bが来た場合が示されている。この場合の人間関係は、構成員BはAに対して好意を持っている関係であると判定される。図8(C)には、ロボット12の前に構成員Bが滞在していて、その後に構成員Aが来るとBが去っていく場合が示されている。この場合の人間関係は、構成員BはAを嫌っている関係であると判定される。
【0089】
図9には変換規則の一例として、より複雑な場合のルールのいくつかが示される。図9(A)には、ロボット12の前に構成員Aが来ると人が集まる場合が示される。この場合、集まった人達は構成員Aに好意を持っている関係にあり、さらにAはリーダー的存在の者である可能性が高いと判定される。なお、この場合の好意の度合は図8で示した1対1の関係における好意よりも弱いものに設定される。図9(B)には、ロボット12の前に人が集まっていて、その後構成員Aが来るとその人達が去っていく場合が示される。この場合、去っていった人達は構成員Aを嫌っている関係にあり、さらにAは嫌われ者的存在の者である可能性が高いと判定される。なお、この場合の嫌いの度合は、図8で示した1対1の関係における嫌いよりも弱いものに設定される。図9(C)には、構成員Aが他に誰もいないときにロボット12と遊ぶ場合が示される。この場合、構成員Aは他の人を嫌う傾向(排他的傾向)を有する者と判定される。
【0090】
たとえば、図7に示した行動履歴の場合、時刻t10からt30までは構成員AおよびBが同時に滞在していたので、この間の取得時刻の回数分は構成員AとBとは相互に好意を持っていると判定される。また、時刻t30においては構成員Cがやって来たので、構成員Cは構成員AとBに対して好意を持っていると判定される。また、時刻t30で構成員Cが来たことによって時刻t40では構成員Bが既にいなくなってしまったので、構成員Bは構成員Cを嫌っていると判定される。
【0091】
このようにして、行動履歴データと変換規則に基づいて構成員間の関係性を判定することで、簡単に組織構造を把握することができる。そして、その判定結果に基づいて関係データを生成する。関係データは、たとえば図10に示すように、構成員(構成員ID)ごとの、他の構成員のそれぞれに対する人間関係に関する情報、たとえば好き度,嫌い度等を含む。また、この関係データには、変換規則によって判定された、たとえばリーダー的存在の者、嫌われ者的存在の者および排他的傾向を有する者等のような特殊関係情報も含まれる。リーダー的存在や嫌われ者的存在等は、たとえばどの構成員に対してそのような特殊関係にあるのかも記述される。これによって、当該組織構造を明確に、また分かり易い態様で把握することができる。
【0092】
好き度および嫌い度は、たとえば、他の構成員のそれぞれに対して、好きと判定された回数、および嫌いと判定された回数をそれぞれ累計し、各累計を全滞在回数で割ることによって算出される。したがって、好き度合いは一緒に滞在した時間が長い(滞在回数が多い)程大きくなる。また、図10では省略してあるが、好き嫌いの方向性については、たとえば、一方的に好き、相互に好き、または一方的に嫌い等と判定された回数をそれぞれ累計し、最も多いものに決定する。
【0093】
このようにして得られる関係データは、測定時間を長く設定して、取得データ量を増やすことによって、その精度を向上させることができるのは言うまでもない。組織の規模にもよるが、たとえば、ロボット12を、1日から数日、あるいは1週間から数週間程度、組織内に配置することが考えられる。なお、少なくとも1度はすべての構成員にロボット12とコミュニケーションする機会を与えるのに充分な時間を確保する必要がある。
【0094】
そして、生成された関係データに基づいて、組織構造を適宜な形態で出力する。つまり、たとえば、図11に示すような組織構造を図で表したソシオグラムや、表で示したソシオマトリックス(図示せず)などを、外部コンピュータ20のディスプレイに表示させたり、プリンタに出力したりする。なお、ロボット12の内部で関係データを生成する場合には、生成した関係データを外部コンピュータ20に転送してディスプレイに表示させる。
【0095】
ソシオグラムは、上述のような各構成員間の人間関係に関する情報を、たとえば、主成分分析,ばねモデル解析等のような一般的なグラフ解析の手法を用いて変換することによって生成することができる。このソシオグラムによって当該組織の構造を明確に示すことができる。
【0096】
たとえば図11のソシオグラム画面では、各構成員は名前の書かれた丸印によって示され、各構成員間の関係性は互いを接続する矢印で示されている。この矢印は図8および図9で示した判定結果において用いられる矢印と同様であり、黒い矢印は「好き」を示し、白抜きに×印が加えられた矢印は「嫌い」を示している。それらの度合いは、矢印の長さと太さで示されている。長さに関しては、好き度合いが高いほど短くされ、嫌い度が高いほど長くされる。また、太さに関しては、好きおよび嫌いの度合いが高いほど太くされる。
【0097】
このソシオグラムによって、たとえば仲良しグループの存在が浮き彫りになるし、嫌われ者(いじめられっ子)も見つけることができる。また、誰が好き嫌いが激しく、全体の組織作りに最も関与しているか等も把握できる。たとえば図11のソシオグラムでは、組織内に、構成員A,B,CおよびDを含むグループと、構成員F,GおよびHを含むグループとが存在していることや、構成員Eが全体から排斥されていること等が明らかにわかる。したがって、組織構造を適宜な形態で表示出力することによって、組織構造を明確かつ簡単に把握することができる。そして、このシステム10によって見出された組織構造を用いて、たとえば学校教育では、いじめられっ子の発見や学級運営,生徒指導などのような、様々なコミュニケーション支援に役立てることができる。
【0098】
このようにして、ロボット12によって測定したときの当該組織における構成員の関係を明確に把握することができる。さらに、測定を継続的または定期的(たとえば毎月,毎学期,毎季など)に実施することによって、人間関係の動的な時間変化を捉えることも可能であり、たとえばいじめの解消等のようなコミュニケーション支援の成果等も確認することができる。
【0099】
図12には、ロボット12の行動履歴の記録処理の動作の一例が示される。ロボット12が対象組織内に配置されて、行動履歴の記録が開始されると、ロボット12のCPU72は、まず、ステップS1でコミュニケーション行動の開始を実行する。これによって、ロボット12は、行動履歴の記録と並行して構成員との間でのコミュニケーション行動を実行することとなる。次に、ステップS3でタイマのカウントを開始させ、ステップS5で現時刻がデータの取り込み時刻であるか否かを判断する。この実施例では一定周期(たとえば1秒間隔)でデータの取り込みが行われるので、一定時間が経過したかが判断される。ステップS5で“YES”であれば、続くステップS7で、CPU72は無線タグ読取装置18をチェックしてRFIDの識別情報があるかどうかを判断し、ある場合にはステップS9で、RFIDの識別情報を取得してメモリ76の所定エリアに記憶する。一方、ステップS7で“NO”であればそのままステップS11へ進む。
【0100】
ステップS11では、CPU72はセンサ入力/出力ボード80をチェックして赤外線タグの識別情報があるかどうかを判断し、ある場合にはステップS13で赤外線タグの識別情報を取得してメモリ76の所定エリアに記憶する。一方、ステップS11で“NO”であればそのままステップS15へ進む。
【0101】
ステップS15では、CPU72はユーザDB98(図4)を参照して、RFIDによる識別情報および赤外線LEDによる識別情報に対応する構成員IDをそれぞれ取得してメモリ76の所定エリアに記憶する。
【0102】
続いて、ステップS17で、CPU72は、当該識別情報の取り込み時刻と関連付けて、各構成員IDを履歴DB100に記録する(図5)。なお、取り込み時刻は一定時間ごとにあるので、この図5では取り込み時刻を順にtn(nは正の整数)で示している。そして、再びステップS5に戻って、取り込み時刻か否かを判断し、“YES”であれば識別情報の取得および記録を繰り返す。
【0103】
一方、ステップS5で“NO”であれば、ステップS19で、所定の取り込み終了時刻を超えたか否かを判断する。このステップS19で“NO”であれば再びステップS5に戻って識別情報の取得および記録を繰り返す。他方、ステップS19で“YES”であれば、この行動履歴の記録処理を終了する。このようにして、図5に示したような行動履歴DB100を得ることができる。
【0104】
図13には、行動履歴の確定処理の動作の一例が示される。なお、この図13の処理、ならびに後述する図14および図16の処理は、上述のように場合によってはロボット12の内部でそのCPU72によって処理されてよいが、ここでは、ロボット12で行動履歴の記録を終了した後は、その履歴DB100のデータを外部コンピュータ20へ転送して、外部コンピュータ20で行動履歴データを処理するものとして説明する。
【0105】
図13に示すように、外部コンピュータ20のCPUは、まず、ステップS31で取り込み時刻を指定するための変数nの初期値を1に設定し、次に、ステップS33で、履歴データの時刻tnのデータについて、RFID読取装置18によって検知された構成員IDが記録されているかどうかを判断する。ここでは、履歴データについて最初の取り込み時刻のデータから順に処理を行っている。このステップS33で“NO”であれば、ステップS45へ進む。一方、ステップS33で“YES”であれば、続くステップS35でRFIDタグ14による構成員IDを履歴データから読み込んで取得する。
【0106】
続いて、ステップS37で、履歴データの時刻tnのデータについて、赤外線タグによる構成員IDが記録されているかどうかを判断する。このステップS37で“NO”であればステップS45へ進む。一方、ステップS37で“YES”であれば、続くステップS39で、赤外線LEDタグ16による構成員IDを履歴データから読み込んで取得する。
【0107】
続くステップS41では、RFIDタグ14による構成員IDと赤外線LEDタグ16による構成員IDとを比較して、両者に共通する構成員IDを抽出する。このように、RFID読取装置18と赤外線カメラ44の両方で検知された構成員IDのみを所定領域に存在するものとして抽出する。
【0108】
そして、ステップS43で、当該時刻tnに対応付けて、抽出した構成員IDを確定行動履歴データとしてメモリの所定エリアに記録する。
【0109】
ステップS45では、時刻tnが取り込み終了時刻であるかどうか、つまり、履歴データのすべての取り込み時刻tnについて、抽出処理が終了したかどうかを判断し、“NO”であれば、ステップS47で、変数nをインクリメントして、ステップS33に戻り、次の取り込み時刻tnについての抽出処理を繰り返し行う。一方、ステップS45で“YES”であれば、この行動履歴の確定処理を終了する。このようにして、履歴データのすべての取り込み時刻tnについて、所定領域に存在するとみなせる構成員IDの抽出を行って、確定行動履歴データを生成する。
【0110】
この確定行動履歴データに基づいて、構成員の関係の把握処理が実行される。具体的には、上述のように、たとえば図8および図9に示したような所定の変換規則に基づいて関係が判定されるので、確定行動履歴データに前処理を施して判定を容易に行えるようにする。すなわち、図14に示すような行動パターンデータの生成処理によって、確定行動履歴データから測定時刻の前後における構成員IDの変化を抽出した行動パターンデータを生成する。
【0111】
図14の最初のステップS61で、外部コンピュータ20のCPUは、取り込み時刻を指定するための変数mの初期値を0に設定し、次に、ステップS63で、確定行動履歴データの時刻tmについての構成員IDデータと、次の時刻tm+1についての構成員IDデータとを読み込んで取得する。
【0112】
続いて、ステップS65で、両構成員IDを比較して、両者に共通する構成員ID、次の時刻tm+1になったときに増加した構成員ID、および減少した構成員ID等を抽出する。
【0113】
そして、ステップS67で、抽出した共通する構成員ID、増加した構成員ID、および減少した構成員ID等を、たとえばその時刻tm+1に対応付けて、行動パターンデータとして記録する。
【0114】
続くステップS69で、当該時刻tm+1が取り込み終了時刻であるかどうか、つまり、確定行動履歴データのすべての隣り合う時刻の組について上述の抽出処理等を行ったかどうかを判断する。このステップS69で“NO”であれば、続くステップS71で変数mをインクリメントし、ステップS63へ戻って、次の時刻の組についての処理を繰り返す。一方、ステップS69で“YES”であれば、この行動パターンデータの生成処理を終了する。
【0115】
このようにして、確定行動履歴データにおいてすべての測定時刻の前後で共通するID,増加したIDおよび減少したID等の抽出を行って、図15に示すような行動パターンデータを生成する。これによって、確定行動履歴データを構成員の行動パターンとして捉えることができるので、構成員の行動パターンとそれに対応する関係とを規定した変換規則に基づいた判定を容易に行うことが可能となる。
【0116】
図16には、関係の把握および表示処理の動作の一例が示される。外部コンピュータ20のCPUは、まず、ステップS91で、関係を求める1つの構成員IDを選定する。次に、ステップS93で、行動パターンデータにおける抽出時刻を指定するための変数mの初期値を0に設定し、続くステップS95で、行動パターンデータの時刻tm+1のデータを読み込んで取得する。
【0117】
そして、ステップS97で、当該データについて、共通するID、増加したID、または減少したIDが有るか否かを判断する。このステップS97で“NO”であればステップS105へ進む。
【0118】
一方、ステップS97で“YES”であれば、ステップS99で、そのデータについて、当該選定したIDと他のIDとの関係を変換規則に基づいて判定し、その結果を記録する。たとえば、図8および図9に示した例によれば、当該選定したIDが共通IDに存在する場合には、共通IDの他のIDとは相互に好きと判定することができる。また、当該選定したIDが増加IDにある場合には、共通IDのIDに対して、または共通IDのうち所定時間前まで遡った範囲で増加していたID等に対して一方的に好きと判定することができる。また、当該選定したIDが減少IDにある場合には、所定時間前までの範囲で増加したID等に対して一方的に嫌いと判定することができる。さらにまた、当該選定したIDが増加IDに存在した後の所定時間の範囲内に所定数以上のIDの増加があった場合には、当該選定IDはそれら増加した複数IDのリーダー的存在の者であると判定できる。また、当該選定IDが増加IDに存在した後の所定時間内に所定数以上のIDの減少があった場合には、当該選定IDはそれら減少した複数IDからの嫌われ者的存在の者であると判定できる。また、当該選定IDのみが共通IDに所定時間以上存在する場合には、当該選定IDは他の人を嫌う排他的傾向の者と判定できる。
【0119】
続いて、ステップS101で、同じ関係のもの、すなわち、同じIDに対して同じ関係に判定されたものの数を累計し、ステップS103で、当該選定IDについて判定を終了するかどうか判断する。このステップS103で“NO”であれば、つまり、行動パターンデータのすべての抽出時刻について処理を終了していない場合には、ステップS105へ進み、変数mをインクリメントして、ステップS95へ戻って次の抽出時刻のデータについて処理を繰り返す。
【0120】
一方、ステップS103で“YES”であれば、続くステップS107で、当該選定IDの他のIDに対する各関係の度合いを各累計回数および全滞在回数等に基づいて算出して記録する。そして、ステップS109で、すべての構成員IDについて処理を行ったかどうかを判断し、“NO”であればステップS91へ戻って別のIDを選定し、その別のIDについて処理を繰り返す。このようにして、たとえば図10に示すような関係データが生成される。
【0121】
そして、ステップS111で、関係データに基づいて一般的なグラフ解析手法を用いてソシオグラムを描画するためのデータを生成する。続くステップS113で、たとえば図11に示すようなソシオグラムを外部コンピュータ20のディスプレイに表示させて、この関係把握および表示処理を終了する。
【0122】
この実施例によれば、組織内に導入した接近装置としてのロボット12に設けられる取得手段によって、構成員を識別する情報を取得して、所定領域における各構成員の行動の履歴を記録するので、各構成員のごく自然な振る舞いを記録することができる。そして、そのような行動履歴に基づいて、その中に反映されている構成員間の関係性を見出して明らかにすることができる。したがって、構成員にあからさまに他の構成員に対する好き嫌いを尋ねるようなことなく、ありのままの情報から構成員間の関係性を見出すことができるので、各構成員間の関係(組織構造)を正確に把握することができる。
【0123】
なお、上述の実施例では、識別情報を取得するためにロボット12に設けられた無線タグ読取装置18や赤外線カメラ44等を使用していたが、これら取得手段はロボット12の近傍や周辺等に設けて、ロボット12の周囲や前方など近くに設定した所定領域を検知させるようにしてもよい。この場合、これら取得手段は外部コンピュータ20に接続し、行動履歴の記録や関係データの生成等のすべての処理は外部コンピュータ20で行うようにしてもよい。
【0124】
また、上述の各実施例では、組織の存在する空間内にロボット12を導入し、ロボット12を介在させたときの各構成員の行動を記録するようにしているが、組織の存在する空間に導入するものは、ロボット12に限られるものではない。つまり、ロボット12と同様に、たとえば、比較的長期にわたって構成員の興味を引いたり、構成員の注目を集めたり、構成員の注意を引き付けたり、あるいは親しみを感じさせたりするなどして、構成員をして自発的に近付かせるような接近装置を導入し、その接近装置の近傍の所定領域における構成員の行動履歴を記録するようにしてもよい。この場合、無線タグ読取装置18や赤外線カメラ44等の識別情報を取得するための手段を、その構成員を近付かせるための接近装置自体または接近装置の近傍ないし周辺等に設置するとともに、検知する所定領域をその接近装置の近くに設定する。このような構成員をして自発的に近づかせるための接近装置としてロボット12以外のものは、たとえば、PC、ディスプレイに接続されたビデオゲーム機、掲示物、教材、または動物(犬や兎等)の形状をしたぬいぐるみなど、種々の機器や道具などの様々な物体が考えられる。
【0125】
また、上述の各実施例では、システム10はロボット12(接近装置)および外部コンピュータ20を含むものであったが、外部コンピュータ20の備える機能をすべてロボット12のような接近装置に設けるようにして、つまり、たとえばディスプレイや、行動履歴データから関係データを生成して出力するためのプログラム等をロボット12のような接近装置に備えさせるようにして、接近装置のみで実現するようにしてもよい。この場合、接近装置であるロボット12や上述のたとえばぬいぐるみそのもの等が関係検知システム10となる。
【0126】
また、上述の各実施例では、無線タグ読取装置18および赤外線カメラ44等のような検知可能な所定領域の異なる複数の取得手段を使用することで、行動の測定精度を高めるようにしているが、場合によっては一方のみの使用で測定を行うようにしてもよい。
【0127】
また、上述の各実施例では、構成員を識別するための情報を取得するために無線タグ14や赤外線LEDタグ16を各構成員に取り付けておくようにしていたが、構成員を識別するための情報は、構成員そのものから取得するようにしてもよい。たとえば、CCDカメラ等のイメージセンサ(ロボット12では眼カメラ48や全方位カメラ42)によって構成員の顔の画像を取得し、予め準備しておいた構成員の顔画像データベースと照合することによって、識別するようにしてもよい。あるいは、構成員の指紋や虹彩等を読み取る装置を設けて、これらを同様にデータベースで照合することによって、識別することも考えられる。
【0128】
また、上述の各実施例では、組織構造として、主として個個の構成員間の関係性を把握する場合を説明したが、構成員を何らかの特徴ないし共通性によって所定の単位(基本的なまとまり)に分けて、その単位間の関係性を決定するようにしてもよい。組織を所定単位に分類する要素の例としては、たとえば性別,年齢,学年,世代,出身校,出身地,職業,職階,趣味など種々のものが考えられる。この場合にも、種々の観点から当該組織の構造を把握することができ、また、組織内の様々なコミュニケーション支援に役立てることが可能であろう。なお、これらの各要素の詳細は予め調査しておいてユーザDB98に構成員IDに関連付けて登録しておけばよい。あるいは、たとえば構成員の肌の色(白,黒,黄,褐色等)や髪の毛の色など、構成員の外見から取得できるような要素で分類する場合には、その識別情報をたとえばイメージセンサによって構成員そのものから直接検出するようにしてもよい。
【図面の簡単な説明】
【0129】
【図1】この発明の一実施例の関係検知システムの概要を示す図解図である。
【図2】図1のコミュニケーションロボットの外観を示す図解図(正面図)である。
【図3】図1のコミュニケーションロボットの内部構成を示すブロック図である。
【図4】図3のユーザDBの内容の一例を示す図解図である。
【図5】図1の履歴DBの内容の一例を示す図解図である。
【図6】無線タグ読取装置による検知領域と赤外線カメラによる検知領域との関係を示す図解図である。
【図7】確定した行動の履歴の一例を示す図解図である。
【図8】所定領域における行動パターンとそれに対応する構成員間の関係の一例を示す図解図である。
【図9】所定領域における行動パターンとそれに対応する構成員間の関係の他の一例を示す図解図である。
【図10】生成される関係データの内容の一例を示す図解図である。
【図11】表示されるソシオグラムの一例を示す図解図である。
【図12】ロボットにおける行動履歴の記録処理の動作の一例を示すフロー図である。
【図13】行動履歴の確定処理の動作の一例を示すフロー図である。
【図14】行動パターンデータの生成処理の動作の一例を示すフロー図である。
【図15】生成される行動パターンデータの内容の一例を示す図解図である。
【図16】関係の把握および表示処理の動作の一例を示すフロー図である。
【符号の説明】
【0130】
10 …関係検知システム
12 …コミュニケーションロボット
14 …無線タグ
16 …赤外線LEDタグ
18 …無線タグ読取装置
20 …外部コンピュータ
44 …赤外線カメラ
【特許請求の範囲】
【請求項1】
複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、
前記構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴に基づいて前記関係を把握する把握手段を備える、関係検知システム。
【請求項2】
複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、
前記組織の存在する空間内に設けられるかつ前記構成員をして自発的に近付かせるための接近装置、
前記構成員が前記接近装置の近くの所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴に基づいて前記関係を把握する把握手段を備える、関係検知システム。
【請求項3】
前記記録手段は、前記構成員の識別情報を取得する取得手段を含み、前記取得手段によって取得された前記識別情報に基づいて、前記行動の履歴を記録する、請求項1または2記載の関係検知システム。
【請求項4】
前記接近装置は、自律移動するための自律移動手段および前記取得手段を備えるコミュニケーションロボットを含む、請求項3記載の関係検知システム。
【請求項5】
前記取得手段は、前記複数の構成員のそれぞれに取り付けられた無線タグからの前記識別情報を取得する無線タグ読取手段を含む、請求項3または4記載の関係検知システム。
【請求項6】
前記取得手段は、前記複数の構成員のそれぞれに取り付けられた赤外線LEDタグからの前記識別情報を取得する赤外線検出手段を含む、請求項3ないし5のいずれかに記載の関係検知システム。
【請求項7】
前記把握手段は、前記所定領域における前記構成員の共存の仕方と、その共存の仕方に対応する前記構成員間の関係とを規定した所定の規則に基づいて、前記関係を把握する、請求項1ないし6のいずれかに記載の関係検知システム。
【請求項8】
前記把握手段によって把握された前記関係を表示する表示手段をさらに備える、請求項1ないし7のいずれかに記載の関係検知システム。
【請求項9】
前記表示手段は前記関係をソシオグラムとして表示する、請求項8記載の関係検知システム。
【請求項10】
前記把握手段によって把握される前記関係は、各構成員間の好き度もしくは嫌い度、または前記組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者の少なくとも一つを含む、請求項1ないし9のいずれかに記載の関係検知システム。
【請求項11】
複数の構成員を含む組織が存在する空間内に設けられかつ前記構成員をして近付かせるための接近装置であって、
前記組織の構成員の識別情報を取得する取得手段、
前記取得手段によって取得された前記識別情報に基づいて、前記構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴に基づいて前記構成員の関係を把握する把握手段を備える、接近装置。
【請求項12】
前記接近装置は、動物の形状をしたぬいぐるみである、請求項11記載の接近装置。
【請求項13】
前記接近装置は、さらに自律移動するための自律移動手段を備えたコミュニケーションロボットである、請求項11記載の接近装置。
【請求項1】
複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、
前記構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴に基づいて前記関係を把握する把握手段を備える、関係検知システム。
【請求項2】
複数の構成員を含む組織における各構成員間の関係を検知する関係検知システムであって、
前記組織の存在する空間内に設けられるかつ前記構成員をして自発的に近付かせるための接近装置、
前記構成員が前記接近装置の近くの所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴に基づいて前記関係を把握する把握手段を備える、関係検知システム。
【請求項3】
前記記録手段は、前記構成員の識別情報を取得する取得手段を含み、前記取得手段によって取得された前記識別情報に基づいて、前記行動の履歴を記録する、請求項1または2記載の関係検知システム。
【請求項4】
前記接近装置は、自律移動するための自律移動手段および前記取得手段を備えるコミュニケーションロボットを含む、請求項3記載の関係検知システム。
【請求項5】
前記取得手段は、前記複数の構成員のそれぞれに取り付けられた無線タグからの前記識別情報を取得する無線タグ読取手段を含む、請求項3または4記載の関係検知システム。
【請求項6】
前記取得手段は、前記複数の構成員のそれぞれに取り付けられた赤外線LEDタグからの前記識別情報を取得する赤外線検出手段を含む、請求項3ないし5のいずれかに記載の関係検知システム。
【請求項7】
前記把握手段は、前記所定領域における前記構成員の共存の仕方と、その共存の仕方に対応する前記構成員間の関係とを規定した所定の規則に基づいて、前記関係を把握する、請求項1ないし6のいずれかに記載の関係検知システム。
【請求項8】
前記把握手段によって把握された前記関係を表示する表示手段をさらに備える、請求項1ないし7のいずれかに記載の関係検知システム。
【請求項9】
前記表示手段は前記関係をソシオグラムとして表示する、請求項8記載の関係検知システム。
【請求項10】
前記把握手段によって把握される前記関係は、各構成員間の好き度もしくは嫌い度、または前記組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者の少なくとも一つを含む、請求項1ないし9のいずれかに記載の関係検知システム。
【請求項11】
複数の構成員を含む組織が存在する空間内に設けられかつ前記構成員をして近付かせるための接近装置であって、
前記組織の構成員の識別情報を取得する取得手段、
前記取得手段によって取得された前記識別情報に基づいて、前記構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴に基づいて前記構成員の関係を把握する把握手段を備える、接近装置。
【請求項12】
前記接近装置は、動物の形状をしたぬいぐるみである、請求項11記載の接近装置。
【請求項13】
前記接近装置は、さらに自律移動するための自律移動手段を備えたコミュニケーションロボットである、請求項11記載の接近装置。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【公開番号】特開2005−131748(P2005−131748A)
【公開日】平成17年5月26日(2005.5.26)
【国際特許分類】
【出願番号】特願2003−371474(P2003−371474)
【出願日】平成15年10月31日(2003.10.31)
【国等の委託研究の成果に係る記載事項】(出願人による申告)国等の委託研究の成果に係る特許出願(平成15年度通信・放送機構、研究テーマ「超高速知能ネットワーク社会に向けた新しいインタラクション・メディアの研究開発」に関する委託研究、産業活力再生特別措置法第30条の適用を受けるもの)
【出願人】(393031586)株式会社国際電気通信基礎技術研究所 (905)
【Fターム(参考)】
【公開日】平成17年5月26日(2005.5.26)
【国際特許分類】
【出願日】平成15年10月31日(2003.10.31)
【国等の委託研究の成果に係る記載事項】(出願人による申告)国等の委託研究の成果に係る特許出願(平成15年度通信・放送機構、研究テーマ「超高速知能ネットワーク社会に向けた新しいインタラクション・メディアの研究開発」に関する委託研究、産業活力再生特別措置法第30条の適用を受けるもの)
【出願人】(393031586)株式会社国際電気通信基礎技術研究所 (905)
【Fターム(参考)】
[ Back to top ]