情報処理装置、及び、プログラム
【課題】ユーザが所望する情報を提示するのに好適な情報処理装置等を提供することを目的とする。
【解決手段】本発明に係る情報処理装置100は、ユーザの顔情報を示す顔情報データを取得する顔情報取得部151と、環境情報を示す環境情報データを取得する環境情報取得部153と、他情報処理装置のユーザが発した音声を表す音声データを受信する通信部130と、音声情報と環境条件と顔条件とが互いに対応付けられて複数記憶された対応表を参照し、受信された音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、環境条件と顔条件とを特定する特定部160と、取得された環境情報が特定された環境条件を満たし、かつ、取得された顔情報が特定された顔条件を満たすか否かを判定する判定部170と、判定結果に応じて受信された音声データが表す音声をユーザに対して提示する提示部140と、を備える。
【解決手段】本発明に係る情報処理装置100は、ユーザの顔情報を示す顔情報データを取得する顔情報取得部151と、環境情報を示す環境情報データを取得する環境情報取得部153と、他情報処理装置のユーザが発した音声を表す音声データを受信する通信部130と、音声情報と環境条件と顔条件とが互いに対応付けられて複数記憶された対応表を参照し、受信された音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、環境条件と顔条件とを特定する特定部160と、取得された環境情報が特定された環境条件を満たし、かつ、取得された顔情報が特定された顔条件を満たすか否かを判定する判定部170と、判定結果に応じて受信された音声データが表す音声をユーザに対して提示する提示部140と、を備える。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムに関する。
【背景技術】
【0002】
インターネット等の通信回路網を通じて、自情報処理装置と他情報処理装置との間で、情報が送受信される情報処理装置が知られている。特許文献1には、他情報処理装置を所有するユーザが、自情報処理装置に対して所定の情報を送信すると、当該自情報処理装置に所定の情報が提示される技術が開示されている。情報処理装置間で情報が送受信されることにより、情報処理装置を所有するユーザ同士で、所定のコミュニケーションを取ることができる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2005−253006号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載される情報処理装置では、他情報処理装置から送信され、自情報処理装置に提示される情報と、自情報処理装置を所有するユーザが所望する情報と、が一致しない場合があるため、ユーザによっては、所望した情報が提示されないことを不満に感じることがあった。従って、ユーザが所望する情報を提示するのに好適な新たな手法が求められている。
【0005】
本発明は、上記問題に鑑みてなされたものであり、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明の第1の観点に係る情報処理装置は、
情報処理装置であって、
前記情報処理装置のユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記情報処理装置の環境情報を示す環境情報データを取得する環境情報取得部と、
前記情報処理装置以外の他情報処理装置から、当該他情報処理装置のユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記情報処理装置のユーザに対して提示する提示部と、
を備えることを特徴とする。
【0007】
本発明の第2の観点に係るプログラムは、
コンピュータを情報処理装置として機能させるプログラムであって、
前記コンピュータのユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記コンピュータの環境情報を示す環境情報データを取得する環境情報取得部と、
前記コンピュータ以外の他コンピュータから、当該他コンピュータのユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記コンピュータのユーザに対して提示する提示部と、
して機能させることを特徴とする。
【発明の効果】
【0008】
本発明によれば、ユーザが所望する情報を提示することができる。
【図面の簡単な説明】
【0009】
【図1】本発明の実施形態に係る情報処理装置が実現されるデジタルフォトスタンドのハードウェア構成を示すブロック図である。
【図2】デジタルフォトスタンドの概略外観図である。
【図3】通信回路網を介したデジタルフォトスタンドの接続を示す概略構成図である。
【図4】本発明の実施形態に係る情報処理装置の各部の機能を示すブロック図である。
【図5】記憶部に記憶される対応表の一例を示す図である。
【図6】情報処理装置にて実行される登録処理の流れを示すフローチャートである。
【図7】登録される情報の一例を示す図である。
【図8】他情報処理装置の処理の流れを示すフローチャートである。
【図9】他情報処理装置に提示されるユーザ情報の提示例を示す図である。
【図10】自情報処理装置の処理の流れを示すフローチャートである。
【図11】自情報処理装置において、音声データが表す音声が提示される例を示す図である。
【図12】(a)〜(c)は、自情報処理装置において、音声データが表す音声が提示されない例を示す図である。
【発明を実施するための形態】
【0010】
以下に、本発明の実施形態に係る情報処理装置について説明する。以下では情報処理装置として、デジタル写真等が表示されるデジタルフォトスタンドを例として説明しているが、これに限られず、例えば、デジタルカメラ、各種のコンピュータ、PDA(Personal Digital Assistant)、携帯電話などの情報処理装置において本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
【0011】
図1は、本発明の実施形態に係る情報処理装置が実現される典型的なデジタルフォトスタンド10のハードウェア構成を示すブロック図である。また、図2にデジタルフォトスタンド10の外観図を示す。以下、これらの図を参照して説明する。
【0012】
デジタルフォトスタンド10は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、記憶装置13と、メディアコントローラ14と、入力キー15と、駆動回路16と、表示パネル17と、音声センサ18と、イメージセンサ19と、メモリカード20と、スピーカ21と、NIC(Network Interface Card)22と、RTC(Real Time Clock)23、環境センサ24と、を備える。
【0013】
CPU11は、デジタルフォトスタンド10全体の動作を制御し、各構成要素と接続され制御信号やデータをやり取りする。
【0014】
RAM12は、データやプログラムを一時的に記憶するためのものである。RAM12には、プログラムやデータ、その他デジタルフォトスタンド10の動作に必要なデータが保持される。
【0015】
記憶装置13は、例えば、ハードディスクやフラッシュメモリ等によって構成され、メモリカード20から読み出された画像データ等、任意のデータを記憶する。ここで、メモリカード20は、例えば、フラッシュメモリ等によって構成され、各種のデータを記憶する。メモリカード20には、デジタルカメラの撮影によって得られたデジタル写真等の画像データが記録される。
【0016】
メディアコントローラ14は、メモリカード20に対してデータを読み書きするものである。
【0017】
デジタルフォトスタンド10の側面には、例えば、図2に示すように、メモリカード20を挿入するためのメモリカード挿入口14aが設けられ、このメモリカード挿入口14aにメモリカード20が挿入されると、メモリカード20とメディアコントローラ14とが接続される。そして、メモリカード20とメディアコントローラ14との接続が確認されると、メモリカード20に記録された画像データが読み出される。
【0018】
入力キー15は、ユーザからの操作指示を受け付けるためのキーである。入力キー15は、例えば、ユーザが所望する写真を選択するために用いられる選択キーや、写真画像を順次表示する、いわゆるスライドショーの開始及び停止に用いられる再生・停止キー等から構成される。入力キー15は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17枠の下部に配置され、ユーザの押圧操作に応じたオン信号等を操作情報として出力する。
【0019】
駆動回路16は、記憶装置13やメモリカード20に記憶される画像データに従って表示パネル17を駆動し、当該表示パネル17に画像、操作画面等を表示させる。
【0020】
表示パネル17は、例えば、液晶パネル、有機EL(Electro Luminescence)パネル等によって構成され、駆動回路16の動作に基づいて、任意の画像を表示する。表示パネル17は、図2に示すように、例えば、デジタルフォトスタンド10の前面に配置される。
【0021】
音声センサ18は、ユーザが発した音声や周囲の音声を検出するセンサである。音声センサ18は、例えば、マイクから構成される。音声センサ18は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17の枠に設けられている。ユーザから声が発せられると、音声センサ18は、当該声を表す音声データを取得する。
【0022】
イメージセンサ19は、画像を表す画像データを取得するためのセンサである。イメージセンサ19は、例えば、CCD(Charge Coupled Device)式、CMOS(Complementary Metal Oxide Semiconductor)式等のカメラから構成される。イメージセンサ19は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17の枠に設けられている。イメージセンサ19は、典型的には、デジタルフォトスタンド10の周囲の画像を、任意のタイミングで、任意の回数だけ撮影する。また、イメージセンサ19は、動画像を撮影することもできる。そして、当該撮影された画像は、記憶装置13やメモリカード20に記憶される。
【0023】
スピーカ21は、音声や音楽を出力するものである。記憶装置13やメモリカード20に記憶される音声データが再生されると、スピーカ21は、当該音声データが表す音声を出力する。
【0024】
NIC22は、デジタルフォトスタンド10をインターネット等の通信回路網に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム、無線により通信を行うためのモデム等と、これらとCPU11との仲立ちを行うインターフェース(図示せず)により構成される。
【0025】
図3は、通信回路網を介したデジタルフォトスタンド10の接続を示す概略構成図である。複数のデジタルフォトスタンド10(10a〜10d)は、NIC22を通じて通信回路網に接続され、当該デジタルフォトスタンド10間で、サーバ装置30を介して、データのやり取りが行われる。例えば、デジタルフォトスタンド10aからデータが送信されると、デジタルフォトスタンド10b〜10dは、当該データを受信し、当該データが表す情報をユーザに対して提示する。また、デジタルフォトスタンド10から送信されたデータは、通信回路網に接続されているサーバ装置30に保存される。
【0026】
図2に戻って、RTC23は、例えば、水晶振動子や発振回路等から構成され、日時(年月日時分秒及び曜日を含む)を計時(カウント)する。そして、RTC23は、日時を計時することにより、カレンダーや時計として機能する。
【0027】
環境センサ24は、温度、湿度、気圧等を示す環境情報を取得するセンサである。環境センサ24は、例えば、温度計、湿度計、気圧計等から構成され、デジタルフォトスタンド10が配置された周囲の温度や湿度等を示す環境情報を取得する。
【0028】
以下では、注記しない限り、後述する情報処理装置について、図1〜図3に示したデジタルフォトスタンド10により説明を加える。情報処理装置は、必要に応じて適宜一般的なコンピュータやデジタルカメラ等の要素に置換することができ、これらの実施形態も本発明の範囲に含まれる。
【0029】
(情報処理装置の構成)
本実施形態に係る情報処理装置100の概要構成について図4を参照して説明する。情報処理装置100は、制御部110と、記憶部120と、通信部130と、提示部140と、取得部150と、特定部160と、判定部170と、を備える。以下に情報処理装置100の各構成要素について説明する。
なお、各部の機能は互いに連関し合っているが、用途に応じて各部の採否を適宜変更することができる。
【0030】
制御部110は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやり取りする。
【0031】
CPU11、及び、RAM12等が協働して動作することにより、制御部110として機能する。
【0032】
記憶部120は、提示部140がユーザに対して提示する画像を表す画像データや音声を表す音声データ等を記憶する。また、記憶部120は、情報処理装置100を操作するユーザの顔を表す顔情報データ、当該ユーザが発した音声を示す音声データ、環境情報を示す環境情報データ、音声情報と、環境情報に関する条件である環境条件と、ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表、ユーザが設定した設定データ、情報処理装置100を制御するための制御プログラム等、任意のデータ・情報を記憶する。
【0033】
ここで、顔情報データとは、顔情報を表すデータをいう。
また、顔情報とは、人物の顔領域を示す情報をいい、目、鼻、口、耳等の位置や大きさを示す情報も含まれる。
また、音声データとは、音声を表すデータをいう。
また、音声情報とは、音声によって把握される1以上の単語又は文書を示す情報をいう。
また、環境情報データとは、環境情報を表すデータをいい、環境情報とは、典型的には、日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天気情報等を含む情報をいう。
また、対応表とは、音声情報と、環境情報に関する条件である環境条件と、ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された表であり、音声情報毎に対応付けられる環境条件及び顔条件を特定するために用いられる表である。
【0034】
図5は、記憶部120に記憶される対応表の一例を示す図である。同図に示すように、音声を表す音声情報と、顔条件と、環境条件と、が対応付けられて記憶される。なお、同図に示される対応表は一例であり、任意の条件を設定することができる。
【0035】
RAM12、記憶装置13、及び、メモリカード20等が協働して動作することにより、記憶部130として機能する。
【0036】
通信部130は、NIC22を通じて、インターネット等の通信回路網を介して、他の情報処理装置100に情報データを送信し、また、他の情報処理装置100が送信した情報データを受信する。また、通信部130は、NIC22を通じて、無線通信により、他の情報処理装置100との間で情報データの送受信を行うこともできる。
【0037】
CPU11、及び、NIC22等が協働して動作することにより、通信部120として機能する。
【0038】
提示部140は、制御部110からの制御に基づいて、画像データが表す画像、及び/又は、音声データが表す音声をユーザに対して提示する。例えば、提示部110は、記憶部120に記憶される画像データ、もしくは、他の情報処理装置100から送信される画像データが表す画像を、一定の時間間隔おきに次々と表示したり、画面を多数に分割し、当該分割したそれぞれの画面に画像を同時に表示したりすることもできる。また、提示部140は、記憶部120に記憶される音声データ、もしくは、他の情報処理装置100から送信される音声データが表す音声を出力する。提示部140は、任意の方法に基づいて、任意の画像及び音声をユーザに対して提示することができる。
【0039】
CPU11、駆動回路16、表示パネル17、及び、スピーカ21等が協働して動作することにより、提示部140として機能する。
【0040】
取得部150は、顔情報取得部151と、音声情報取得部152と、環境情報取得部153と、入力情報取得部154と、を備える。以下に取得部150の各構成要素について説明する。
【0041】
顔情報取得部151は、情報処理装置100を操作するユーザの顔を表す顔情報データを取得する。顔情報取得部151は、例えば、ユーザが情報処理装置100の前面にいる場合、ユーザからの指示がある場合、所定の時間になった場合等、任意のタイミングにおいて、画像データを取得し、当該画像データからユーザの顔領域を検出することにより、ユーザの顔を表す顔情報データを取得する。ここで、情報処理装置100の前面とは、典型的には、ユーザの顔領域を検出することができる範囲をいい、情報処理装置100を操作するユーザを特定できる任意の範囲をいう。顔情報取得部151は、ユーザの顔を表す顔情報データを取得できた場合、情報処理装置100の前面にユーザがいると判定できる。顔情報取得部151は、例えば、イメージセンサ19を通じて、撮像する方向にある人物及び背景等の像(撮像画像)を取り込んで撮像信号を生成し、当該撮像信号に基づいて画像を表す画像データを取得する。
【0042】
人物の顔領域を検出するために、顔情報取得部151は、画像データが表す囲像における注目領域である人物の顔領域を探す(サーチする)。ここで、注目領域とは、主要被写体(人物)が写っている領域であり、典型的には、人物の顔が写っている顔領域をいう。顔情報取得部151は、例えば、予め用意されている、所定の顔(主要被写体)の像を含むテンプレート画像を用いて、テンプレートマッチング等によってテンプレート画像と所定基準以上類似する領域を探す。このような領域が注目領域であり、この領域があれば、顔情報取得部151は、この領域を注目領域として検出する。このような注目領域のサーチ・検出は、公知技術(所謂、顔検出等の技術)を利用できる。
【0043】
なお、顔情報取得部151は、注目領域について、複数の候補がある場合には、例えば、そのうちのランダムに決めた一つの候補を注目領域とすることもできる。また、顔情報取得部151は、一つの画像データを用いて注目領域を検出できなかった場合には、顔情報取得部151が次に取得した画像データを用いて注目領域を検出することもできる。また、顔情報取得部151は、任意の設定(例えば、撮影方向、倍率、シャッタースピード、絞り等)で、画像データを取得することができる。
【0044】
CPU11、入力キー15、及び、イメージセンサ19等が協働して動作することにより、顔情報取得部151として機能する。
【0045】
音声情報取得部152は、音声センサ18を通じて、ユーザが発した音声を表す音声データを取得する。例えば、音声情報取得部152は、例えば、ユーザが発した「おはよう」、「こんばんは」、「雨だね」、「暑いね」という音声を表す音声データを取得して、当該音声データを記憶部120に記憶させる。音声データは、情報処理装置100の間において、送受信が行われる。
【0046】
CPU11、入力キー15、及び、音声センサ18等が協働して動作することにより、音声情報取得部152として機能する。
【0047】
環境情報取得部153は、例えば、通信回路網を通して、また、環境センサ24を通じて、環境情報を示す環境情報データを取得する。例えば、環境情報取得部153は、情報処理装置100が設置されている室内温度及び室内湿度、日時、天候等、任意の環境情報データを取得して、当該環境情報データを記憶部120に記憶させる。また、環境情報取得部153は、現在の日時(年月日時分秒及び曜日を含む)を計時(カウント)し、当該計時している現在の日時を取得する。また、環境情報取得部153は、例えば、NIC22を介して、通信回路網に接続されるサーバ装置30から、現在の天候を示す天候情報を取得する。
【0048】
CPU11、入力キー15、NIC22、RTC23、及び、環境センサ24等が協働して動作することにより、環境情報取得部153として機能する。
【0049】
入力情報取得部154は、ユーザからの指示入力を受け付けることにより、指示入力情報を取得する。例えば、入力情報取得部154は、入力キー15を通じて、ユーザからの指示入力を受け付ける。そして、受け付けられた指示入力に基づいて、情報処理装置100は動作する。また、入力情報取得部154は、ユーザからの指示入力に基づいて、「風景」や「人物」が撮影された画像を表す画像データを取得する。
【0050】
CPU11、及び、入力キー15等が協働して動作することにより、入力情報取得部154として機能する。
【0051】
取得部150は、顔情報取得部151、音声情報取得部152、環境情報取得部153、及び、入力情報取得部154が取得した情報データを取得し、当該情報データを記憶部120に記憶させる。また、取得部150は、入力キー15や音声センサ18を通じて、ユーザから任意の情報データを取得し、当該情報データを記憶部120に記憶させる。
【0052】
CPU11、入力キー15、音声センサ18、イメージセンサ19、NIC22、RTC23、及び、環境センサ24等が協働して動作することにより、取得部150として機能する。
【0053】
特定部160は、図5に示される対応表において、通信部130により受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する音声情報に対応する、環境条件と顔条件とを特定する。まず、特定部160は、他の情報処理装置100から送信されて、通信部130により受信された音声データが表す音声によって表される音声情報と、図5に示される対応表に記憶されている音声情報と、を照合し、他の情報処理装置100から送信された音声情報と少なくとも一部が一致する音声情報があるか否かを判定する。特定部160は、音声情報を照合するために、音声データが表す音声を文字列に変換して、当該文字列から1以上の単語又は文書を抽出する。音声情報は音声によって把握される1以上の単語又は文書を示す情報であるため、当該抽出された1以上の単語又は文書が、音声データが表す音声によって表される音声情報となる。次に、特定部160は、対応表に記憶されている1以上の単語又は文書が表す音声情報と、他の情報処理装置100から送信された1以上の単語又は文書が表す音声情報と、を照合し、1以上の単語が一致するか否かを判定する。そして、1以上の単語が一致する場合、特定部160は、対応表に記憶されている一致した音声情報に対応する境条件と顔条件とを特定する。
【0054】
ここで、顔条件とは、ユーザの顔を表す顔情報に基づいてユーザを照合することにより、音声を提示するか否かを判定するための条件をいう。
また、環境条件とは、環境情報に含まれる日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天気情報等を照合することにより、音声を提示するか否かを判定するための条件をいう。また、環境条件は、日付に関する日付条件、時間に関する時間条件、温度に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件のうち少なくともいずれか1つを含み、これらの条件のいずれかが満たされる場合、環境条件が満たされると判定される。日付条件、時間条件、温度条件、湿度条件、気圧条件、又は、天候条件は、それぞれ関連する日付、時間、温度、湿度、気圧、又は、天候において判定するための条件をいう。
【0055】
特定部160は、音声情報を照合するために、音声文字変換処理を行う。音声文字変換処理は、例えば、特開2009−294269号公報等に記載される手法が用いられる。具体的には、特定部160は、変換対象となる音声データと、音素と発音記号とが対応付けられた情報と、に基づいて発音記号を生成する。次に、特定部160は、当該生成された発音記号と、単語を表す文字と発音記号とが互いにあらかじめ対応付けられた単語辞書と、に基づいて、その発音記号に対応する単語を取得する。そして、特定部160は、当該取得された単語に基づいて、文字を表す文字データを生成することにより、音声文字変換処理を行う。
【0056】
CPU11、及び、RAM12等が協働して動作することにより、特定部160として機能する。
【0057】
判定部170は、顔情報取得部151により取得された顔情報が、特定部160により特定された顔条件を満たすか否か、及び、環境情報取得部153により取得された環境情報が、特定部160により特定された環境条件を満たすか否か、を判定する。判定部170が、顔条件及び環境条件の2つの条件が同時に満たすと判定した場合、他の情報処理装置100から送信された音声は、ユーザに対して提示される。一方、判定部170が、顔条件及び環境条件のどちらか一方の条件のみを満たすと判定した場合、また、どちらの条件も満たさないと判定した場合、他の情報処理装置100から送信された音声は、ユーザに対して提示されない。
【0058】
CPU11、及び、RAM12等が協働して動作することにより、判定部170として機能する。
【0059】
次に、本実施形態の情報処理装置100にて実行されるユーザの顔情報の登録処理について説明する。図6は、登録処理の流れを示すフローチャートである。以下、本図を参照して説明する。
【0060】
まず、入力情報取得部154は、ユーザから入力を受け付けることにより、ユーザを特定するための任意の情報を取得する(ステップS101)。例えば、入力情報取得部154は、ユーザが入力した、ユーザ名、当該ユーザのメールアドレス、当該ユーザが登録された情報処理装置100のMAC(Media Access Control address)アドレス等を取得する。
【0061】
次に、顔情報取得部151は、情報処理装置100を操作するユーザの顔を表す顔情報データを取得する(ステップS102)。例えば、顔情報取得部151は、ユーザからの指示を受け付けて、当該指示に基づいて、ユーザが写っている画像データを取得し、当該画像データから顔領域を検出する。そして、顔情報取得部151は、当該顔領域を表す顔情報データが表す顔情報を取得する。
【0062】
次に、記憶部120は、入力情報取得部154が取得したユーザ名やユーザのメールアドレスと、顔情報取得部151が取得した顔情報が表す顔画像と、を対応付けて記憶することにより、ユーザ情報として登録する(ステップS103)。
【0063】
図7は、登録される情報の一例を示す図である。同図に示すように、ユーザ名、当該ユーザの顔情報データが表す顔画像、当該ユーザのメールアドレス、当該ユーザが登録された情報処理装置100のMAC(Media Access Control address)アドレス等が、対応付けられてユーザ情報として登録される。ここで、ユーザ情報とは、例えば、メールアドレス、顔情報等、ユーザを特定できる任意の情報をいう。
【0064】
以上の処理により、情報処理装置100を操作するユーザが特定されるユーザ情報を、情報処理装置100に登録することができる。
【0065】
次に、本実施形態の情報処理装置100にて実行される他情報処理装置の処理について説明する。図8は、他情報処理装置の処理の流れを示すフローチャートである。以下、本図を参照して説明する。
【0066】
なお、以下では、他情報処理装置の符号を100aとし、自情報処理装置の符号を100bとして説明する。他情報処理装置100a及び自情報処理装置100bは、情報処理装置100と同一の機能を備える。そして、他情報処理装置100a及び自情報処理装置100bは、通信回路網を介して互い接続されており、他情報処理装置100aと自情報処理装置100bとの間で、任意の情報データのやり取りが行われる。また、他情報処理装置100a及び自情報処理装置100bの数は任意であるが、説明を容易にするため、他情報処理装置100a及び自情報処理装置100bの数を1台として説明する。
【0067】
まず、他情報処理装置100aが備える顔情報取得部151は、他情報処理装置100aの前面にいるユーザの顔を表す顔情報データを取得し(ステップS201)、当該取得した顔情報データが表す顔情報が登録されているか否かを判定する(ステップS202)。
【0068】
取得された顔情報データが表す顔情報が登録されていない場合(ステップS202;No)、当該ユーザは、他情報処理装置100aを操作する権限を有さないとして、本処理は終了する。なお、本処理が終了した後、上述する登録処理を行うことにより、ユーザの顔を表す顔情報を登録することもできる。
【0069】
一方、取得された顔情報データが表す顔情報が登録されている場合(ステップS202;Yes)、音声情報取得部152は、音声センサ18を通じて、例えば、ユーザが発した「おはよう」や「雨だね」という音声を表す音声データを取得する(ステップS203)。
【0070】
次に、入力情報取得部154は、入力キー15を通じてユーザが入力した、情報処理装置のMACアドレスや、当該情報処理装置を操作するユーザのメールアドレスを受け付けることにより、音声データの送信先を示す情報を取得する(ステップS204)。ここでは、音声データの送信先として、自情報処理装置100bが指定されたものとする。
【0071】
次に、通信部130は、ユーザが送信先として指定した、インターネット等の通信回路網に接続されている自情報処理装置100bに、音声情報取得部152が取得した音声データを送信する(ステップS205)。
【0072】
なお、通信部130は、例えば、MACアドレスが登録されている情報処理装置100、また、通信回路網に接続されるすべての情報処理装置100等、任意の情報処理装置100に対して音声データを送信することもできる。図9は、他情報処理装置100aに提示されるユーザ情報の提示例を示す図である。例えば、ユーザBを表すユーザ情報が他情報処理装置100bに登録されており、同図に示すように、ユーザBを表す顔画像やメールアドレスを表す画像が画面上に表示されている場合、通信部130は、当該表示されているユーザのメールアドレス、又は、当該ユーザに対応付けられて登録されているMACアドレスを備える情報処理装置に対して、音声データを送信することもできる。
【0073】
次に、通信部130は、自情報処理装置100bから返信された音声データがあるか否かを判定する(ステップS206)。
【0074】
自情報処理装置100bから返信された音声データがある場合(ステップS206;Yes)、提示部140は、当該返信された音声をユーザに提示する(ステップS207)。
【0075】
例えば、自情報処理装置100bの前面にいるユーザBが発した「おはよう」という音声を表す音声データが、自情報処理装置100bから他情報処理装置100aに返信された場合、他情報処理装置100aが備える提示部140は、「おはよう」という音声を表す音声データを再生し、ユーザに対して音声データが示す音声を提示する。また、提示部140は、音声データを送信した自情報処理装置100bを操作するユーザBを表す画像を表示することもできる。
【0076】
一方、自情報処理装置100bから返信された音声データがない場合(ステップS206;No)、本処理は終了する。自情報処理装置100bから返信された音声データがないため、提示部140は、現在提示されている情報を提示し続ける。
【0077】
以上の処理により、登録されているユーザに対して、音声データを送信することができる。また、登録されているユーザから返信がある場合には、当該ユーザが返信した音声データが示す音声を提示することができる。
【0078】
次に、本実施形態の情報処理装置100にて実行される自情報処理装置の処理について説明する。図10は、自情報処理装置100bの処理の流れを示すフローチャートである。以下、本図を参照して説明する。なお、自情報処理装置100bが備える提示部140が、ユーザに対して画像を予め提示することにより、自情報処理装置100bはデジタル写真等が表示されるデジタルフォトスタンド10として機能する。
【0079】
まず、自情報処理装置100bが備える通信部130は、他情報処理装置100aから音声データが送信されているか否かを判定する(ステップS301)。
【0080】
音声データが送信されていない場合(ステップS301;No)、通信部130は、他情報処理装置100aから音声データが送信されるまで待機し、音声データが送信されているか否かを再び判定する(ステップS301)。提示部140は、ユーザに提示すべき音声がないため、予め提示されている画像をユーザに対して提示し続ける。
【0081】
一方、音声データが送信されている場合(ステップS301;Yes)、顔情報取得部151及び環境情報取得部153は、自情報処理装置100bの前面にいるユーザの顔を表す顔情報データ、及び、環境情報データを取得する(ステップS302)。顔情報取得部151は、画像データを取得し、当該画像データからユーザの顔領域を検出することにより、ユーザの顔を表す顔情報データを取得する。また、環境情報取得部153は、例えば、自情報処理装置100bが設置されている室内温度及び室内湿度、日時、天候、外気温等、任意の環境情報データを取得する。
【0082】
次に、特定部160は、送信された音声データが表す音声が表す音声情報と、図5に示される対応表に記憶されている音声情報と、を照合することにより、当該送信された音声情報と一致する音声情報があるか否かを判定する(ステップS303)。例えば、送信された音声データが「おはよう」という音声を表す場合、特定部160は、当該「おはよう」という音声が表す音声情報と一致する音声情報が、図5に示される対応表に記憶されているか否かを判定する。図5に示される対応表には、「おはよう」という音声が表す音声情報が記憶されているため、特定部160は、送信された音声情報と一致する音声情報が、対応表に記憶されていると判定する。一方、送信された音声データが「頑張るぞ」という音声の場合、当該「頑張るぞ」という音声を表す音声情報は図5に示される対応表に記憶されていないため、特定部160は、送信された音声情報と一致する音声情報が、対応表に記憶されていないと判定する。
【0083】
送信された音声情報と一致する音声情報が、対応表に記憶されている場合(ステップS303;Yes)、特定部160は、当該一致する音声情報に対応する顔条件及び環境条件を特定する(ステップS304)。例えば、一致する音声情報が「おはよう」の場合、当該「おはよう」に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。ここで、登録されたユーザとは、ユーザを特定するための情報が記憶部120に記憶されているユーザをいい、典型的には、顔情報の登録処理により登録されたユーザという。
【0084】
一方、送信された音声情報と一致する音声情報が、対応表に記憶されていない場合(ステップS303;No)、本処理は終了する。そして、提示部140は、予め提示されている画像の提示を続ける。
【0085】
なお、ステップS303において、典型的には、音声データから文字を表す文字データに変換される音声文字変換処理が行われる。
【0086】
例えば、音声データが「Bさん、今日は雨だね」という音声を表す音声情報の場合、音声文字変換処理が行われて、「Bさん、今日は雨だね」という文字を表す文字データに変換される。そして、当該変換された文字データが表す文字情報が、図5に示される対応表に記憶されているか否かが判定される。この場合、変換された「Bさん、今日は雨だね」という文字情報は、対応表に記憶されているため、ステップS303においてYesとなる。そして、ステップS304において、「Bさん、今日は雨だね」に対応する顔条件である「情報処理装置の前面にBさんがいる」、及び、環境条件である「天候が雨である」が特定される。
【0087】
また、ステップS304において、特定部160は、音声データから変換された文字データが表す文字情報から、人名、日時、天候、気温等を表す情報を抽出し、当該抽出した情報が、図5に示される対応表に記憶されているか否かを判定することもできる。例えば、音声情報から変換された文字情報が、「あー、雨が降っているね、Bさん」という対応表に記憶されていない文字を表す場合、特定部160は、当該文字から、対応表に記憶されている「雨」という文字と、「Bさん」という文字と、を抽出する。そして、特定部160は、「雨」と「Bさん」との両方の文字を含む文字情報が、対応表に記憶されているか否かを判定する。ここで、対応表に記憶される「Bさん、今日は雨だね」という文字には、「雨」と「Bさん」との両方の文字が含まれている。抽出された文字が、対応表に記憶される「Bさん、今日は雨だね」と照合するため、判定部160は、対応表に記憶されていない「あー、雨が降っているね、Bさん」という文字であっても、対応表に記憶されていると判定することもできる。これにより、図5に示される対応表に記憶されていない音声情報(音声情報から変換された文字情報)であっても、対応表に記憶されているか否かを判定することもできる。
【0088】
次に、判定部170は、顔情報取得部151により取得された顔情報、及び、環境情報取得部153により取得された環境情報が、特定された顔条件及び環境条件を満たすか否かを判定する(ステップS305)。例えば、特定された顔条件及び環境条件が、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である場合、判定部170は、顔情報取得部151により取得された顔情報から検出されたユーザが、図7に示すような登録されているかユーザであるかを判定し、また、環境情報取得部153により取得された環境情報に含まれる現在の時刻が、6時から10時の間であるかを判定する。
【0089】
次に、取得された顔情報及び環境情報が、特定された顔条件及び環境条件を満たす場合(ステップS305;Yes)、提示部140は、ユーザに対して音声データが示す音声を提示する(ステップS306)。図11は、自情報処理装置100bにおいて、音声データが表す音声が提示される例を示す図である。「おはよう」という音声が表す音声情報に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。図11に示すように、取得された現在の時刻が「9:30」の場合、現在の時刻が6時から10時の間であるため、環境条件は満たされる。また、取得された顔情報が「ユーザB」である場合、図7に示すように、ユーザBはユーザ登録がなされているため、顔条件は満たされる。顔条件及び環境条件の2つの条件が同時に満たされるため、他情報処理装置100aを操作するユーザAが「おはよう」という音声を発し、他情報処理装置100aから自情報処理装置100bに送信された「おはよう」という音声は、ユーザBに対して提示される。なお、提示部140は、「おはよう」という音声が送信された他情報処理装置100aを操作するユーザAを表す画像情報を提示することもできる。
【0090】
なお、「Bさん、今日は雨だね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の天候情報が、「雨」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「Bさん」であるかを確認する。そして、環境情報に含まれる現在の天候情報が「雨」であり、かつ、取得された顔情報から検出されるユーザが「Bさん」と一致するときは、ステップS305においてYesとなる。音声情報に「Bさん」という人名を表す人名情報が含まれている場合、Bさんにとって、当該音声情報は所望する情報となるが、一方、Bさん以外のCさんにとっては、当該音声情報は所望する情報ではない。音声情報がユーザに対して提示される前に、ユーザが所望する音声情報であるか否かが判定され、当該判定結果に基づいて、音声が提示されるか否かが決定される。
【0091】
また、「今日は、○月×日だね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の日付情報が、「○月×日」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の日付情報が「○月×日」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0092】
また、「暑いよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の温度情報が、「30度以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「30度以上」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0093】
また、「Cさん、今日は暑いよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の温度情報が、「30度以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「Cさん」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「30度以上」であり、かつ、取得された顔情報から検出されるユーザが「Cさん」と一致するときは、ステップS305においてYesとなる。
【0094】
また、「蒸し暑いね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の湿度情報が、「70%以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「70%以上」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0095】
また、「台風が来ているよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の気圧情報が、「980hPa以下」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「980hPa以下」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0096】
日付に関する日付条件、時間に関する時間条件、温度情報に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件を含む環境条件が判定されるため、適切な日時、時間、温度、湿度、気圧、天候において、ユーザに対して音声を提示することができる。
【0097】
一方、取得された顔情報及び環境情報が、特定された顔条件及び環境条件を満たさない場合(ステップS305;No)、顔情報取得部151及び環境情報取得部153は、所定時間待機し、ステップS302の処理と同様に、自情報処理装置100bの前面にいるユーザの顔を表す顔情報データ、及び、環境情報データを再び取得し(ステップS309)、判定部170は、特定された環境条件、及び、特定された顔条件を満たすか否かを再び判定する(ステップS305)。環境条件及び顔条件が満たされるまで判定が続けられ、環境条件及び顔条件が満たされると、他情報処理装置100aから送信された音声データが表す音声が、ユーザに対して提示される。このため、2つの条件が満たす場合には、ユーザに対して音声がすぐに提示される。これによって、ちょうどよいタイミングでユーザに対して音声を提示することができる。また、音声が提示されないということを防ぐことができる。
【0098】
図12(a)〜(c)は、自情報処理装置100bにおいて、音声データが表す音声が提示されない例を示す図である。
図12(a)は、環境条件は満たされるが、顔条件が満たされないために、音声が提示されない例を示す図である。「おはよう」という音声を表す音声情報に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。図12(a)に示すように、取得された現在の時刻が「9:30」の場合、現在の時刻が6時から10時の間であるため、環境条件は満たされる。しかし、取得された顔情報が「ユーザC」である場合、図7に示すように、ユーザCはユーザ登録がなされてないため、顔条件は満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。
【0099】
また、図12(b)は、顔条件は満たされるが、環境条件が満たされないために、音声が提示されない例を示す図である。同図に示すように、取得された顔情報が「ユーザB」である場合、図7に示すように、ユーザBはユーザ登録がなされているため、顔条件は満たされる。しかし、取得された現在の時刻が「15:00」の場合、現在の時刻が6時から10時以外の時間であるため、環境条件は満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。
【0100】
また、図12(c)は、顔条件及び環境条件が満たされないために、音声が提示されない例を示す図である。同図に示すように、取得された顔情報が「ユーザC」である場合、図7に示すように、ユーザCはユーザ登録がなされてないため、顔条件は満たされない。また、取得された現在の時刻が「15:00」の場合、現在の時刻が6時から10時以外の時間であるため、環境条件も満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。
【0101】
「おはよう」は、挨拶を表す言語であり、一般的には、6時から10時の間の時間に使用される。このため、「おはよう」という音声が、6時から10時の間の時間に提示されると、ユーザが所望する情報となる。一方、当該時間以外の時間では、「おはよう」という言語は、一般的に使われないため、ユーザが所望する情報ではなくなる。音声情報がユーザに対して提示される前に、環境条件及び顔条件を満たすか否か、すなわち、ユーザが所望する音声情報であるか否か、が判定され、当該判定結果に基づいて、音声が提示されるか否かが決定される。このため、ユーザが所望する情報を提示することができる。
【0102】
また、ユーザ登録がなされていないユーザは、他情報処理装置100aから送信される音声を所望していないと考えられるため、ユーザ登録がなされているユーザに対してのみ音声を提示することにより、ユーザが所望する情報を提示することができる。
【0103】
次に、取得部150は、ユーザ登録がなされているユーザから、任意の情報データを取得する(ステップS307)。取得部150は、典型的には、音声情報取得部153が取得した音声データを取得する。例えば、他情報処理装置100aから「おはよう」という音声を表す音声データが送信され、自情報処理装置100bにおいて当該音声データが表す音声が再生された場合、音声情報取得部152は、再生された「おはよう」という音声に応答する「おはよう」や「元気だよ」という音声が表す音声データをユーザBから取得する。
【0104】
次に、通信部130は、音声情報取得部153が取得した音声データを他情報処理装置100aに送信し(ステップS308)、本処理は終了する。
【0105】
音声がユーザに対して提示される前に、音声情報が、環境条件及び顔条件を満たすか否かが判定される。そして、条件が満たされない場合には、ユーザに対して音声は提示されない。一方、条件が満たされる場合には、ユーザに対して音声が提示される。このため、ユーザが所望する情報を提示することができる。
以上の処理により、環境条件、及び、顔条件が満たされる場合に、ユーザに対して音声が提示される。このため、ユーザが所望する情報を提示することができる。
【0106】
なお、本発明は上記の実施形態に限定されず、種々の変形及び応用が可能である。
【0107】
情報処理装置100(他情報処理装置100a及び自情報処理装置100b)にて実行される上述した処理を、サーバ装置30が行うこともできる。例えば、情報処理装置100が備える通信部130は、登録処理において登録されたユーザ情報、取得された環境情報データ、対応表等をサーバ装置30に送信することにより、当該データをサーバ装置30に記憶させる。そして、サーバ装置30は、当該サーバ装置30に記憶されているデータに基づいて、他情報処理装置100aから自情報処理装置100bに、また、自情報処理装置100bから他情報処理装置100aに、音声データを送受信することもできる。
【0108】
例えば、サーバ装置30は、他情報処理装置100a及び自情報処理装置100bが取得した音声データ、顔情報データ、及び、環境情報データを受信して、当該データを記憶する。サーバ装置30は、図5に示される対応表に基づいて、受信した音声データが、条件を満たすか否かを判定する。そして、条件が満たされる場合に、サーバ装置30は、他情報処理装置100aから自情報処理装置100bに、また、自情報処理装置100bから他情報処理装置100aに、音声データを送受信することもできる。これにより、ユーザが所望する情報を提示することができる。
【0109】
前記のハードウエェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
【0110】
制御部110、記憶部120、通信部130、提示部140、取得部150、特定部160、判定部170などから構成される情報処理装置100の処理を行う中心となる部分は、デジタルフォトスタンドによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する情報処理装置100を構成してもよい。また、インターネット等の通信回路網上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで情報処理装置100を構成してもよい。
【0111】
また、情報処理装置100の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
【0112】
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS; Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
【産業上の利用可能性】
【0113】
以上説明したように、本発明によれば、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムを提供することができる。
【符号の説明】
【0114】
10…デジタルフォトスタンド、11…CPU、12…RAM、13…記憶装置、14…メディアコントローラ、14a…メモリカード挿入口、15…入力キー、16…駆動回路、17…表示パネル、18…音声センサ、19…イメージセンサ、20…メモリカード、21…スピーカ、22…NIC、23…RTC、24…環境センサ、30…サーバ装置、100…情報処理装置、110…制御部、120…記憶部、130…通信部、140…提示部、150…取得部、151…顔情報取得部、152…音声情報取得部、153…環境情報取得部、154…入力情報取得部、160…特定部、170…判定部
【技術分野】
【0001】
本発明は、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムに関する。
【背景技術】
【0002】
インターネット等の通信回路網を通じて、自情報処理装置と他情報処理装置との間で、情報が送受信される情報処理装置が知られている。特許文献1には、他情報処理装置を所有するユーザが、自情報処理装置に対して所定の情報を送信すると、当該自情報処理装置に所定の情報が提示される技術が開示されている。情報処理装置間で情報が送受信されることにより、情報処理装置を所有するユーザ同士で、所定のコミュニケーションを取ることができる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2005−253006号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載される情報処理装置では、他情報処理装置から送信され、自情報処理装置に提示される情報と、自情報処理装置を所有するユーザが所望する情報と、が一致しない場合があるため、ユーザによっては、所望した情報が提示されないことを不満に感じることがあった。従って、ユーザが所望する情報を提示するのに好適な新たな手法が求められている。
【0005】
本発明は、上記問題に鑑みてなされたものであり、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明の第1の観点に係る情報処理装置は、
情報処理装置であって、
前記情報処理装置のユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記情報処理装置の環境情報を示す環境情報データを取得する環境情報取得部と、
前記情報処理装置以外の他情報処理装置から、当該他情報処理装置のユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記情報処理装置のユーザに対して提示する提示部と、
を備えることを特徴とする。
【0007】
本発明の第2の観点に係るプログラムは、
コンピュータを情報処理装置として機能させるプログラムであって、
前記コンピュータのユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記コンピュータの環境情報を示す環境情報データを取得する環境情報取得部と、
前記コンピュータ以外の他コンピュータから、当該他コンピュータのユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記コンピュータのユーザに対して提示する提示部と、
して機能させることを特徴とする。
【発明の効果】
【0008】
本発明によれば、ユーザが所望する情報を提示することができる。
【図面の簡単な説明】
【0009】
【図1】本発明の実施形態に係る情報処理装置が実現されるデジタルフォトスタンドのハードウェア構成を示すブロック図である。
【図2】デジタルフォトスタンドの概略外観図である。
【図3】通信回路網を介したデジタルフォトスタンドの接続を示す概略構成図である。
【図4】本発明の実施形態に係る情報処理装置の各部の機能を示すブロック図である。
【図5】記憶部に記憶される対応表の一例を示す図である。
【図6】情報処理装置にて実行される登録処理の流れを示すフローチャートである。
【図7】登録される情報の一例を示す図である。
【図8】他情報処理装置の処理の流れを示すフローチャートである。
【図9】他情報処理装置に提示されるユーザ情報の提示例を示す図である。
【図10】自情報処理装置の処理の流れを示すフローチャートである。
【図11】自情報処理装置において、音声データが表す音声が提示される例を示す図である。
【図12】(a)〜(c)は、自情報処理装置において、音声データが表す音声が提示されない例を示す図である。
【発明を実施するための形態】
【0010】
以下に、本発明の実施形態に係る情報処理装置について説明する。以下では情報処理装置として、デジタル写真等が表示されるデジタルフォトスタンドを例として説明しているが、これに限られず、例えば、デジタルカメラ、各種のコンピュータ、PDA(Personal Digital Assistant)、携帯電話などの情報処理装置において本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
【0011】
図1は、本発明の実施形態に係る情報処理装置が実現される典型的なデジタルフォトスタンド10のハードウェア構成を示すブロック図である。また、図2にデジタルフォトスタンド10の外観図を示す。以下、これらの図を参照して説明する。
【0012】
デジタルフォトスタンド10は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、記憶装置13と、メディアコントローラ14と、入力キー15と、駆動回路16と、表示パネル17と、音声センサ18と、イメージセンサ19と、メモリカード20と、スピーカ21と、NIC(Network Interface Card)22と、RTC(Real Time Clock)23、環境センサ24と、を備える。
【0013】
CPU11は、デジタルフォトスタンド10全体の動作を制御し、各構成要素と接続され制御信号やデータをやり取りする。
【0014】
RAM12は、データやプログラムを一時的に記憶するためのものである。RAM12には、プログラムやデータ、その他デジタルフォトスタンド10の動作に必要なデータが保持される。
【0015】
記憶装置13は、例えば、ハードディスクやフラッシュメモリ等によって構成され、メモリカード20から読み出された画像データ等、任意のデータを記憶する。ここで、メモリカード20は、例えば、フラッシュメモリ等によって構成され、各種のデータを記憶する。メモリカード20には、デジタルカメラの撮影によって得られたデジタル写真等の画像データが記録される。
【0016】
メディアコントローラ14は、メモリカード20に対してデータを読み書きするものである。
【0017】
デジタルフォトスタンド10の側面には、例えば、図2に示すように、メモリカード20を挿入するためのメモリカード挿入口14aが設けられ、このメモリカード挿入口14aにメモリカード20が挿入されると、メモリカード20とメディアコントローラ14とが接続される。そして、メモリカード20とメディアコントローラ14との接続が確認されると、メモリカード20に記録された画像データが読み出される。
【0018】
入力キー15は、ユーザからの操作指示を受け付けるためのキーである。入力キー15は、例えば、ユーザが所望する写真を選択するために用いられる選択キーや、写真画像を順次表示する、いわゆるスライドショーの開始及び停止に用いられる再生・停止キー等から構成される。入力キー15は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17枠の下部に配置され、ユーザの押圧操作に応じたオン信号等を操作情報として出力する。
【0019】
駆動回路16は、記憶装置13やメモリカード20に記憶される画像データに従って表示パネル17を駆動し、当該表示パネル17に画像、操作画面等を表示させる。
【0020】
表示パネル17は、例えば、液晶パネル、有機EL(Electro Luminescence)パネル等によって構成され、駆動回路16の動作に基づいて、任意の画像を表示する。表示パネル17は、図2に示すように、例えば、デジタルフォトスタンド10の前面に配置される。
【0021】
音声センサ18は、ユーザが発した音声や周囲の音声を検出するセンサである。音声センサ18は、例えば、マイクから構成される。音声センサ18は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17の枠に設けられている。ユーザから声が発せられると、音声センサ18は、当該声を表す音声データを取得する。
【0022】
イメージセンサ19は、画像を表す画像データを取得するためのセンサである。イメージセンサ19は、例えば、CCD(Charge Coupled Device)式、CMOS(Complementary Metal Oxide Semiconductor)式等のカメラから構成される。イメージセンサ19は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17の枠に設けられている。イメージセンサ19は、典型的には、デジタルフォトスタンド10の周囲の画像を、任意のタイミングで、任意の回数だけ撮影する。また、イメージセンサ19は、動画像を撮影することもできる。そして、当該撮影された画像は、記憶装置13やメモリカード20に記憶される。
【0023】
スピーカ21は、音声や音楽を出力するものである。記憶装置13やメモリカード20に記憶される音声データが再生されると、スピーカ21は、当該音声データが表す音声を出力する。
【0024】
NIC22は、デジタルフォトスタンド10をインターネット等の通信回路網に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム、無線により通信を行うためのモデム等と、これらとCPU11との仲立ちを行うインターフェース(図示せず)により構成される。
【0025】
図3は、通信回路網を介したデジタルフォトスタンド10の接続を示す概略構成図である。複数のデジタルフォトスタンド10(10a〜10d)は、NIC22を通じて通信回路網に接続され、当該デジタルフォトスタンド10間で、サーバ装置30を介して、データのやり取りが行われる。例えば、デジタルフォトスタンド10aからデータが送信されると、デジタルフォトスタンド10b〜10dは、当該データを受信し、当該データが表す情報をユーザに対して提示する。また、デジタルフォトスタンド10から送信されたデータは、通信回路網に接続されているサーバ装置30に保存される。
【0026】
図2に戻って、RTC23は、例えば、水晶振動子や発振回路等から構成され、日時(年月日時分秒及び曜日を含む)を計時(カウント)する。そして、RTC23は、日時を計時することにより、カレンダーや時計として機能する。
【0027】
環境センサ24は、温度、湿度、気圧等を示す環境情報を取得するセンサである。環境センサ24は、例えば、温度計、湿度計、気圧計等から構成され、デジタルフォトスタンド10が配置された周囲の温度や湿度等を示す環境情報を取得する。
【0028】
以下では、注記しない限り、後述する情報処理装置について、図1〜図3に示したデジタルフォトスタンド10により説明を加える。情報処理装置は、必要に応じて適宜一般的なコンピュータやデジタルカメラ等の要素に置換することができ、これらの実施形態も本発明の範囲に含まれる。
【0029】
(情報処理装置の構成)
本実施形態に係る情報処理装置100の概要構成について図4を参照して説明する。情報処理装置100は、制御部110と、記憶部120と、通信部130と、提示部140と、取得部150と、特定部160と、判定部170と、を備える。以下に情報処理装置100の各構成要素について説明する。
なお、各部の機能は互いに連関し合っているが、用途に応じて各部の採否を適宜変更することができる。
【0030】
制御部110は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやり取りする。
【0031】
CPU11、及び、RAM12等が協働して動作することにより、制御部110として機能する。
【0032】
記憶部120は、提示部140がユーザに対して提示する画像を表す画像データや音声を表す音声データ等を記憶する。また、記憶部120は、情報処理装置100を操作するユーザの顔を表す顔情報データ、当該ユーザが発した音声を示す音声データ、環境情報を示す環境情報データ、音声情報と、環境情報に関する条件である環境条件と、ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表、ユーザが設定した設定データ、情報処理装置100を制御するための制御プログラム等、任意のデータ・情報を記憶する。
【0033】
ここで、顔情報データとは、顔情報を表すデータをいう。
また、顔情報とは、人物の顔領域を示す情報をいい、目、鼻、口、耳等の位置や大きさを示す情報も含まれる。
また、音声データとは、音声を表すデータをいう。
また、音声情報とは、音声によって把握される1以上の単語又は文書を示す情報をいう。
また、環境情報データとは、環境情報を表すデータをいい、環境情報とは、典型的には、日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天気情報等を含む情報をいう。
また、対応表とは、音声情報と、環境情報に関する条件である環境条件と、ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された表であり、音声情報毎に対応付けられる環境条件及び顔条件を特定するために用いられる表である。
【0034】
図5は、記憶部120に記憶される対応表の一例を示す図である。同図に示すように、音声を表す音声情報と、顔条件と、環境条件と、が対応付けられて記憶される。なお、同図に示される対応表は一例であり、任意の条件を設定することができる。
【0035】
RAM12、記憶装置13、及び、メモリカード20等が協働して動作することにより、記憶部130として機能する。
【0036】
通信部130は、NIC22を通じて、インターネット等の通信回路網を介して、他の情報処理装置100に情報データを送信し、また、他の情報処理装置100が送信した情報データを受信する。また、通信部130は、NIC22を通じて、無線通信により、他の情報処理装置100との間で情報データの送受信を行うこともできる。
【0037】
CPU11、及び、NIC22等が協働して動作することにより、通信部120として機能する。
【0038】
提示部140は、制御部110からの制御に基づいて、画像データが表す画像、及び/又は、音声データが表す音声をユーザに対して提示する。例えば、提示部110は、記憶部120に記憶される画像データ、もしくは、他の情報処理装置100から送信される画像データが表す画像を、一定の時間間隔おきに次々と表示したり、画面を多数に分割し、当該分割したそれぞれの画面に画像を同時に表示したりすることもできる。また、提示部140は、記憶部120に記憶される音声データ、もしくは、他の情報処理装置100から送信される音声データが表す音声を出力する。提示部140は、任意の方法に基づいて、任意の画像及び音声をユーザに対して提示することができる。
【0039】
CPU11、駆動回路16、表示パネル17、及び、スピーカ21等が協働して動作することにより、提示部140として機能する。
【0040】
取得部150は、顔情報取得部151と、音声情報取得部152と、環境情報取得部153と、入力情報取得部154と、を備える。以下に取得部150の各構成要素について説明する。
【0041】
顔情報取得部151は、情報処理装置100を操作するユーザの顔を表す顔情報データを取得する。顔情報取得部151は、例えば、ユーザが情報処理装置100の前面にいる場合、ユーザからの指示がある場合、所定の時間になった場合等、任意のタイミングにおいて、画像データを取得し、当該画像データからユーザの顔領域を検出することにより、ユーザの顔を表す顔情報データを取得する。ここで、情報処理装置100の前面とは、典型的には、ユーザの顔領域を検出することができる範囲をいい、情報処理装置100を操作するユーザを特定できる任意の範囲をいう。顔情報取得部151は、ユーザの顔を表す顔情報データを取得できた場合、情報処理装置100の前面にユーザがいると判定できる。顔情報取得部151は、例えば、イメージセンサ19を通じて、撮像する方向にある人物及び背景等の像(撮像画像)を取り込んで撮像信号を生成し、当該撮像信号に基づいて画像を表す画像データを取得する。
【0042】
人物の顔領域を検出するために、顔情報取得部151は、画像データが表す囲像における注目領域である人物の顔領域を探す(サーチする)。ここで、注目領域とは、主要被写体(人物)が写っている領域であり、典型的には、人物の顔が写っている顔領域をいう。顔情報取得部151は、例えば、予め用意されている、所定の顔(主要被写体)の像を含むテンプレート画像を用いて、テンプレートマッチング等によってテンプレート画像と所定基準以上類似する領域を探す。このような領域が注目領域であり、この領域があれば、顔情報取得部151は、この領域を注目領域として検出する。このような注目領域のサーチ・検出は、公知技術(所謂、顔検出等の技術)を利用できる。
【0043】
なお、顔情報取得部151は、注目領域について、複数の候補がある場合には、例えば、そのうちのランダムに決めた一つの候補を注目領域とすることもできる。また、顔情報取得部151は、一つの画像データを用いて注目領域を検出できなかった場合には、顔情報取得部151が次に取得した画像データを用いて注目領域を検出することもできる。また、顔情報取得部151は、任意の設定(例えば、撮影方向、倍率、シャッタースピード、絞り等)で、画像データを取得することができる。
【0044】
CPU11、入力キー15、及び、イメージセンサ19等が協働して動作することにより、顔情報取得部151として機能する。
【0045】
音声情報取得部152は、音声センサ18を通じて、ユーザが発した音声を表す音声データを取得する。例えば、音声情報取得部152は、例えば、ユーザが発した「おはよう」、「こんばんは」、「雨だね」、「暑いね」という音声を表す音声データを取得して、当該音声データを記憶部120に記憶させる。音声データは、情報処理装置100の間において、送受信が行われる。
【0046】
CPU11、入力キー15、及び、音声センサ18等が協働して動作することにより、音声情報取得部152として機能する。
【0047】
環境情報取得部153は、例えば、通信回路網を通して、また、環境センサ24を通じて、環境情報を示す環境情報データを取得する。例えば、環境情報取得部153は、情報処理装置100が設置されている室内温度及び室内湿度、日時、天候等、任意の環境情報データを取得して、当該環境情報データを記憶部120に記憶させる。また、環境情報取得部153は、現在の日時(年月日時分秒及び曜日を含む)を計時(カウント)し、当該計時している現在の日時を取得する。また、環境情報取得部153は、例えば、NIC22を介して、通信回路網に接続されるサーバ装置30から、現在の天候を示す天候情報を取得する。
【0048】
CPU11、入力キー15、NIC22、RTC23、及び、環境センサ24等が協働して動作することにより、環境情報取得部153として機能する。
【0049】
入力情報取得部154は、ユーザからの指示入力を受け付けることにより、指示入力情報を取得する。例えば、入力情報取得部154は、入力キー15を通じて、ユーザからの指示入力を受け付ける。そして、受け付けられた指示入力に基づいて、情報処理装置100は動作する。また、入力情報取得部154は、ユーザからの指示入力に基づいて、「風景」や「人物」が撮影された画像を表す画像データを取得する。
【0050】
CPU11、及び、入力キー15等が協働して動作することにより、入力情報取得部154として機能する。
【0051】
取得部150は、顔情報取得部151、音声情報取得部152、環境情報取得部153、及び、入力情報取得部154が取得した情報データを取得し、当該情報データを記憶部120に記憶させる。また、取得部150は、入力キー15や音声センサ18を通じて、ユーザから任意の情報データを取得し、当該情報データを記憶部120に記憶させる。
【0052】
CPU11、入力キー15、音声センサ18、イメージセンサ19、NIC22、RTC23、及び、環境センサ24等が協働して動作することにより、取得部150として機能する。
【0053】
特定部160は、図5に示される対応表において、通信部130により受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する音声情報に対応する、環境条件と顔条件とを特定する。まず、特定部160は、他の情報処理装置100から送信されて、通信部130により受信された音声データが表す音声によって表される音声情報と、図5に示される対応表に記憶されている音声情報と、を照合し、他の情報処理装置100から送信された音声情報と少なくとも一部が一致する音声情報があるか否かを判定する。特定部160は、音声情報を照合するために、音声データが表す音声を文字列に変換して、当該文字列から1以上の単語又は文書を抽出する。音声情報は音声によって把握される1以上の単語又は文書を示す情報であるため、当該抽出された1以上の単語又は文書が、音声データが表す音声によって表される音声情報となる。次に、特定部160は、対応表に記憶されている1以上の単語又は文書が表す音声情報と、他の情報処理装置100から送信された1以上の単語又は文書が表す音声情報と、を照合し、1以上の単語が一致するか否かを判定する。そして、1以上の単語が一致する場合、特定部160は、対応表に記憶されている一致した音声情報に対応する境条件と顔条件とを特定する。
【0054】
ここで、顔条件とは、ユーザの顔を表す顔情報に基づいてユーザを照合することにより、音声を提示するか否かを判定するための条件をいう。
また、環境条件とは、環境情報に含まれる日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天気情報等を照合することにより、音声を提示するか否かを判定するための条件をいう。また、環境条件は、日付に関する日付条件、時間に関する時間条件、温度に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件のうち少なくともいずれか1つを含み、これらの条件のいずれかが満たされる場合、環境条件が満たされると判定される。日付条件、時間条件、温度条件、湿度条件、気圧条件、又は、天候条件は、それぞれ関連する日付、時間、温度、湿度、気圧、又は、天候において判定するための条件をいう。
【0055】
特定部160は、音声情報を照合するために、音声文字変換処理を行う。音声文字変換処理は、例えば、特開2009−294269号公報等に記載される手法が用いられる。具体的には、特定部160は、変換対象となる音声データと、音素と発音記号とが対応付けられた情報と、に基づいて発音記号を生成する。次に、特定部160は、当該生成された発音記号と、単語を表す文字と発音記号とが互いにあらかじめ対応付けられた単語辞書と、に基づいて、その発音記号に対応する単語を取得する。そして、特定部160は、当該取得された単語に基づいて、文字を表す文字データを生成することにより、音声文字変換処理を行う。
【0056】
CPU11、及び、RAM12等が協働して動作することにより、特定部160として機能する。
【0057】
判定部170は、顔情報取得部151により取得された顔情報が、特定部160により特定された顔条件を満たすか否か、及び、環境情報取得部153により取得された環境情報が、特定部160により特定された環境条件を満たすか否か、を判定する。判定部170が、顔条件及び環境条件の2つの条件が同時に満たすと判定した場合、他の情報処理装置100から送信された音声は、ユーザに対して提示される。一方、判定部170が、顔条件及び環境条件のどちらか一方の条件のみを満たすと判定した場合、また、どちらの条件も満たさないと判定した場合、他の情報処理装置100から送信された音声は、ユーザに対して提示されない。
【0058】
CPU11、及び、RAM12等が協働して動作することにより、判定部170として機能する。
【0059】
次に、本実施形態の情報処理装置100にて実行されるユーザの顔情報の登録処理について説明する。図6は、登録処理の流れを示すフローチャートである。以下、本図を参照して説明する。
【0060】
まず、入力情報取得部154は、ユーザから入力を受け付けることにより、ユーザを特定するための任意の情報を取得する(ステップS101)。例えば、入力情報取得部154は、ユーザが入力した、ユーザ名、当該ユーザのメールアドレス、当該ユーザが登録された情報処理装置100のMAC(Media Access Control address)アドレス等を取得する。
【0061】
次に、顔情報取得部151は、情報処理装置100を操作するユーザの顔を表す顔情報データを取得する(ステップS102)。例えば、顔情報取得部151は、ユーザからの指示を受け付けて、当該指示に基づいて、ユーザが写っている画像データを取得し、当該画像データから顔領域を検出する。そして、顔情報取得部151は、当該顔領域を表す顔情報データが表す顔情報を取得する。
【0062】
次に、記憶部120は、入力情報取得部154が取得したユーザ名やユーザのメールアドレスと、顔情報取得部151が取得した顔情報が表す顔画像と、を対応付けて記憶することにより、ユーザ情報として登録する(ステップS103)。
【0063】
図7は、登録される情報の一例を示す図である。同図に示すように、ユーザ名、当該ユーザの顔情報データが表す顔画像、当該ユーザのメールアドレス、当該ユーザが登録された情報処理装置100のMAC(Media Access Control address)アドレス等が、対応付けられてユーザ情報として登録される。ここで、ユーザ情報とは、例えば、メールアドレス、顔情報等、ユーザを特定できる任意の情報をいう。
【0064】
以上の処理により、情報処理装置100を操作するユーザが特定されるユーザ情報を、情報処理装置100に登録することができる。
【0065】
次に、本実施形態の情報処理装置100にて実行される他情報処理装置の処理について説明する。図8は、他情報処理装置の処理の流れを示すフローチャートである。以下、本図を参照して説明する。
【0066】
なお、以下では、他情報処理装置の符号を100aとし、自情報処理装置の符号を100bとして説明する。他情報処理装置100a及び自情報処理装置100bは、情報処理装置100と同一の機能を備える。そして、他情報処理装置100a及び自情報処理装置100bは、通信回路網を介して互い接続されており、他情報処理装置100aと自情報処理装置100bとの間で、任意の情報データのやり取りが行われる。また、他情報処理装置100a及び自情報処理装置100bの数は任意であるが、説明を容易にするため、他情報処理装置100a及び自情報処理装置100bの数を1台として説明する。
【0067】
まず、他情報処理装置100aが備える顔情報取得部151は、他情報処理装置100aの前面にいるユーザの顔を表す顔情報データを取得し(ステップS201)、当該取得した顔情報データが表す顔情報が登録されているか否かを判定する(ステップS202)。
【0068】
取得された顔情報データが表す顔情報が登録されていない場合(ステップS202;No)、当該ユーザは、他情報処理装置100aを操作する権限を有さないとして、本処理は終了する。なお、本処理が終了した後、上述する登録処理を行うことにより、ユーザの顔を表す顔情報を登録することもできる。
【0069】
一方、取得された顔情報データが表す顔情報が登録されている場合(ステップS202;Yes)、音声情報取得部152は、音声センサ18を通じて、例えば、ユーザが発した「おはよう」や「雨だね」という音声を表す音声データを取得する(ステップS203)。
【0070】
次に、入力情報取得部154は、入力キー15を通じてユーザが入力した、情報処理装置のMACアドレスや、当該情報処理装置を操作するユーザのメールアドレスを受け付けることにより、音声データの送信先を示す情報を取得する(ステップS204)。ここでは、音声データの送信先として、自情報処理装置100bが指定されたものとする。
【0071】
次に、通信部130は、ユーザが送信先として指定した、インターネット等の通信回路網に接続されている自情報処理装置100bに、音声情報取得部152が取得した音声データを送信する(ステップS205)。
【0072】
なお、通信部130は、例えば、MACアドレスが登録されている情報処理装置100、また、通信回路網に接続されるすべての情報処理装置100等、任意の情報処理装置100に対して音声データを送信することもできる。図9は、他情報処理装置100aに提示されるユーザ情報の提示例を示す図である。例えば、ユーザBを表すユーザ情報が他情報処理装置100bに登録されており、同図に示すように、ユーザBを表す顔画像やメールアドレスを表す画像が画面上に表示されている場合、通信部130は、当該表示されているユーザのメールアドレス、又は、当該ユーザに対応付けられて登録されているMACアドレスを備える情報処理装置に対して、音声データを送信することもできる。
【0073】
次に、通信部130は、自情報処理装置100bから返信された音声データがあるか否かを判定する(ステップS206)。
【0074】
自情報処理装置100bから返信された音声データがある場合(ステップS206;Yes)、提示部140は、当該返信された音声をユーザに提示する(ステップS207)。
【0075】
例えば、自情報処理装置100bの前面にいるユーザBが発した「おはよう」という音声を表す音声データが、自情報処理装置100bから他情報処理装置100aに返信された場合、他情報処理装置100aが備える提示部140は、「おはよう」という音声を表す音声データを再生し、ユーザに対して音声データが示す音声を提示する。また、提示部140は、音声データを送信した自情報処理装置100bを操作するユーザBを表す画像を表示することもできる。
【0076】
一方、自情報処理装置100bから返信された音声データがない場合(ステップS206;No)、本処理は終了する。自情報処理装置100bから返信された音声データがないため、提示部140は、現在提示されている情報を提示し続ける。
【0077】
以上の処理により、登録されているユーザに対して、音声データを送信することができる。また、登録されているユーザから返信がある場合には、当該ユーザが返信した音声データが示す音声を提示することができる。
【0078】
次に、本実施形態の情報処理装置100にて実行される自情報処理装置の処理について説明する。図10は、自情報処理装置100bの処理の流れを示すフローチャートである。以下、本図を参照して説明する。なお、自情報処理装置100bが備える提示部140が、ユーザに対して画像を予め提示することにより、自情報処理装置100bはデジタル写真等が表示されるデジタルフォトスタンド10として機能する。
【0079】
まず、自情報処理装置100bが備える通信部130は、他情報処理装置100aから音声データが送信されているか否かを判定する(ステップS301)。
【0080】
音声データが送信されていない場合(ステップS301;No)、通信部130は、他情報処理装置100aから音声データが送信されるまで待機し、音声データが送信されているか否かを再び判定する(ステップS301)。提示部140は、ユーザに提示すべき音声がないため、予め提示されている画像をユーザに対して提示し続ける。
【0081】
一方、音声データが送信されている場合(ステップS301;Yes)、顔情報取得部151及び環境情報取得部153は、自情報処理装置100bの前面にいるユーザの顔を表す顔情報データ、及び、環境情報データを取得する(ステップS302)。顔情報取得部151は、画像データを取得し、当該画像データからユーザの顔領域を検出することにより、ユーザの顔を表す顔情報データを取得する。また、環境情報取得部153は、例えば、自情報処理装置100bが設置されている室内温度及び室内湿度、日時、天候、外気温等、任意の環境情報データを取得する。
【0082】
次に、特定部160は、送信された音声データが表す音声が表す音声情報と、図5に示される対応表に記憶されている音声情報と、を照合することにより、当該送信された音声情報と一致する音声情報があるか否かを判定する(ステップS303)。例えば、送信された音声データが「おはよう」という音声を表す場合、特定部160は、当該「おはよう」という音声が表す音声情報と一致する音声情報が、図5に示される対応表に記憶されているか否かを判定する。図5に示される対応表には、「おはよう」という音声が表す音声情報が記憶されているため、特定部160は、送信された音声情報と一致する音声情報が、対応表に記憶されていると判定する。一方、送信された音声データが「頑張るぞ」という音声の場合、当該「頑張るぞ」という音声を表す音声情報は図5に示される対応表に記憶されていないため、特定部160は、送信された音声情報と一致する音声情報が、対応表に記憶されていないと判定する。
【0083】
送信された音声情報と一致する音声情報が、対応表に記憶されている場合(ステップS303;Yes)、特定部160は、当該一致する音声情報に対応する顔条件及び環境条件を特定する(ステップS304)。例えば、一致する音声情報が「おはよう」の場合、当該「おはよう」に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。ここで、登録されたユーザとは、ユーザを特定するための情報が記憶部120に記憶されているユーザをいい、典型的には、顔情報の登録処理により登録されたユーザという。
【0084】
一方、送信された音声情報と一致する音声情報が、対応表に記憶されていない場合(ステップS303;No)、本処理は終了する。そして、提示部140は、予め提示されている画像の提示を続ける。
【0085】
なお、ステップS303において、典型的には、音声データから文字を表す文字データに変換される音声文字変換処理が行われる。
【0086】
例えば、音声データが「Bさん、今日は雨だね」という音声を表す音声情報の場合、音声文字変換処理が行われて、「Bさん、今日は雨だね」という文字を表す文字データに変換される。そして、当該変換された文字データが表す文字情報が、図5に示される対応表に記憶されているか否かが判定される。この場合、変換された「Bさん、今日は雨だね」という文字情報は、対応表に記憶されているため、ステップS303においてYesとなる。そして、ステップS304において、「Bさん、今日は雨だね」に対応する顔条件である「情報処理装置の前面にBさんがいる」、及び、環境条件である「天候が雨である」が特定される。
【0087】
また、ステップS304において、特定部160は、音声データから変換された文字データが表す文字情報から、人名、日時、天候、気温等を表す情報を抽出し、当該抽出した情報が、図5に示される対応表に記憶されているか否かを判定することもできる。例えば、音声情報から変換された文字情報が、「あー、雨が降っているね、Bさん」という対応表に記憶されていない文字を表す場合、特定部160は、当該文字から、対応表に記憶されている「雨」という文字と、「Bさん」という文字と、を抽出する。そして、特定部160は、「雨」と「Bさん」との両方の文字を含む文字情報が、対応表に記憶されているか否かを判定する。ここで、対応表に記憶される「Bさん、今日は雨だね」という文字には、「雨」と「Bさん」との両方の文字が含まれている。抽出された文字が、対応表に記憶される「Bさん、今日は雨だね」と照合するため、判定部160は、対応表に記憶されていない「あー、雨が降っているね、Bさん」という文字であっても、対応表に記憶されていると判定することもできる。これにより、図5に示される対応表に記憶されていない音声情報(音声情報から変換された文字情報)であっても、対応表に記憶されているか否かを判定することもできる。
【0088】
次に、判定部170は、顔情報取得部151により取得された顔情報、及び、環境情報取得部153により取得された環境情報が、特定された顔条件及び環境条件を満たすか否かを判定する(ステップS305)。例えば、特定された顔条件及び環境条件が、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である場合、判定部170は、顔情報取得部151により取得された顔情報から検出されたユーザが、図7に示すような登録されているかユーザであるかを判定し、また、環境情報取得部153により取得された環境情報に含まれる現在の時刻が、6時から10時の間であるかを判定する。
【0089】
次に、取得された顔情報及び環境情報が、特定された顔条件及び環境条件を満たす場合(ステップS305;Yes)、提示部140は、ユーザに対して音声データが示す音声を提示する(ステップS306)。図11は、自情報処理装置100bにおいて、音声データが表す音声が提示される例を示す図である。「おはよう」という音声が表す音声情報に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。図11に示すように、取得された現在の時刻が「9:30」の場合、現在の時刻が6時から10時の間であるため、環境条件は満たされる。また、取得された顔情報が「ユーザB」である場合、図7に示すように、ユーザBはユーザ登録がなされているため、顔条件は満たされる。顔条件及び環境条件の2つの条件が同時に満たされるため、他情報処理装置100aを操作するユーザAが「おはよう」という音声を発し、他情報処理装置100aから自情報処理装置100bに送信された「おはよう」という音声は、ユーザBに対して提示される。なお、提示部140は、「おはよう」という音声が送信された他情報処理装置100aを操作するユーザAを表す画像情報を提示することもできる。
【0090】
なお、「Bさん、今日は雨だね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の天候情報が、「雨」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「Bさん」であるかを確認する。そして、環境情報に含まれる現在の天候情報が「雨」であり、かつ、取得された顔情報から検出されるユーザが「Bさん」と一致するときは、ステップS305においてYesとなる。音声情報に「Bさん」という人名を表す人名情報が含まれている場合、Bさんにとって、当該音声情報は所望する情報となるが、一方、Bさん以外のCさんにとっては、当該音声情報は所望する情報ではない。音声情報がユーザに対して提示される前に、ユーザが所望する音声情報であるか否かが判定され、当該判定結果に基づいて、音声が提示されるか否かが決定される。
【0091】
また、「今日は、○月×日だね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の日付情報が、「○月×日」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の日付情報が「○月×日」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0092】
また、「暑いよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の温度情報が、「30度以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「30度以上」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0093】
また、「Cさん、今日は暑いよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の温度情報が、「30度以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「Cさん」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「30度以上」であり、かつ、取得された顔情報から検出されるユーザが「Cさん」と一致するときは、ステップS305においてYesとなる。
【0094】
また、「蒸し暑いね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の湿度情報が、「70%以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「70%以上」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0095】
また、「台風が来ているよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の気圧情報が、「980hPa以下」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「980hPa以下」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。
【0096】
日付に関する日付条件、時間に関する時間条件、温度情報に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件を含む環境条件が判定されるため、適切な日時、時間、温度、湿度、気圧、天候において、ユーザに対して音声を提示することができる。
【0097】
一方、取得された顔情報及び環境情報が、特定された顔条件及び環境条件を満たさない場合(ステップS305;No)、顔情報取得部151及び環境情報取得部153は、所定時間待機し、ステップS302の処理と同様に、自情報処理装置100bの前面にいるユーザの顔を表す顔情報データ、及び、環境情報データを再び取得し(ステップS309)、判定部170は、特定された環境条件、及び、特定された顔条件を満たすか否かを再び判定する(ステップS305)。環境条件及び顔条件が満たされるまで判定が続けられ、環境条件及び顔条件が満たされると、他情報処理装置100aから送信された音声データが表す音声が、ユーザに対して提示される。このため、2つの条件が満たす場合には、ユーザに対して音声がすぐに提示される。これによって、ちょうどよいタイミングでユーザに対して音声を提示することができる。また、音声が提示されないということを防ぐことができる。
【0098】
図12(a)〜(c)は、自情報処理装置100bにおいて、音声データが表す音声が提示されない例を示す図である。
図12(a)は、環境条件は満たされるが、顔条件が満たされないために、音声が提示されない例を示す図である。「おはよう」という音声を表す音声情報に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。図12(a)に示すように、取得された現在の時刻が「9:30」の場合、現在の時刻が6時から10時の間であるため、環境条件は満たされる。しかし、取得された顔情報が「ユーザC」である場合、図7に示すように、ユーザCはユーザ登録がなされてないため、顔条件は満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。
【0099】
また、図12(b)は、顔条件は満たされるが、環境条件が満たされないために、音声が提示されない例を示す図である。同図に示すように、取得された顔情報が「ユーザB」である場合、図7に示すように、ユーザBはユーザ登録がなされているため、顔条件は満たされる。しかし、取得された現在の時刻が「15:00」の場合、現在の時刻が6時から10時以外の時間であるため、環境条件は満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。
【0100】
また、図12(c)は、顔条件及び環境条件が満たされないために、音声が提示されない例を示す図である。同図に示すように、取得された顔情報が「ユーザC」である場合、図7に示すように、ユーザCはユーザ登録がなされてないため、顔条件は満たされない。また、取得された現在の時刻が「15:00」の場合、現在の時刻が6時から10時以外の時間であるため、環境条件も満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。
【0101】
「おはよう」は、挨拶を表す言語であり、一般的には、6時から10時の間の時間に使用される。このため、「おはよう」という音声が、6時から10時の間の時間に提示されると、ユーザが所望する情報となる。一方、当該時間以外の時間では、「おはよう」という言語は、一般的に使われないため、ユーザが所望する情報ではなくなる。音声情報がユーザに対して提示される前に、環境条件及び顔条件を満たすか否か、すなわち、ユーザが所望する音声情報であるか否か、が判定され、当該判定結果に基づいて、音声が提示されるか否かが決定される。このため、ユーザが所望する情報を提示することができる。
【0102】
また、ユーザ登録がなされていないユーザは、他情報処理装置100aから送信される音声を所望していないと考えられるため、ユーザ登録がなされているユーザに対してのみ音声を提示することにより、ユーザが所望する情報を提示することができる。
【0103】
次に、取得部150は、ユーザ登録がなされているユーザから、任意の情報データを取得する(ステップS307)。取得部150は、典型的には、音声情報取得部153が取得した音声データを取得する。例えば、他情報処理装置100aから「おはよう」という音声を表す音声データが送信され、自情報処理装置100bにおいて当該音声データが表す音声が再生された場合、音声情報取得部152は、再生された「おはよう」という音声に応答する「おはよう」や「元気だよ」という音声が表す音声データをユーザBから取得する。
【0104】
次に、通信部130は、音声情報取得部153が取得した音声データを他情報処理装置100aに送信し(ステップS308)、本処理は終了する。
【0105】
音声がユーザに対して提示される前に、音声情報が、環境条件及び顔条件を満たすか否かが判定される。そして、条件が満たされない場合には、ユーザに対して音声は提示されない。一方、条件が満たされる場合には、ユーザに対して音声が提示される。このため、ユーザが所望する情報を提示することができる。
以上の処理により、環境条件、及び、顔条件が満たされる場合に、ユーザに対して音声が提示される。このため、ユーザが所望する情報を提示することができる。
【0106】
なお、本発明は上記の実施形態に限定されず、種々の変形及び応用が可能である。
【0107】
情報処理装置100(他情報処理装置100a及び自情報処理装置100b)にて実行される上述した処理を、サーバ装置30が行うこともできる。例えば、情報処理装置100が備える通信部130は、登録処理において登録されたユーザ情報、取得された環境情報データ、対応表等をサーバ装置30に送信することにより、当該データをサーバ装置30に記憶させる。そして、サーバ装置30は、当該サーバ装置30に記憶されているデータに基づいて、他情報処理装置100aから自情報処理装置100bに、また、自情報処理装置100bから他情報処理装置100aに、音声データを送受信することもできる。
【0108】
例えば、サーバ装置30は、他情報処理装置100a及び自情報処理装置100bが取得した音声データ、顔情報データ、及び、環境情報データを受信して、当該データを記憶する。サーバ装置30は、図5に示される対応表に基づいて、受信した音声データが、条件を満たすか否かを判定する。そして、条件が満たされる場合に、サーバ装置30は、他情報処理装置100aから自情報処理装置100bに、また、自情報処理装置100bから他情報処理装置100aに、音声データを送受信することもできる。これにより、ユーザが所望する情報を提示することができる。
【0109】
前記のハードウエェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
【0110】
制御部110、記憶部120、通信部130、提示部140、取得部150、特定部160、判定部170などから構成される情報処理装置100の処理を行う中心となる部分は、デジタルフォトスタンドによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する情報処理装置100を構成してもよい。また、インターネット等の通信回路網上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで情報処理装置100を構成してもよい。
【0111】
また、情報処理装置100の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
【0112】
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS; Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
【産業上の利用可能性】
【0113】
以上説明したように、本発明によれば、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムを提供することができる。
【符号の説明】
【0114】
10…デジタルフォトスタンド、11…CPU、12…RAM、13…記憶装置、14…メディアコントローラ、14a…メモリカード挿入口、15…入力キー、16…駆動回路、17…表示パネル、18…音声センサ、19…イメージセンサ、20…メモリカード、21…スピーカ、22…NIC、23…RTC、24…環境センサ、30…サーバ装置、100…情報処理装置、110…制御部、120…記憶部、130…通信部、140…提示部、150…取得部、151…顔情報取得部、152…音声情報取得部、153…環境情報取得部、154…入力情報取得部、160…特定部、170…判定部
【特許請求の範囲】
【請求項1】
情報処理装置であって、
前記情報処理装置のユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記情報処理装置の環境情報を示す環境情報データを取得する環境情報取得部と、
前記情報処理装置以外の他情報処理装置から、当該他情報処理装置のユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記情報処理装置のユーザに対して提示する提示部と、
を備えることを特徴とする情報処理装置。
【請求項2】
前記提示部は、前記特定された環境条件と前記特定された顔条件とが満たされるまで待機し、当該顔条件と当該環境条件とが満たされると、前記受信された音声データが表す音声を提示する、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記環境情報は、日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天候情報のうち少なくともいずれか1つを含み、
前記環境条件は、日付に関する日付条件、時間に関する時間条件、温度情報に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件のうち少なくともいずれか1つを含み、
前記判定部は、前記環境情報取得部により取得された日付情報が前記日付条件を満たすか、前記環境情報取得部により取得された時間情報が前記時間条件を満たすか、前記環境情報取得部により取得された温度情報が前記温度条件を満たすか、前記環境情報取得部により取得された湿度情報が前記湿度条件を満たすか、前記環境情報取得部により取得された気圧情報が前記気圧条件を満たすか、又は、前記環境情報取得部により取得された天候情報が前記天候条件を満たすか、を判定し、当該判定した日付条件、当該判定した時間条件、当該判定した温度条件、当該判定した湿度条件、当該判定した気圧条件、又は、当該判定した天候条件のいずれかが満たされる場合、前記環境条件を満たすと判定する、
ことを特徴とする請求項1又は2に記載の情報処理装置。
【請求項4】
コンピュータを情報処理装置として機能させるプログラムであって、
前記コンピュータのユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記コンピュータの環境情報を示す環境情報データを取得する環境情報取得部と、
前記コンピュータ以外の他コンピュータから、当該他コンピュータのユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記コンピュータのユーザに対して提示する提示部と、
して機能させることを特徴とするプログラム。
【請求項1】
情報処理装置であって、
前記情報処理装置のユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記情報処理装置の環境情報を示す環境情報データを取得する環境情報取得部と、
前記情報処理装置以外の他情報処理装置から、当該他情報処理装置のユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記情報処理装置のユーザに対して提示する提示部と、
を備えることを特徴とする情報処理装置。
【請求項2】
前記提示部は、前記特定された環境条件と前記特定された顔条件とが満たされるまで待機し、当該顔条件と当該環境条件とが満たされると、前記受信された音声データが表す音声を提示する、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記環境情報は、日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天候情報のうち少なくともいずれか1つを含み、
前記環境条件は、日付に関する日付条件、時間に関する時間条件、温度情報に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件のうち少なくともいずれか1つを含み、
前記判定部は、前記環境情報取得部により取得された日付情報が前記日付条件を満たすか、前記環境情報取得部により取得された時間情報が前記時間条件を満たすか、前記環境情報取得部により取得された温度情報が前記温度条件を満たすか、前記環境情報取得部により取得された湿度情報が前記湿度条件を満たすか、前記環境情報取得部により取得された気圧情報が前記気圧条件を満たすか、又は、前記環境情報取得部により取得された天候情報が前記天候条件を満たすか、を判定し、当該判定した日付条件、当該判定した時間条件、当該判定した温度条件、当該判定した湿度条件、当該判定した気圧条件、又は、当該判定した天候条件のいずれかが満たされる場合、前記環境条件を満たすと判定する、
ことを特徴とする請求項1又は2に記載の情報処理装置。
【請求項4】
コンピュータを情報処理装置として機能させるプログラムであって、
前記コンピュータのユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記コンピュータの環境情報を示す環境情報データを取得する環境情報取得部と、
前記コンピュータ以外の他コンピュータから、当該他コンピュータのユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記コンピュータのユーザに対して提示する提示部と、
して機能させることを特徴とするプログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【公開番号】特開2011−197538(P2011−197538A)
【公開日】平成23年10月6日(2011.10.6)
【国際特許分類】
【出願番号】特願2010−66242(P2010−66242)
【出願日】平成22年3月23日(2010.3.23)
【出願人】(000001443)カシオ計算機株式会社 (8,748)
【Fターム(参考)】
【公開日】平成23年10月6日(2011.10.6)
【国際特許分類】
【出願日】平成22年3月23日(2010.3.23)
【出願人】(000001443)カシオ計算機株式会社 (8,748)
【Fターム(参考)】
[ Back to top ]