説明

情報出力装置、遠隔制御方法、及びプログラム

【課題】ユーザの直感的なジェスチャによる制御を容易に実現することができる情報出力装置、遠隔制御方法、及び、プログラムを提供すること。
【解決手段】撮像部44によって撮像した画像から、CPU32が、顔を検出し、さらに検出した顔から目、耳、口を検出し、さらに目、耳、口付近においてどのようなジェスチャを行っているかを検出し、ジェスチャの対象となった特徴物(目、耳、口)と関連した処理、及び該検出したジェスチャに対応付けられた指示を特定し、この指示に基づいて検出した特徴物(目、耳、口)と関連した処理の制御を行う。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人間の動作を検出して制御を行う情報出力装置、遠隔制御方法、及びプログラムに関する。
【背景技術】
【0002】
従来より、人間が機械を操作するマンマシンインタフェースとして多様なユーザインタフェース(UI:User Interface)が提案されている。このようなインタフェースとして、例えば、多くの電化製品や電子機器に設けられた操作パネルがあげられる。ユーザはこの操作パネルを操作することによって、当該電化製品や電子機器に各種の指示を入力をする。また、遠隔から電化製品や電子機器を操作するためのリモートコントローラ(以後、「リモコン」と言う)も存在している。リモコンは、ユーザが電化製品や電子機器に近づいて操作パネルを直接操作する作業を不要にしている。
【0003】
遠隔操作に関する技術として、例えば、特許文献1に、カメラより入力した入力画像から被撮影者を特定し、被撮影者が行う身振り手振りによるジェスチャによって、カメラ及び雲台を制御するものが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2005−51472号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載の手法では、ジェスチャに応じて操作する設定項目を特定するため、操作する設定項目の数が増加すると、覚える必要のあるジェスチャの数も増加し、一つ一つのジェスチャと設定項目の関係を覚えきれなくなる可能性がある。また、ユーザが操作しようとする設定項目に対して、必要とするジェスチャが思い出せず、操作に時間と手間がかかることがある。
【0006】
本発明は、このような課題に対して鑑みなされたものであり、ユーザの直感的なジェスチャによる制御を容易に実現することができる情報出力装置、遠隔制御方法、及び、プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上述の目的を達成するため、請求項1に記載の発明に係る情報出力装置は、撮像手段と、情報を出力する出力手段と前記撮像手段によって撮像した画像から、遠隔制御する者が有する前記情報の種類に対応する感覚器官の像を検出する検出手段と、前記検出手段によって前記感覚器官の像を検出すると、前記遠隔制御する者による前記感覚器官に対する所定の動作を検出する動作検出手段と、前記動作検出手段によって所定の動作を検出すると、前記出力手段による前記情報の出力を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段と、を備えたことを特徴とする。
【0008】
請求項2に記載の発明に係る情報出力装置は、前記情報とは画像であるとともに、前記情報の種類に対応する感覚器官とは前記遠隔制御する者の目であることを特徴とする。
【0009】
請求項3に記載の発明に係る情報出力装置は、前記情報とは音声であるとともに、前記情報の種類に対応する感覚器官とは前記遠隔制御する者の口若しくは耳であることを特徴とする。
【0010】
請求項4に記載の発明に係る情報出力装置は、前記出力手段が情報を出力した際に、前記検出手段による検出があったか否かを判断する検出判断手段と、この検出判断手段によって検出があったと判断されると、付加情報を入力する付加情報入力手段と、この付加情報入力手段によって入力された付加情報と前記出力手段が出力した情報に付加する情報付加手段と、を更に備えたことを特徴とする。
【0011】
請求項5に記載の発明に係る情報出力装置は、音声入力手段を更に備え、前記情報付加手段は、前記音声入力手段によって入力された音声を前記情報に付加することを特徴とする。
【0012】
請求項6に記載の発明に係る遠隔制御方法は、複数種の機能を実現する装置の制御方法であって、撮像した画像から所定の特徴物を検出する検出ステップと、前記検出ステップにて所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出ステップと、前記動作検出ステップにて所定の動作を検出すると、前記複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出ステップにて検出した動作で特定される制御内容で制御する制御ステップとを有することを特徴とする。
【0013】
請求項7に記載の発明に係る遠隔制御プログラムは、撮像した画像から所定の特徴物を検出する検出手段、前記検出手段によって所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出手段、前記動作検出手段によって所定の動作を検出すると、前記複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段として機能をコンピュータに実行させることを特徴とする。
【発明の効果】
【0014】
本発明によれば、ジェスチャによる設定項目の制御を容易に実現することができる。
【図面の簡単な説明】
【0015】
【図1】本発明の第1の実施の形態の情報出力装置であるジェスチャ入力装置を備えたデジタルフォトフレームの外観斜視図である。
【図2】図1のデジタルフォトフレーム1の内部の電気的構成を示すブロック図である。
【図3】図1のデジタルフォトフレームの制御回路30が実行する指示入力処理を示すフォローチャートである。
【図4】画像における感覚器官の検出を説明する図である。
【図5】ジェスチャ入力用テーブルを示す図である。
【図6】ジェスチャの例を示す図である。
【図7】デジタルフォトフレーム1の動作例を示す図である。
【図8】本発明の第2の実施の形態の情報出力装置である遠隔制御装置からなるシステムの概要を示す図である。
【図9】図8の遠隔制御装置の内部の電気的構成を示すブロック図である。
【発明を実施するための形態】
【0016】
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。
【0017】
[第1の実施の形態]
まず、本発明の第1の実施の形態について説明する。
【0018】
[基本構成]
図1は本発明の第1の実施の形態の情報出力装置であるジェスチャ入力装置を備えたデジタルフォトフレームの外観斜視図である。デジタルフォトフレーム1は、本体ケース5に、液晶表示装置10、カメラレンズ12、複数の押しボタンからなる操作パネル14、スピーカ16、制御回路(図2参照)を構成する回路基板等を組み込むことによって構成されている。本体ケース5の表側には液晶表示装置10、カメラレンズ12、スピーカ16などを配設している。本体ケース5の裏側には、デジタルフォトフレーム1を立てた姿勢で維持するための支持部材19が取り付けられている。本体ケース5の側部には、メモリカード50(図2参照)を挿入するためのスロット(図示せず)を開閉させる開閉部材20や、操作パネル14が設けられている。
【0019】
[電気的構成]
図2は、デジタルフォトフレーム1の内部の電気的構成を示すブロック図である。デジタルフォトフレーム1は、制御回路30と、制御回路30に接続された撮像部44と、液晶表示装置10と、操作パネル14と、スピーカ16と、マイク18等を備える。制御回路30は、CPU32と、ROM34と、RAM36と、液晶表示装置10を駆動するための表示制御回路38と、スピーカ16やマイク18を駆動するための音声制御回路40と、カードI/F42等から構成されている。カードI/F42には、デジタルフォトフレーム1本体のカードスロット(図示せず)によってメモリカード50が着脱可能に接続される。本実施の形態の情報出力装置であるジェスチャ入力装置は、撮像部44及び制御回路30によって構成され、撮像部44によって撮像された画像データに基づいて制御回路30が、撮影されている遠隔操作者の動作、例えばジェスチャを検出し、検出した動作に対応する処理を実行して液晶表示装置10及びスピーカ16等の制御の対象となる機能を持った構成部を制御する。
【0020】
撮像部44は、カメラレンズ12と、撮像素子であるCCD46と、ユニット回路(CDS/AGC/AD)48を有する。
【0021】
CCD46は、カメラレンズ12を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路48に出力する。
【0022】
ユニット回路48は、CCD46から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路と、CDS回路によりサンプリングを行った撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路と、ACG回路によって自動利得調整を行ったアナログの撮像信号をデジタル信号に変換するA/D変換器とを有し、CCD46から出力される撮像信号は、ユニット回路48を介してデジタル信号としてCPU32に送られる。
【0023】
CPU32は、ROM34に記憶されたアプリケーションプログラムを実行して、ユニット回路48から送られてきた画像データの画像処理、振れ補正処理、画像データの圧縮・伸張(例えば、JPEG形式の圧縮・伸張)の処理等を行う機能を実行するとともに、デジタルフォトフレーム1の各部をROM34に記憶された制御プログラムにしたがって制御するワンチップマイコンである。
【0024】
ROM34には、デジタルフォトフレーム1の各部を制御するための制御プログラム、ジェスチャを検出し、検出したジェスチャに対応する処理を含む、各種機能を実行するためのアプリケーションプログラム、画像認識処理を行うための顔全般、口、耳、目など感覚器官の像の特徴データ、ジェスチャを検出するための特徴データを含む各種機能を実行するための各種情報が記憶されている。
【0025】
RAM36は、CCD46によって撮像され、CPU32に送られてきた画像データを一時記憶するバッファメモリとして、さらに、CPU32のワーキングメモリとして使用される。また、情報として液晶表示装置10にスライドショーとして表示させる画像の画像データベース、同じく情報としてスピーカ16に音声出力させる音声の音声データベース、必要に応じて人間の感覚器官に関連するジェスチャと、対応する処理との関係を示すジェスチャ入力用テーブルなども記憶されている。
【0026】
表示制御回路38は液晶表示装置10を制御して、CPU32の指示に基づいてRAM36の画像データベースから読み出した画像データを液晶表示装置10に表示させる。液晶表示装置10は、表示制御回路38の制御に基づいて画像表示を行う。
【0027】
音声制御回路40はスピーカ16を制御して、CPU32の指示に基づいてRAM36の音声データベースから読み出された音声データをスピーカ16に音声出力させる。スピーカ16は、音声制御回路40の制御に基づいて音声出力を行う。また、音声制御回路40は、CPU32の指示に基づいてマイク18から入力されるアナログの音声データを付加すべき情報として、デジタル変換して表示出力されている画像と対応付けてRAM36に記憶する。
【0028】
操作パネル14には、電源ボタン、選択ボタン、決定ボタン、モード選択ボタン等の複数の押しボタン等が含まれており、ユーザのボタン操作に応じて対応する操作信号をCPU32に入力する。
【0029】
メモリカード50には、情報として画像データや音声データ等が記憶されている。操作パネル14の操作により、画像データあるいは音声データの読み出し先を、メモリカード50とRAM36のいずれか一方又は両方に設定することができる。
【0030】
[指示入力処理]
このようにして構成された本実施の形態の情報出力装置であるジェスチャ入力装置は、撮像部44で検出した動作(ジェスチャ)に応じてユーザ(遠隔操作者)の指示を特定し、デジタルフォトフレーム1の該当する機能を持った構成部を制御して、指示に対応する様々な処理をデジタルフォトフレーム1に行わせることができる。本実施の形態では、撮像部44が検出する動作を、人間のジェスチャとして説明する。以下、デジタルフォトフレーム1がスライドショーを行っている状態で、撮像部44により人間のジェスチャを検出した場合に、制御回路30において実行される指示入力処理について、図3を参照して説明する。
【0031】
図3に示すように、まず、CPU32は、スライドショーを開始する処理を行う(ステップS10)。すなわち、CPU32は、RAM36に記憶されている画像データベースから一定時間ごとに一枚ずつ画像データを読み出して、液晶表示装置10に表示させる。
【0032】
次に、CPU32は、撮像部44を制御して、所定の周期間隔で繰り返しの撮像を開始する処理を行う(ステップS12)。この処理において、CPU32は、CCD46から出力される撮像信号をユニット回路48で処理してデジタル信号の画像データとして取得し、こうして取得した画像データをRAM36に順次一時記憶する。
【0033】
次に、CPU32は、RAM36に一時記憶した画像データに画像認識処理を実行して、画像中に人間の顔があるか否かを判定する(ステップS14)。人間の顔があると判定した場合には(ステップS14でYES)、ステップS16に処理を移し、人間の顔がないと判定した場合には(ステップS14でNO)、ステップS24に処理を移す。ここで実行する画像認識処理として様々な処理が可能である。本実施の形態では、CPU32は、例えば、RAM36に一次記憶した画像データから撮像された被写体の輪郭や特徴点の認識、及び、それらの位置関係等を認識し、それらを数値化した数値データである特徴データを算出し、こうして算出した特徴データを、予めROM34に記憶してある画像認識用の被写体の特徴データと比較照合して行う。したがって、ステップS14で、CPU32は、RAM36に一次記憶した画像データから特徴データを算出し、算出した特徴データを、予めROM34に記憶してある画像認識用の顔の特徴データと比較照合して行う。
【0034】
ステップS14において、CPU32は、画像中に人間の顔があると判断すると(ステップS14でYES)、ステップS16に進み、CPU32は、画像に感覚器官、例えば、口、耳、目の何れかが含まれているか否かを判定する(ステップS16)。具体的には、CPU32は、図4(a)に示すように、RAM36に一時記憶した画像データの顔の領域Fを特定し、この領域Fに上述の画像認識処理を実行して口、耳、目があるか否かを判定する。口、耳、目の少なくともいずれかがあると判定した場合には(ステップS16でYES)、ステップS18に処理を移し、口、耳、目のいずれもないと判定した場合には(ステップS16でNO)、ステップS24に処理を移す。
【0035】
次にステップS18において、CPU32は、ステップS16で検出した感覚器官に対するジェスチャを検出し、どのようなジェスチャを行っているかを判定する(ステップS18)。ここでCPU32は、ステップS16において、例えば、感覚器官として「口」があると判定した場合には、RAM36に一時記憶した画像データから、図4(b)に示すように、口を基準とする口周辺の領域Bの画像を切り出し、RAM36に記憶する処理を行う。同様に、「目」があると判定された場合には、RAM36に一時記憶した画像データから、図4(b)に示すように、目を基準とする目周辺の領域Aの画像を切り出し、RAM36に記憶する処理を行い、「耳」があると判定された場合には、RAM36に一時記憶した画像データから、図4(b)に示すように、耳を基準とする耳周辺の領域Cの画像を切り出し、RAM36に記憶する処理を行う。そして、所定の期間の領域A、領域B、領域Cの画像データを複数枚蓄積し(例えば、所定の期間が3秒であり、撮像部44が1/4秒に1枚の撮像を行っている場合には、12枚の領域A、領域B、領域Cの画像がRAM36に蓄積されることになる)、所定の期間における領域A、領域B、領域Cの画像の変化から動きベクトルを算出する。動きベクトルは、例えば、代表点マッチング法や、ブロックマッチング法などを用いて算出してもよい。CPU32は、こうして取得した画像データと動きベクトルをROM34に記憶した特徴データと照合してジェスチャを検出する。なお、口周辺の画像の範囲としては、両手の手のひらが収まる程度の範囲あるいはそれよりも若干大きい範囲であることが考えられる。耳周辺や目周辺の画像の範囲も同様に、両手の手のひらが収まる程度の範囲あるいはそれよりも若干大きい範囲であることが考えられるが、これらの範囲については、CPUの処理能力、想定するジェスチャの大きさなどを考慮して、実装に応じて決定してもよい。この処理が終了した場合には、ステップS20に処理を移す。
【0036】
ステップS20において、CPU32は、ステップS18において検出したジェスチャと、ROM34のジェスチャ入力用テーブルに登録されているステップS16で検出した感覚器官に対応するジェスチャとを比較し、ステップS18において検出したジェスチャの中に、ジェスチャ入力用テーブルに登録されているジェスチャと一致しているジェスチャがあるか否かを判定する処理を行う。一致しているジェスチャがあると判定した場合には(ステップS20でYES)、ステップS22に処理を移す。一致しているジェスチャがあると判定しない場合には(ステップS20でNO)、ステップS24に処理を移す。
【0037】
ステップS22において、CPU32は、ステップS18において一致していると判定したジェスチャに対応する処理プログラムに基づいて、液晶表示装置10あるいはスピーカ16を制御する処理を行う。次に、ステップS24に処理を移す。
【0038】
ステップS24において、CPU32は、スライドショー終了の指示があるか否かを判定する処理を行う。例えば、CPU32は、操作パネル14の操作によってスライドショー終了の指示が入力されたか否かを判定する。スライドショー終了の指示があると判定した場合には、本ルーチンの処理を終了する。スライドショー終了の指示がないとした場合には、ステップS12に処理を移し、スライドショーを続行する。なお、ステップS24の処理を実行する前に、ジェスチャの検出に用いた撮像部44の撮影画像データを消去してもよい。
【0039】
すなわち、デジタルフォトフレーム1においてスライドショーの表示が実行されている間は、CPU32は、撮像部44によって撮像部44の撮影範囲内における人間の口、耳、目に対するジェスチャを検出する。そして、CPU32が、それら人間の感覚器官に対するジェスチャを検知した場合には、CPU32は、ジェスチャ入力用テーブルを参照して実行する処理の内容を決定し、決定した処理にしたがって、液晶表示装置10の表示制御、あるいはスピーカ16の音声出力制御あるいはマイク18の音声入力制御を実行する。
【0040】
次に、図5を用いて、ROM34に記憶されているジェスチャ入力用テーブルの内容について説明する。
【0041】
ジェスチャ入力用テーブルは、人間の感覚器官、すなわち、目、耳、口に対するジェスチャと、液晶表示装置10あるいはスピーカ16に対してCPU32が行うべき処理に関する指示とを対応付けたものである。CPU32は、液晶表示装置10あるいはスピーカ16に対する指示を特定すると、この指示に対応する処理をROM34から読み出して、液晶表示装置10及びスピーカ16の制御を行う。具体的には、本実施の形態における人間の感覚器官としては、目、耳、口が該当しており、人間の感覚器官に対するジェスチャとしては、例えば、目付近における手のひらあるいは指の動作、耳付近における手のひらあるいは指の動作、口付近における手のひらあるいは指の動作が該当する。
【0042】
ジェスチャ入力用テーブルから、本実施の形態においてジェスチャと、ジェスチャに対応してCPU32が行うべき処理の一例として、次のものがあげられる。図5(a)に示すように、目付近のジェスチャが、顔の前に両手で眼鏡の形を作るものである場合には(図6(a)参照)、写真の表示(スライドショー)を実行する。また、目付近のジェスチャが、手の平をのばし、両目の上でひさしの様にするというものである場合には、スライドショーを停止して、同じ写真をしばらく表示させたままの状態にする。また、目付近のジェスチャが、目の前で、親指と人差し指をくっつけては離すというものである場合には、画像の一部を拡大表示する。目付近のジェスチャが、まぶたを手のひらで覆うというものである場合には、液晶表示装置10のバックライトをオフにする(MUTE)。
【0043】
また、図5(b)に示すように、口付近のジェスチャが、口の前で、人差し指と親指で○のマークを作るというものである場合には、BGMの再生を実行する。また、口付近のジェスチャが、人差し指1本を口の前で立てる『し−っ』という動作である場合には(図6(b)参照)、音量を小さくする。また、口付近のジェスチャが、くっつけた人差し指と親指を口の前で離すというものである場合には、音量を大きくする。口付近のジェスチャが、口で両耳を覆うというものである場合には、音声出力を停止する(MUTE)。また、耳付近のジェスチャが、人差し指で、耳をふさぐというものである場合には(図6(c)参照)、音量を小さくする。また、耳付近のジェスチャが、耳に手のひらをかざすというものである場合には、音量を大きくする。また、耳付近のジェスチャが、手の平で両耳を覆うというものである場合には、音声出力を停止する(MUTE)。
【0044】
また、図5(c)に示すように、口付近のジェスチャが、口の前でマイクを握ったまねをするというものである場合には(図6(d)参照)、写真への音声の追加記録を実行する。また、口付近のジェスチャが、マイクを口から遠ざけるまねをするというものである場合には、録音音量を下げる。また、口付近のジェスチャが、マイクを口に近づけるまねをするというものである場合には、録音音量を上げる。
【0045】
図7は、本実施の形態の情報出力装置であるジェスチャ入力装置を備えたデジタルフォトフレーム1の使用例を示すものである。デジタルフォトフレーム1から出力されているBGMの音量を小さくしたい場合には、図7に示すように、口の前に人差し指を立てて「しーっ」という動作をすることにより、BGMの音量が小さくなる。なお、本実施の形態の情報出力装置であるジェスチャ入力装置においては、図6(c)に示すように、人差し指で耳をふさぐ動作をしても、BGMの音量を小さくすることができる。
【0046】
以上説明したように、本実施の形態では、撮像部44によって撮像した画像から、CPU32が、顔を検出し、さらに顔から特徴物、例えば目、耳、口を検出し、さらに目、耳、口においてどのようなジェスチャを行っているかを検出し、ROM34に記憶されているジェスチャ入力用テーブルを参照して、該特徴物と関連した処理へのジェスチャに対応付けられた処理内容を特定し、この処理内容に基づいて検出した特徴物と関連した処理への制御を行う。このため、例えば、図5に示すように、くっつけた親指と人差し指を離すというジェスチャを、目の前で行えば目と関連した表示処理の制御(例えば写真表示を拡大)を行い、同様のジェスチャを口の前で行えば口と関連した音声出力処理の制御(例えばBGMの音量調整)を行うというようにして、同一のジェスチャであっても行う対象が、例えば、目、耳、口などと異なれば別の操作指示を指定することができるので、操作を指示する項目が多い場合であっても、対応するジェスチャの数は抑制できる。また、ジェスチャを行う対象である感覚器官と関連した処理を該ジェスチャに応じて制御するようにしたので、操作を指示したいときに直感的に対応することができる。
【0047】
また、本実施の形態においては、検出された特徴物及びその周辺領域の画像から、特徴物に対するジェスチャを検出している。このため、撮像部44によって撮像した画像の画像データを全てジェスチャの検出に用いることなく、少ない画像データに基づいてジェスチャの検出を行うことが可能になり、CPU32の処理負担を軽減することができる。
【0048】
また、ジェスチャ入力用テーブルは、図5に示したものではなく、対応関係はこれに限らない。例えば、一方の手で口の前に指で○を作り、他方の手で耳の側に指で○を作れば通信オン、また、一方の手で口を覆い、他方の手で耳を覆うと通信オフというように、複数の感覚器官のジェスチャに1つのパラメータを対応させてもよい。
【0049】
ジェスチャ入力用テーブルはユーザが自由に設定できるようにしてもよい。また、本実施の形態では、ジェスチャ入力テーブルをROM34に記憶するとして説明したが、本発明はこれに限定されず、電気的にデータの書き換えが可能なメモリ、例えば、RAM36に記憶してもよい。このようにして、ユーザが操作パネル14を操作することによって、ユーザの好みに応じて、ジェスチャと、対応する処理とを、ジェスチャ入力用テーブルに自由に設定できるようにしてもよい。
【0050】
さらに、本実施の形態においては、CPU32が検出する特徴物を人間の感覚器官としているため、例えば、表示関連の操作を指示する場合であれば目付近のジェスチャに対応させ、音量関連の操作を指示する場合であれば耳付近のジェスチャに対応させ、音声関連の操作を指示する場合であれば口付近のジェスチャに対応させるというように、操作の指示内容を感覚器官別に分類することができる。このように、感覚器官の機能に関連性のある操作とジェスチャとを対応させることによって、ジェスチャを親しみやすくし、かつ、覚えやすくすることができる。また、感覚器官を基にしたインタフェースとなるので、言語や文化が異なる世界中の国々で共通のインタフェースとして用いることが可能になる。さらに、リモコンなどの第3の機器を用いることなく、制御の対象となる機能を持った構成部を遠隔操作することができるになる。
【0051】
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限るものではない。例えば、撮像部44の撮影画像の中に、複数の顔が含まれている場合には、最も中央よりの顔、あるいは最も大きく写されている顔を選択し、選択した顔の目、耳、口付近のジェスチャに基づいて、そのジェスチャの対象となっている感覚器官によって特定される機能を制御するようにしてもよい。
【0052】
また、最初に検出する特徴物を、人間の感覚器官としたが、本発明はこれに限定されず、撮像部44の撮影範囲に含むことができ、CPU32が認識可能であれば、特徴物は眼鏡などのように、該感覚器官と関連している物体でもよい。この場合、CPU32は、設定した特徴物付近のジェスチャを検出して、操作の指示を決定して、その物体と関連している感覚器官(眼鏡であった場合は、目)によって特定される機能(目であった場合は、表示機能)を制御するようにしてもよい。
【0053】
また、予め所有者の画像を登録し、撮像画像から顔を検出する時に、所有者の顔であるか否かを判別し、所有者の顔である場合に目、耳、口の検出を行うようにすることによって、所有者のみのジェスチャによって制御の対象となる機能を制御するようにしてもよい。
【0054】
上述の実施の形態では、本発明をデジタルフォトフレームに適用した場合について説明したが、本発明はこれに限定されず、例えば、テレビ、冷蔵庫、エアコンなどの電気製品や電子機器の制御部として適用してもよく、また上述の実施の形態で示した目、耳、口のうちの少なくとも何れか1つを検出し、その検出した感覚器官によって特定される機能を制御するものであればよい。あるいはCPUとメモリを含む、撮像部が有するコンピュータを上述した各手段として機能させるプログラムによって動作させることができる。プログラムは、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。
【0055】
さらに、図1に示すデジタルフォトフレーム1においては、本体ケース5の内部に情報出力装置であるジェスチャ入力装置と液晶表示装置10及びスピーカ16等の制御対象となる機能を持った構成部とを設けているが、情報出力装置と制御の対象となる機能を持った構成部とを分離してもよい。ジェスチャ入力装置と制御の対象となる機能を持った構成部とを分離した場合については次の実施の形態で説明する。
【0056】
[第2の実施の形態]
図8は本発明の第2の実施の形態の情報出力装置である遠隔制御装置を含むシステムの概要を示す図で、図9は本発明の第2の実施の形態の情報出力装置である遠隔制御装置の制御ブロック図である。第1の実施の形態と同様の構成には、同様の符号を付して詳細な説明を省略する。本実施の形態の情報出力装置である遠隔制御装置は、第1の実施の形態情報出力装置であるジェスチャ入力装置の特徴に加えて、遠隔制御装置と制御の対象となる機能を持った構成部とを分離しているという特徴を有する。図8に示すように、遠隔制御装置70は、デジタルテレビ受信装置150、DVD記録再生装置160、ビデオ記録再生装置170、衛星放送用チューナ180、地上デジタル放送用チューナ190のAV機器等をコントロールするためのコマンドを赤外線送信する機能、及び、例えば、図示していない浴室の湯沸器をオンオフするためのコマンドを無線送信する機能が備えられている。遠隔制御装置70からのコマンドを直接AV機器に赤外線送信できない場合には、遠隔制御装置70からのコマンドを中継装置120を介してAV機器に送信する。
【0057】
遠隔制御装置70は、図9に示すように、制御回路100と、制御回路100に接続した撮像部110、操作パネル112、赤外線発生部104、アンテナ108とから構成されている。制御回路100は、CPU32と、ROM34と、RAM36と、赤外線送信回路102と、無線送信回路106とを有する。なお、図9に示す遠隔制御装置70の構成において、図2を参照して説明した制御回路30における構成要素と同様の構成要素については、同一の符号を付して詳細な説明を省略する。また、撮像部110についても、図2を参照して説明した撮像部44と同様の構成で実現可能であるため、詳細な説明を省略する。なお、本実施の形態では、制御回路100のROM34に記憶されたジェスチャ入力用テーブルには、図5を参照した人間の感覚器官に関連するジェスチャと、ジェスチャに対応する処理の項目に加えて、処理を実行する機器と送信方法も含んでいる。
【0058】
制御回路100を構成するCPU32は、図2を参照して説明した制御回路30と同様に、撮像部110によって撮影された画像データに基づいて、撮像部110の撮影範囲内における人間の感覚器官、例えば、口、耳、目、及び人間の口、耳、目付近のジェスチャを検出する。そして、CPU32が、人間の感覚器官に対するジェスチャを検知すると、CPU32は、ジェスチャ入力用テーブルを参照して、その感覚器官に対応する機器と送信方法及び処理の内容を決定する。そして、CPU32は、検出した感覚器官が赤外線で情報を送受信する機器に対するものであれば、赤外線送信回路102を制御して、赤外線発生部104から、決定した処理内容を赤外線信号によって該当する機器に送信する。該当する機器は、こうして送信された赤外線信号を受信すると、赤外線信号が示す処理コマンドを実行して、指定された処理を実行する。また、CPU32は、検出した感覚器官が無線通信で情報を送受信する機器に対するものであれば、無線送信回路106を制御して、アンテナ108から、決定した処理内容を無線信号によって該当する機器に送信する。該当する機器は、こうして送信された無線信号を受信すると、無線信号が示す検知したジェスチャに対応した処理コマンドを実行して、指定された処理を実行する。
【0059】
さらに、制御回路100のROM34には、ジェスチャ入力用テーブルに加えて、さらに、それぞれの処理を赤外線リモコン又は無線リモコンによって各種の機器を遠隔操作するためのコマンドを記憶している。
【0060】
ジェスチャ入力用テーブルはユーザが自由に設定できるようにしてもよい。本実施の形態では、ジェスチャ入力テーブルをROM34に記憶するとしたが、本発明はこれに限定されず、例えば、電気的にデータの書き換えが可能なメモリ、例えば、RAM36に記憶してもよい。このようにして、ユーザが操作パネル112を操作することによって、ユーザの好みに応じて、ジェスチャと、遠隔操作したい機種の機能に対応するコマンドとを関連付けて、ジェスチャ入力用テーブルに設定入力を行うことができる。例えば、目付近のジェスチャは、DVD記録再生装置160の制御を行う操作の指示に対応させ、口付近のジェスチャはデジタルテレビ受信装置150の制御を行う操作の指示に対応させるように、デジタルテレビ受信装置150やDVD記録再生装置160を遠隔操作する際のユーザのジェスチャを分類してもよい。
【0061】
本発明は、上述の実施の形態に限定されるものでは無く、その趣旨を逸脱しない範囲で、上述の実施の形態を種々に組み合わせ、さらには上述の実施の形態に種々に変形を加えた形態とすることができる。
【符号の説明】
【0062】
1 デジタルフォトフレーム
10 液晶表示装置
12 カメラレンズ
14、112 操作パネル
16 スピーカ
18 マイク
30、100 制御回路
32 CPU
34 ROM
36 RAM
44、110 撮像部
70 遠隔制御装置(第2の実施の形態)
102 赤外線送信回路
104 赤外線発生部
106 無線送信回路
108 アンテナ
120 中継装置
150 デジタルテレビ受信装置
160 DVD記録再生装置

【特許請求の範囲】
【請求項1】
撮像手段と、
情報を出力する出力手段と
前記撮像手段によって撮像した画像から、遠隔制御する者が有する前記情報の種類に対応する感覚器官の像を検出する検出手段と、
前記検出手段によって前記感覚器官の像を検出すると、前記遠隔制御する者による前記感覚器官に対する所定の動作を検出する動作検出手段と、
前記動作検出手段によって所定の動作を検出すると、前記出力手段による前記情報の出力を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段と、
を備えたことを特徴とする情報出力装置。
【請求項2】
前記情報とは画像であるとともに、前記情報の種類に対応する感覚器官とは前記遠隔制御する者の目であることを特徴とする請求項1記載の情報出力装置。
【請求項3】
前記情報とは音声であるとともに、前記情報の種類に対応する感覚器官とは前記遠隔制御する者の口若しくは耳であることを特徴とする請求項1又は2記載の情報出力装置。
【請求項4】
前記出力手段が情報を出力した際に、前記検出手段による検出があったか否かを判断する検出判断手段と、
この検出判断手段によって検出があったと判断されると、付加情報を入力する付加情報入力手段と、
この付加情報入力手段によって入力された付加情報と前記出力手段が出力した情報に付加する情報付加手段と、
を更に備えたことを特徴とする請求項1乃至3の何れか記載の情報出力装置。
【請求項5】
音声入力手段を更に備え、
前記情報付加手段は、前記音声入力手段によって入力された音声を前記情報に付加することを特徴とする請求項4記載の情報出力装置。
【請求項6】
複数種の機能を実現する装置の制御方法であって、
撮像した画像から所定の特徴物を検出する検出ステップと、
前記検出ステップにて所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出ステップと、
前記動作検出ステップにて所定の動作を検出すると、前記複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出ステップにて検出した動作で特定される制御内容で制御する制御ステップとを有することを特徴とする遠隔制御方法。
【請求項7】
コンピュータを、
撮像した画像から所定の特徴物を検出する検出手段、
前記検出手段によって所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出手段、
前記動作検出手段によって所定の動作を検出すると、複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段、
として機能させることを特徴とするプログラム。


【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2010−238145(P2010−238145A)
【公開日】平成22年10月21日(2010.10.21)
【国際特許分類】
【出願番号】特願2009−87910(P2009−87910)
【出願日】平成21年3月31日(2009.3.31)
【出願人】(000001443)カシオ計算機株式会社 (8,748)
【Fターム(参考)】