説明

環境認識システム、環境認識方法およびロボット

【課題】ロボット等の装置の周辺に存在する物体の位置、姿勢および形状等、当該物体を対象とする当該装置の動作のために必要な情報を高精度で認識することができるシステム等を提供する。
【解決手段】本発明の環境認識システムによれば、3次元画像センサ11および2次元画像センサ12のそれぞれのカメラパラメータを用いて、被写体の3次元情報および物理情報(色情報など)が対応付けられる。その結果、ロボットRの周囲にある被写体に関する位置、姿勢および形状、ならびに、被写体の物理情報が取得される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、装置の環境を認識するシステム等に関する。
【背景技術】
【0002】
ロボットに搭載されているカメラおよびレーザレンジファインダのそれぞれから取得される画像データおよびレンジデータに基づき、当該ロボットの位置を推定する手法が提案されている(特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007−322138号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、ロボットがそのハンドによる任意の物体の把持等、周辺に存在するさまざまな種類の物体を対象として臨機応変に動作するためには、その物体の位置、形状および姿勢等が正確に認識される必要がある。
【0005】
そこで、本発明は、ロボット等の装置の周辺に存在する物体の位置、姿勢および形状等、当該物体を対象とする当該装置の動作のために必要な情報を高精度で認識することができるシステム等を提供することを解決課題とする。
【課題を解決するための手段】
【0006】
前記課題を解決するための本発明の環境認識システムは、装置の環境を認識するシステムであって、前記装置の周辺の様子を撮像することにより、被写体の3次元情報を取得する3次元画像センサと、前記3次元画像センサに撮像範囲と重なる範囲を撮像することにより、前記被写体の物理情報を取得する2次元画像センサと、前記3次元画像センサにより取得された前記被写体の3次元情報および前記2次元画像センサにより取得された前記被写体の物理情報を対応付けることにより、前記被写体の位置、姿勢および形状、ならびに、物理情報を取得するように構成されている画像処理要素とを備えていることを特徴とする(第1発明)。
【0007】
第1発明の環境認識システムによれば、3次元画像センサにより取得された被写体の3次元情報および2次元画像センサにより取得された物理情報が対応付けられる。その結果、装置の周辺に存在する被写体(物体)を対象とする当該装置の動作のために必要な情報、すなわち、被写体の位置、姿勢および形状ならびに物理情報が高精度で認識されうる。また、3次元画像センサおよび2次元画像センサのそれぞれの撮像範囲の重なり部分を大きくするために光軸を近づけることが好ましいことから、両センサを相互に近くに配置してシステムのコンパクト化が図られる。
【0008】
第1発明の環境認識システムにおいて、前記画像処理要素が、前記3次元画像センサの撮像面により定義される第1画像座標系における複数の第1ピクセルのそれぞれの位置が、前記2次元画像センサの撮像面により定義される第2画像座標系に座標変換された結果としての複数の変換位置のそれぞれを算定し、前記第2画像座標系における少なくとも3つの変換位置のそれぞれに対応する、前記第1ピクセルが有する前記被写体の3次元情報に基づき、前記第2画像座標系において前記少なくとも3つの変換位置の近傍にある第2ピクセルが有する前記被写体の物理情報に対応付けられる前記被写体の3次元情報を算定するように構成されていてもよい(第2発明)。
【0009】
第2発明の環境認識システムにおいて、前記画像処理要素が、前記第2画像座標系における3つの変換位置のそれぞれに対応する、前記第1ピクセルが有する前記被写体の3次元情報としての世界座標系における3つの位置を通る平面を算定し、前記2次元画像センサの主点と、前記第2画像座標系において前記3つの変換位置の近傍にある前記第2ピクセルとを通る直線を算定し、前記世界座標系における前記平面と前記直線との交点位置を、前記第2ピクセルが有する前記被写体の物理情報に対応付けられる前記被写体の3次元情報として算定するように構成されていてもよい(第3発明)。
【0010】
第2または第3発明の環境認識システムにおいて、前記画像処理要素が、前記第2画像座標系における変換位置の周辺に存在する一または複数の前記第2ピクセルが有する前記被写体の物理情報に基づき、前記変換位置に対応する、前記第1ピクセルが有する前記被写体の3次元情報に対応付けられる前記被写体の物理情報を算定するように構成されていてもよい(第4発明)。
【0011】
第1発明の環境認識システムにおいて、前記画像処理要素が、前記3次元画像センサの撮像面により定義される第1画像座標系における複数の第1ピクセルのそれぞれの位置が、前記2次元画像センサの撮像面により定義される第2画像座標系に座標変換された結果としての複数の変換位置のそれぞれを算定し、かつ、前記第2画像座標系における変換位置の周辺に存在する一または複数の前記第2ピクセルが有する前記被写体の物理情報に基づき、前記変換位置に対応する、前記第1ピクセルが有する前記被写体の3次元情報に対応付けられる前記被写体の物理情報を算定するように構成されていてもよい(第5発明)。
【0012】
第2〜第5発明のそれぞれの環境認識システムによれば、第1画像座標系における第1ピクセルが第2画像座標系に座標変換された結果としての変換位置が、通常、第2画像座標系における第2ピクセルの位置に合致しないことが考慮された形で、3次元情報および物理情報が対応付けられる。これにより、被写体を対象とする装置の動作のために必要な情報が高精度で認識されうる。
【0013】
第1〜第5発明のうちいずれか1つの環境認識システムにおいて、前記2次元画像センサが、前記被写体の物理情報として色情報または温度情報を取得するように構成され、前記画像処理要素が、前記3次元画像センサにより取得された前記被写体の3次元情報および前記2次元画像センサにより取得された前記被写体の色情報および温度情報のうち一方または両方を対応付けることにより、前記装被写体の位置、姿勢および形状、ならびに、色情報および温度情報のうち一方または両方を取得するように構成されていてもよい(第6発明)。
【0014】
第6発明の環境認識システムによれば、被写体を対象とする装置の動作のために必要な情報、すなわち、当該被写体の位置、姿勢および形状に加えて、被写体の色情報および温度情報のうち一方または両方が高精度で認識されうる。
【0015】
第1〜第6発明のうちいずれか1つの環境認識システムにおいて、前記3次元画像センサが前記被写体の3次元情報に加えて前記被写体の輝度情報を取得するように構成され、前記画像処理要素が、前記3次元画像センサにより取得されたキャリブレーション用物体の輝度情報および距離情報、ならびに、前記2次元画像センサにより取得された前記キャリブレーション用物体の物理情報を用いて、前記3次元画像の座標系、前記2次元画像の座標系および世界座標系の関係を表わすパラメータを求めるキャリブレーションを実行した上で、前記パラメータを用いて前記3次元画像センサにより取得された前記被写体の3次元情報および前記2次元画像センサにより取得された前記被写体の物理情報を対応付けるように構成されていてもよい(第7発明)。
【0016】
第7発明の環境認識システムによれば、3次元画像センサにより取得されたキャリブレーション用物体の輝度情報および3次元情報、ならびに、2次元画像センサにより取得された当該物体の物理情報を用いて、第1画像座標系および第2画像座標系の関係を表わすパラメータを求めるキャリブレーションが実行される。そして、当該パラメータを用いて3次元画像センサにより取得された被写体の3次元情報および2次元画像センサにより取得された被写体の物理情報が対応付けられる。
【0017】
前記課題を解決するための本発明の環境認識方法は、装置の環境を認識する方法であって、3次元画像センサにより前記装置の周辺の様子を撮像することにより、被写体の3次元情報を取得し、前記3次元画像センサに撮像範囲と重なる範囲を2次元画像センサにより撮像することにより、前記被写体の物理情報を取得し、前記被写体の3次元情報および前記被写体の物理情報を対応付けることにより、前記被写体の位置、姿勢および形状、ならびに、物理情報を取得することを特徴とする(第8発明)。
【0018】
第8発明の環境認識方法によれば、装置の周辺に存在する被写体を対象とする当該装置の動作のために必要な情報、すなわち、当該被写体の位置、姿勢および形状ならびに物理情報が高精度で認識されうる。
【0019】
前記課題を解決するための前記装置としての本発明のロボットは、第1〜第7発明のうちいずれか1つにの環境認識システムを備え、前記環境システムにより認識された被写体の位置、姿勢および形状ならびに物理情報を用いて、前記被写体を対象として動作することを特徴とする(第9発明)。
【0020】
第9発明のロボットによれば、その周辺に存在する被写体の位置、姿勢および形状ならびに物理情報が高精度で認識されるので、当該被写体を対象とする所望の動作を正確に実行することができる。また、システムのコンパクト化が図られることから、ロボット全体としてのコンパクト化またはスペースの有効利用が可能となる。
【図面の簡単な説明】
【0021】
【図1】本発明の一実施形態としての環境認識システムが搭載されているロボットの構成説明図。
【図2】環境認識システムの構成説明図。
【図3】本発明の第1実施形態としての環境認識方法の手順説明図。
【図4】3次元座標系および2次元座標系の対応付け方法に関する説明図。
【図5】3次元情報および物理情報の対応付け方法に関する説明図。
【図6】本発明の第2実施形態としての環境認識方法の手順説明図(その1)。
【図7】本発明の第2実施形態としての環境認識方法の手順説明図(その2)。
【図8】キャリブレーションボードの例示図。
【発明を実施するための形態】
【0022】
本発明の一実施形態としての環境認識システムについて図面を用いて説明する。
【0023】
まず、環境認識システムおよびこれが搭載されているロボット(装置)の構成について説明する。なお、環境認識システムは物体の加工作業または運搬作業などを実行するロボット、物体(前方車両など)との接触を回避するための動作制御を実行する車両等のさまざまな装置に搭載されてもよい。
【0024】
図1に示されているロボットRは脚式移動ロボットであり、人間と同様に、基体B0と、基体B0の上方に配置された頭部B1と、基体B0の上部に上部両側から延設された左右の腕体B2と、左右の腕体B2のそれぞれの先端に設けられているハンドHと、基体B0の下部から下方に延設された左右の脚体B4とを備えている。なお、ロボットRは脚式移動ロボットのみならず、ハンドHの位置および姿勢を変化させるための腕体B2に相当する機構を備えているあらゆる種類のロボットであってもよい。
【0025】
ロボットRはその動作を制御する制御装置2(演算処理要素)を備えている。制御装置2はロボットRの内部ネットワークを通じて接続された主制御ユニットおよび一または複数の副制御ユニットより構成される分散制御装置であってもよい。
【0026】
制御装置2はコンピュータ(CPU、ROMおよびRAM等のメモリ、ならびに、A/D回路およびI/O回路等の回路により構成されている。)により構成されている。制御装置2によれば、CPUによりメモリから制御プログラムが適宜読み出され、読み出されたプログラムにしたがってハンドHの動作が制御される。
【0027】
制御装置2はロボットRに搭載されている複数のアクチュエータ4のそれぞれの動作を制御することにより、ハンドHの指機構F1〜F5の動き、腕体B2の各関節機構における動きおよび脚体B4の各関節における動き等を制御する。
【0028】
基体B0はヨー軸回りに相対的に回動しうるように上下に連結された上部および下部により構成されている。頭部B1は基体B0に対してヨー軸回りに回動する等、動くことができる。
【0029】
腕体B2は第1腕体リンクB22と、第2腕体リンクB24とを備えている。基体B0と第1腕体リンクB21とは肩関節機構(第1腕関節機構)B21を介して連結され、第1腕体リンクB22と第2腕体リンクB24とは肘関節機構(第2腕関節機構)B23を介して連結され、第2腕体リンクB24とハンドHとは手根関節機構(第3腕関節機構)B25を介して連結されている。肩関節機構B21はロール、ピッチおよびヨー軸回りの回動自由度を有し、肘関節機構B23はピッチ軸回りの回動自由度を有し、手根関節機構B25はロール、ピッチ、ヨー軸回りの回動自由度を有している。
【0030】
脚体B4は第1脚体リンクB42と、第2脚体リンクB44と、足部B5とを備えている。基体B0と第1脚体リンクB42とは股関節機構(第1脚関節機構)B41を介して連結され、第1脚体リンクB42と第2脚体リンクB44とは膝関節機構(第2脚関節機構)B43を介して連結され、第2脚体リンクB44と足部B5とは足関節機構(第3脚関節機構)B45を介して連結されている。
【0031】
股関節機構B41はロール、ピッチおよびロール軸回りの回動自由度を有し、膝関節機構B43はピッチ軸回りの回動自由度を有し、足関節機構B45はロールおよびピッチ軸回りの回動自由度を有している。股関節機構B41、膝関節機構B43および足関節機構B45は「脚関節機構群」を構成する。なお、脚関節機構群に含まれる各関節機構の並進および回転自由度は適宜変更されてもよい。また、股関節機構B41、膝関節機構B43および足関節機構B45のうち任意の1つの関節機構が省略された上で、残りの2つの関節機構の組み合わせにより脚関節機構群が構成されていてもよい。さらに、脚体B4が膝関節とは別の第2脚関節機構を有する場合、当該第2脚関節機構が含まれるように脚関節機構群が構成されてもよい。足部B5の底には着床時の衝撃緩和のため、特開2001−129774号公報に開示されているような弾性素材B52が設けられている。
【0032】
頭部B1には3次元画像センサ11および2次元画像センサ12が搭載されている。
【0033】
3次元画像センサ11は、本実施形態ではTOF(Time Of Flight)3次元センサである。3次元画像センサ11は、ロボットRの前方(頭部B0の正面が向けられている範囲)の様子を撮像することにより、被写体の3次元情報を取得する。
【0034】
2次元画像センサ12は、本実施形態ではカラーセンサである。2次元画像センサ12は、3次元画像センサ11による撮像範囲と重なる範囲を撮像することにより、被写体の色情報(物理情報)を取得する。
【0035】
3次元画像センサ11の解像度(たとえば176×244)と、2次元画像センサ12の解像度(たとえば1024×768)とは異なっている。
【0036】
3次元画像センサ11の撮像面により定義される第1画像座標系および2次元画像センサ12の撮像面により定義される第2画像座標系のロボット座標系に対する位置および姿勢はメモリに保存されており、後述するように世界座標系において認識された物体の位置および姿勢が、ロボット座標系に座標変換される際に用いられる。ロボット座標系は、たとえばロボットRの質量中心(たとえば基体B0に含まれている。)が原点として定義され、ロボットRの上方が+x方向として定義され、右方向が+y方向として定義され、前方が+z方向として定義されている。)
制御装置2は後述する画像処理を実行する画像処理要素20を備えている(図2参照)。画像処理要素20は、制御装置2とは別個の一または複数のモジュールにより構成されうる。
【0037】
前記構成の環境認識システムの機能について説明する。なお、演算処理結果は適宜メモリに保存され、かつ、適宜メモリから読み出される。
【0038】
3次元画像センサ11のカメラパラメータおよびひずみパラメータがメモリから読み取られる(図3/STEP102)。2次元画像センサ12のカメラパラメータおよびひずみパラメータがメモリから読み取られる(図3/STEP104)。
【0039】
3次元画像センサ11によりロボットRの周辺の様子が撮像されることにより、被写体の3次元情報が取得される(図3/STEP106)。「3次元情報」は、第1画像座標系における複数の第1ピクセルのそれぞれの位置における、センサ11の主点から被写体までの距離Dを意味する。
【0040】
2次元画像センサ12によりロボットRの周辺が撮像されることにより、被写体の色情報が取得される(図3/STEP108)。「色情報」は、第2画像座標系における複数の第2ピクセルのそれぞれの位置における、被写体の色彩(たとえばRGB値により特定される。)を意味する。
【0041】
続いて、3次元画像センサ11のカメラパラメータおよびひずみパラメータを用いて、第1画像座標系における第1ピクセル位置が3次元の世界座標系の点に座標変換される(図3/STEP110)。
【0042】
具体的には、3次元画像センサ11のカメラパラメータとしての回転行列Rtおよび並進ベクトルTtを用い、関係式(1)にしたがって第1画像座標系の第1ピクセル位置P1が世界座標系の点Pwに変換される。これにより、図4に示されているように3次元画像座標系において量子化された点(第1ピクセル位置)P1=(X1, Y1)が世界座標系の点Pw=(xw, yw, zw)に座標変換される。
【0043】
Pw=Rt-1(P1-Tt) ..(1)
【0044】
第1ピクセル位置P1=(X1, Y1)は、3次元画像センサ11の主点から当該点P1までの距離D、焦点距離f、レンズひずみパラメータκ1およびκ2ならびにスケール係数sx(通常は「1」に設定される。)等に基づいて次の関係式(2a)〜(2c)にしたがって算定されうる。
【0045】
(d’xx/sx)(1+κ1r22r4)=f(X1/Z1) ..(2a)
dyy(1+κ1r22r4)=f(Y1/Z1) ..(2b)
X12+Y12+Z12=D2 ..(2c)
【0046】
ここで「r」は画像原点(Cx, Cy)等を用いて関係式(3)により表現される。
【0047】
r=((d’xx/sx)2+(d’yy)2)1/2, x≡X1-Cx, y≡Y1-Cy ..(3)
【0048】
「d’x」はx方向の素子数Ncxおよび走査線上のサンプル数Nfxを用い、関係式(4)にしたがって補正されたx方向の素子間隔dxを表している。
【0049】
d’x=(Ncx/Nfx) dx ..(4)
【0050】
続いて、第2画像座標系において、世界座標系の点Pwに対応する変換位置が算定される(図3/STEP112)。
【0051】
具体的には、まず、2次元画像センサ12のカメラパラメータである回転行列R=(Rij)および並進ベクトルT=(tx, ty, tz)ならびに関係式(5)および(6)が用いられることにより非線型方程式(7)が得られる。
【0052】
x (1+κ1r22r4)=(sx/d’x)f(R11xw+R12yw+R13zw+tx)/(R31xw+R32yw+R33zw+tz) ..(5)
y (1+κ1r22r4)= (1/dy)fRr21xw+R22yw+R23zw+ty)/(R31xw+R32yw+R33zw+tz) ..(6)
r+κ1r32r5=c=(c12+c22)1/2,
c1≡f(R11xw+R12yw+R13zw+tx)/(R31xw+R32yw+R33zw+tz),
c2≡f(R21xw+R22yw+R23zw+ty)/(R31xw+R32yw+R33zw+tz) ..(7)
【0053】
線型方程式(7)がNewton-Rraphson法にしたがって近似されることにより関係式(8)が得られる。
【0054】
f(rn)=rn1rn32rn5-c, f’(rn)=1+3κ1rn2+5κ2rn4, rn+1=rnf(rn)/f’(rn) ..(8)
【0055】
rnが関係式(8)にしたがって反復計算され、その収束率|1-(rn+1/rn)|が閾値ε(たとえばexp(-10))以下になった際の収束結果がrの近似解として算定される。
【0056】
当該近似解rを用いて、関係式(3)(5)および(6)にしたがって第2座標系における変換位置Pc=(xc, yc)が算定される。これにより、図4に示されているように、世界座標系の点Pw=(xw, yw, zw)に対応する第2画像座標系における変換位置Pcが求められる。
【0057】
前記のように3次元画像センサ11の解像度と、2次元画像センサ12の解像度とは異なっているが、解像度の相違の有無にかかわらず補間が必要である。これは、図4に示されているように、第1画像座標系における第1ピクセル位置(X1, Y1)に対応する第2画像座標系における変換位置Pcは、通常、第2画像座標系における量子化された点(第2ピクセル位置)には一致しないからである。図4には、第2画像座標系における変換位置Pcが、第2ピクセル位置A〜Dを頂点とする矩形領域に含まれている様子が示されている。
【0058】
そこで、たとえば、最近傍点補間法、双線形補間法またはバイキュービックスプライン法にしたがって、3次元情報に色情報(物理情報)が対応付けられる。
【0059】
「最近傍点補間法」によれば、第2画像座標系において変換位置Pcに最も近い第2ピクセル位置Aの色情報が、当該変換位置Pcにおける色情報として適用される。「双線形補間法」によれば、第2画像座標系において変換位置Pcを囲う4つの第2ピクセル位置A〜Dのそれぞれまでの距離の比と、第2ピクセル位置A〜Dの色情報とに基づいて当該変換位置Pcの色情報が決定される。「バイキュービックスプライン補間法」によれば、第2画像座標系において変換位置Pcを囲う4つの第2ピクセル位置A〜Dに加えて、さらに外側の12の第2ピクセル位置の合計16の第2ピクセル位置と、当該第2幾セル位置のそれぞれの色情報とに基づき、当該変換位置Pcの色情報が決定される。
【0060】
第1画像座標系における対象となる第1ピクセル位置(すべての第1ピクセル位置でなくてもよい。)について、前記のような世界座標系への座標変換、第2画像座標系において対応する変換位置の決定、最近傍点補間法等による色情報の算定、ならびに、3次元情報に対する物理情報(色情報)の対応付けが完了したか否かが判定される(図3/STEP116)。
【0061】
当該判定結果が否定的である場合(図3/STEP116‥NO)、対象となる残りの第1ピクセル位置について世界座標系への座標変換、第2画像座標系において対応する変換位置の決定、最近傍点補間法等による物理情報(色情報)の算定、ならびに、3次元情報に対する物理情報の対応付けが繰り返される(図3/STEP110〜STEP114)。
【0062】
一方、対象となるすべての第1ピクセル位置に対して前記処理が実行されたと判定された場合(図3/STEP116‥YES)、2次元画像に3次元情報を対応付けることの要否が判定される(図3/STEP118)。たとえば、3次元画像センサ11の解像度が、2次元画像センサ12の解像度よりも高いか否かに応じて、当該要否が判定されうる。なお、当該判定処理は省略されてもよい。
【0063】
当該判定結果が肯定的である場合(図3/STEP118‥YES)、図5に示されているように第2画像座標系において対象となる第2ピクセル位置P2=(X2, Y2)を囲む最も近い3つの変換位置Pc1、Pc2およびPc3のそれぞれに対応する世界座標系の点の座標値Pw1=(xw1, yw1, zw1)、Pw2=(xw2, yw2, zw2)およびPw3=(xw3, yw3, zw3)がメモリから読み出される(図3/STEP120)。世界座標系における当該3つの点Pw1、Pw2およびPw3が同一直線上には無いことが確認される。
【0064】
そして、図5に示されているように世界座標系において3つの点Pw1、Pw2およびPw3を通る平面が算定されれる(図3/STEP122)。
【0065】
世界座標系において3つの点Pw1、Pw2およびPw3を通る平面は関係式(9)によって表される。
【0066】
u1xw+u2yw+u3zw=1,
t(u1,u2,u3)=Q -1t(1,1,1),
Q≡t(tPw1, tPw2, tPw3) ..(9)
【0067】
さらに、2次元画像センサ12の主点と、第2画像座標系における変換位置Pcとを通る直線が算定された上で、当該平面と当該直線との交点が、当該変換位置Pcに対応する世界座標系における点位置Pwとして算定される(図3/STEP124)。
【0068】
第2画像座標系における変換位置Pc=(Xc, Yc)は関係式(10)(11)により表現される。
【0069】
Xc (1+κ1r22r4)=(sx/d’x)f(r11Xw+r12Xw+r13Xw+tx)/(r31Xw+r32Yw+r33Zw+tz)
(r=((Xc)2+(Yc)2)1/2) ..(10)
Yc(1+κ1r22r4)= (1/dy)f(r21Xw+r22Yw+r23Zw+ty)/(r31Xw+r32Yw+r33Zw+tz) ..(11)
【0070】
関係式(9)〜(11)から得られる関係式(12)にしたがって変換位置Pcに対応する世界座標系の座標値Pw=(Xw,Yw,Zw)が算定される。
【0071】
t(Xw,Yw,Zw)=B -1t(1,1,1), B≡(Bij),
B1j= {Xc (1+κ1r22r4)r3j-(sx/d’x)f×r1j}/{(sx/d’x)f×tx- Xc (1+κ1r22r4) ×tz },
B2j= {Yc (1+κ1r22r4)r3j-(1/dy)f×r2j}/{(1/dy)f×ty- Yc (1+κ1r22r4) ×tz },
B3j=uj ..(12)
【0072】
第2画像座標系における対象となる第2ピクセル位置P2(すべての第2ピクセル位置でなくてもよい。)について、前記のような2次元座標系における3つの変換位置の選択、世界座標系における平面の算定、2次元画像センサ12の主点と当該第2ピクセル位置とを通る直線の算定、および、当該平面と当該直線との交点の算定が完了したか否かが判定される(図3/STEP126)。
【0073】
当該判定結果が否定的である場合(図3/STEP126‥NO)、対象となる残りの第2ピクセル位置について2次元座標系における3つの変換位置の選択、世界座標系における平面の算定、2次元画像センサ12の主点と当該第2ピクセル位置とを通る直線の算定、および、当該平面と当該直線との交点の算定が繰り返される(図3/STEP120〜STEP124)。
【0074】
一方、対象となるすべての第2ピクセル位置に対して前記処理が実行されたと判定された場合(図3/STEP126‥YES)、3次元画像センサ11による3次元情報の取得(図3/STEP106参照)および2次元画像センサ12による物理情報の取得(図3/STEP108参照)ならびにこれらに続く処理の繰り返し要否が判定される(図3/STEP128)。なお、2次元画像に3次元情報を対応付ける必要がないと判定された場合(図3/STEP118‥NO)、当該繰り返し要否が判定される(図3/STEP128)。
【0075】
繰り返し処理が必要であると判定された場合(図3/STEP128‥NO)、3次元画像センサ11による3次元情報の取得および2次元画像センサ12による物理情報の取得ならびにこれらに続く処理が繰り返し実行される(図3/STEP106〜STEP126参照)。
【0076】
繰り返し処理が不要であると判定された場合(図3/STEP128‥YES)、前記一連の画像処理が終了する。
【0077】
これにより、世界座標系における物体の位置、姿勢および形状ならびに世界座標系における各点における色、すなわち、ロボットRによる物体の把持動作に必要な当該物体に関する情報が取得される。必要に応じてこれらの形状等に基づくデータベース検索またはパターンマッチング等により得られる物体の種類、質量中心など物体の付加的情報が取得されてもよい。
【0078】
前記機能を発揮する本発明の環境認識システムによれば、ロボットRの周辺に存在する物体に関する情報、すなわち、世界座標系における当該物体の位置、姿勢および形状ならびに世界座標系における各点の色を高精度で認識することができる。そして、ロボットRは、腕部B2、ハンドHおよび指機構F1〜F5のそれぞれを動かして物体を把持する等、被写体となった物体を対象として作業を確実に実行することができる。なお、ロボットRは、必要に応じて、作業に先立って脚部B4等を動かして基体B0の位置(基体B0の質量中心位置)および姿勢(世界座標系の各軸に対する基体座標系の各軸の角度)を調節してもよい。
【0079】
また、3次元画像センサ11および2次元画像センサ12のそれぞれの撮像範囲の重なり部分を大きくするために光軸を近づけることが好ましいことから、両センサ11および12を相互に近くに配置してシステムのコンパクト化が図られる。システムのコンパクト化が図られることから、ロボットR全体としてのコンパクト化またはスペースの有効利用が可能となる。
【0080】
なお、3次元情報を取得するための3次元画像センサ11としては、TOF3次元画像センサのほか、スキャン型TOF3次元画像センサおよびステレオカメラのうち一部または全部が採用されてもよい。物理情報を取得するための2次元画像センサ12としては、被写体の色情報を取得するための可視光カラーカメラのほか、被写体の濃淡情報を取得するための可視光モノクロカメラ、被写体の暗視情報を取得するための近赤外カメラ、被写体の温度情報を取得するための遠赤外カメラ、ミリ波源情報を取得するためのミリ波カメラ、および、面の法線方向の情報を取得するための偏光カメラのうち一部または全部が採用されてもよい。
【0081】
これらの3次元画像センサ11および2次元画像センサ12の組み合わせはさまざまに変更されうる。たとえば、環境認識システムの構成要素として、(1)一の3次元画像センサ11および一の2次元画像センサ12の組み合わせのほか、(2)一の3次元画像センサ11および複数の同種または異種の2次元画像センサ12、(3)複数の同種または異種の3次元画像センサ11および一の2次元画像センサ12の組み合わせ、または、(4)複数の同種または異種の3次元画像センサ11および複数の同種または異種の2次元画像センサ12の組み合わせが採用されてもよい。
【0082】
本発明の他の実施形態として、2つの3次元画像センサ11(TOF3次元画像センサ)と、2つの異種の2次元画像センサ12(可視光カラーカメラおよび遠赤外カメラ)が環境認識システムに採用されている場合の画像処理の手順について説明する。
【0083】
まず、2つの3次元画像センサ11のそれぞれのカメラパラメータおよびひずみパラメータがメモリから読み取られる(図6/STEP202)。
【0084】
2つの2次元画像センサ12のそれぞれのカメラパラメータおよびひずみパラメータがメモリから読み取られる(図6/STEP204)。
【0085】
2つの3次元画像センサ11のそれぞれによりロボットRの周辺の様子が撮像されることにより、被写体の3次元情報が取得される(図6/STEP206)。
【0086】
2次元画像センサ12としてのカラーカメラおよび遠赤外カメラのそれぞれによりロボットRの周辺が撮像されることにより、被写体の物理情報として色情報および温度情報が取得される(図6/STEP208,STEP210)。
【0087】
続いて、第1の3次元画像センサ11のカメラパラメータおよびひずみパラメータを用いて、当該第1の3次元画像センサ11の第1画像座標系(2次元座標系)における第1ピクセル位置が世界座標系(3次元座標系)における点に座標変換される(図6/STEP212)。
【0088】
さらに、世界座標系における当該点Pw1=(xw1, yw1, zw1)に対応する、カラーカメラの第2画像座標系における変換位置Pc11が算定される(図6/STEP214)。
【0089】
また、最近傍点補間法等にしたがって当該変換位置Pc11における色情報(R,G,B)が算定され、第1の3次元画像センサ11の第1画像座標系において当該変換位置Pc11に対応する第1ピクセル位置P111の3次元情報に、この色情報(R,G,B)が対応付けられる(図6/STEP216(図4参照))。
【0090】
さらに、世界座標系における当該点Pw1に対応する、遠赤外カメラの第2画像座標系における変換位置Pc12が算定される(図6/STEP218)。
【0091】
また、最近傍点補間法等にしたがって当該変換位置Pc12における温度情報Temp(または温度に応じた輝度情報Lum)が算定され、第1の3次元画像センサ11の第1画像座標系において当該変換位置Pc12に対応する第1ピクセル位置P112の3次元情報に、この温度情報Tempが対応付けられる(図6/STEP220(図4参照))。
【0092】
第1の3次元画像センサの第1画像座標系における対象となる第1ピクセル位置(すべての第1ピクセル位置でなくてもよい。)について、前記のような世界座標系への座標変換、第2画像座標系において対応する変換位置の決定、最近傍点補間法等による物理情報(色情報および温度情報)の算定、ならびに、3次元情報に対する物理情報の対応付けが完了したか否かが判定される(図6/STEP222)。
【0093】
当該判定結果が否定的である場合(図6/STEP222‥NO)、対象となる残りの第1ピクセル位置について世界座標系への座標変換、第2画像座標系において対応する変換位置の決定、最近傍点補間法等による物理情報(色情報および温度情報)の算定、ならびに、3次元情報に対する物理情報の対応付けが繰り返される(図6/STEP212〜STEP220)。
【0094】
一方、第1の3次元画像センサ11の第1画像座標系における対象となるすべての第1ピクセル位置に対して前記処理が実行されたと判定された場合(図6/STEP222‥YES)、第2の3次元画像センサ11のカメラパラメータおよびひずみパラメータを用いて、第2の3次元画像センサ11の第1画像座標系(2次元座標系)の第1ピクセル位置が世界座標系(3次元座標系)の点に座標変換される(図6/STEP224)。
【0095】
さらに、世界座標系における当該点Pw2=(xw2 ,yw2, zw2)に対応する、カラーカメラの第2画像座標系における変換位置Pc21が算定される(図6/STEP226)。
【0096】
また、最近傍点補間法等にしたがって当該変換位置Pc21における色情報(R,G,B)が算定され、第2の3次元画像センサ11の第1画像座標系において当該変換位置Pc21に対応する第1ピクセル位置P121の3次元情報に、この色情報(R,G,B)が対応付けられる(図6/STEP228(図4参照))。
【0097】
さらに、世界座標系における当該点Pw2に対応する、遠赤外カメラの第2画像座標系における変換位置Pc22が算定される(図6/STEP230)。
【0098】
また、最近傍点補間法等にしたがって当該変換位置Pc22における温度情報Temp(または温度に応じた輝度情報Lum)が算定され、第2の3次元画像センサ11の第1画像座標系において当該変換位置Pc22に対応する第1ピクセル位置P122の3次元情報に、この温度情報Tempが対応付けられる(図6/STEP232(図4参照))。
【0099】
第2の3次元画像センサの第1画像座標系における対象となる第1ピクセル位置(すべての第1ピクセル位置でなくてもよい。)について、前記のような世界座標系への座標変換、第2画像座標系において対応する変換位置の決定、最近傍点補間法等による物理情報(色情報および温度情報)の算定、ならびに、3次元情報に対する物理情報の対応付けが完了したか否かが判定される(図6/STEP234)。
【0100】
当該判定結果が否定的である場合(図6/STEP234‥NO)、対象となる残りの第1ピクセル位置について世界座標系への座標変換、第2画像座標系において対応する変換位置の算定、最近傍点補間法等による物理情報(色情報および温度情報)の算定、ならびに、3次元情報に対する物理情報の対応付けが繰り返される(図6/STEP224〜STEP232)。
【0101】
一方、第2の3次元画像センサ11の第1画像座標系における対象となるすべての第1ピクセル位置に対して前記処理が実行されたと判定された場合(図6/STEP234‥YES)、2次元画像に3次元情報を対応付けることの要否が判定される(図7/STEP236)。
【0102】
当該判定結果が肯定的である場合(図7/STEP236‥YES)、カラーカメラの第2画像座標系における第2ピクセル位置P21を囲む最も近い3つの変換位置のそれぞれに対応する世界座標系の点位置がメモリから読み出され(図7/STEP240)、世界座標系において当該3つの点を通る平面が算定される(図7/STEP242(図5、関係式(9)参照))。
【0103】
さらに、カラーカメラの主点と、カラーカメラの第2画像座標系における第2ピクセル位置P21とを通る直線が算定された上で、当該平面と当該直線との交点が、当該変換位置Pcに対応する世界座標系における点位置Pwとして算定される(図7/STEP244(図5、関係式(12)参照)。
【0104】
カラーカメラの第2画像座標系における対象となる第2ピクセル位置(すべての第2ピクセル位置でなくてもよい。)について、前記のような2次元座標系における3つの変換位置の選択、世界座標系における平面の算定、カラーカメラの主点と当該第2ピクセル位置とを通る直線の算定、および、当該平面と当該直線との交点の算定が完了したか否かが判定される(図7/STEP246)。
【0105】
当該判定結果が否定的である場合(図3/STEP246‥NO)、カラーカメラの第2画像座標系における対象となる残りの第2ピクセル位置について2次元座標系における3つの変換位置の選択、世界座標系における平面の算定、カラーカメラの主点と当該第2ピクセル位置とを通る直線の算定、および、当該平面と当該直線との交点の算定が繰り返される(図7/STEP240〜STEP244)。
【0106】
一方、カラーカメラの第2画像座標系における対象となるすべての第2ピクセル位置に対して前記処理が実行されたと判定された場合(図7/STEP246‥YES)、遠赤外カメラの第2画像座標系における対象となる第2ピクセル位置P22を囲む最も近い変換位置のそれぞれに対応する世界座標系の点位置がメモリから読み出され(図7/STEP248)、世界座標系において当該3つの点を通る平面が算定される(図7/STEP250(図5、関係式(9)参照))。
【0107】
さらに、遠赤外カメラの主点と、遠赤外カメラの第2画像座標系における第2ピクセル位置P22とを通る直線が算定された上で、当該平面と当該直線との交点が、当該変換位置Pcに対応する世界座標系における点位置Pwとして算定される(図7/STEP252(図5、関係式(12)参照)。
【0108】
遠赤外カメラの第2画像座標系における対象となる第2ピクセル位置(すべての第2ピクセル位置でなくてもよい。)について、前記のような2次元座標系における3つの変換位置の選択、世界座標系における平面の算定、遠赤外カメラの主点と当該第2ピクセル位置とを通る直線の算定、および、当該平面と当該直線との交点の算定が完了したか否かが判定される(図7/STEP254)。
【0109】
当該判定結果が否定的である場合(図3/STEP254‥NO)、2次元座標系における3つの変換位置の選択、世界座標系における平面の算定、遠赤外カメラの主点と当該第2ピクセル位置とを通る直線の算定、および、当該平面と当該直線との交点の算定が繰り返される(図7/STEP248〜STEP252)。
【0110】
一方、遠赤外カメラの第2画像座標系における対象となるすべての第2ピクセル位置に対して前記処理が実行されたと判定された場合(図7/STEP254‥YES)、2つの3次元画像センサ11のそれぞれによる3次元情報の取得(図6/STEP206参照)および2つの2次元画像センサのそれぞれによる物理情報の取得(図6/STEP208,STEP210参照)ならびにこれらに続く処理の繰り返し要否が判定される(図7/STEP256)。なお、2次元画像に3次元情報を対応付ける必要がないと判定された場合(図7/STEP236‥NO)、当該繰り返し要否が判定される(図7/STEP256)。
【0111】
繰り返し処理が必要であると判定された場合(図7/STEP256‥NO)、2つの3次元画像センサ11のそれぞれによる3次元情報の取得および2つの2次元画像センサのそれぞれによる物理情報の取得ならびにこれらに続く処理が繰り返し実行される(図6/STEP206〜STEP234、図7/STEP236〜ZTEP254参照)。
【0112】
繰り返し処理が不要であると判定された場合(図7/STEP256‥YES)、前記一連の画像処理が終了する。
【0113】
これにより、物体の把持動作に必要な当該物体に関する情報、すなわち、世界座標系における物体の位置、姿勢および形状、ならびに、世界座標系における当該物体の各点の物理情報(色および温度)が取得される。
【0114】
なお、カメラパラメータを取得するため、次に説明するような手法でキャリブレーションが実行されてもよい。
【0115】
すなわち、まず、3次元画像センサ11によりロボットRの周辺にあるキャリブレーションボード(キャリブレーション用物体)を撮像することにより、輝度情報および距離情報を有する画素により構成されている3次元画像を取得する。
【0116】
また、2次元画像センサ12により3次元画像センサ11に撮像範囲と重なる範囲においてキャリブレーションボードを撮像することにより、色情報を有する画素により構成されている2次元画像を取得する。
【0117】
さらに、キャリブレーションが実行されることによりカメラパラメータが決定される。キャリブレーション方法としては公知の手法が採用される(R.Y.Tsai: “An Efficient and accurate calibration technique for 3D machine vision” (CVPR, pp.364-374 (1986))およびR.Y.Tsai: “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses” (J-RA, vol.3, pp.323-344 (1987))参照)。
【0118】
この際、図8に示されているように黒色および白色の正方形が前後左右に交互に配置されているチェックまたは市松模様のパターンを有するキャリブレーションボードが用いられる。ボードの中心近くにある白色の正方形の隅角部分に三角形状のマークが付されている。一方のカメラで撮像されたボードの複数の正方形のそれぞれの頂点が、他方のカメラで撮像されたボードの複数の正方形の頂点のうちいずれに相当するかがこのマークを用いて確認されうる。
【0119】
なお、このパターンの形成方法は、キャリブレーションの対象となる画像センサの種類に応じて変更されてもよい。たとえば、2次元画像センサ12がアクティブ型の近赤外カメラである場合、近赤外を反射する塗料の有無によって前期のようなパターンが形成されてもよい。
【0120】
赤外光を反射する塗料またはシールがボードに付されることによりマークが構成されている。これにより、3次元画像センサによるマークの認識精度の向上が図られている。ボードの表面は白色の正方形において乱反射が起こりにくいように仕上げ加工されている一方、黒色の正方形において乱反射が起こりやすいように仕上げ加工されている。これにより、3次元画像センサによる白黒パターンの認識精度の向上が図られている。
【0121】
キャリブレーションにより、世界座標値およびこれに対応するカメラの画像座標値に基づき、カメラの外部パラメータおよび内部パラメータが関係式(3)(5)および(6)にしたがって算定される。「外部パラメータ」として回転行列R(未知数は3つの3次正方行列)および並進ベクトルT(未知数3つ)が算定される。「内部パラメータ」として焦点距離f、レンズひすみパラメータκ1およびκ2、スケール係数sx(通常は「1」に設定される。)ならびに画像原点(Cx, Cy)が算定される。キャリブレーションにより得られたカメラパラメータはメモリに保存される。
【符号の説明】
【0122】
2‥制御装置、11‥3次元画像センサ、12‥2次元画像センサ、20‥画像処理要素、R‥ロボット(装置)。

【特許請求の範囲】
【請求項1】
装置の環境を認識するシステムであって、
前記装置の周辺の様子を撮像することにより、被写体の3次元情報を取得する3次元画像センサと、
前記3次元画像センサに撮像範囲と重なる範囲を撮像することにより、前記被写体の物理情報を取得する2次元画像センサと、
前記3次元画像センサにより取得された前記被写体の3次元情報および前記2次元画像センサにより取得された前記被写体の物理情報を対応付けることにより、前記被写体の位置、姿勢および形状、ならびに、物理情報を取得するように構成されている画像処理要素とを備えていることを特徴とする環境認識システム。
【請求項2】
請求項1記載の環境認識システムにおいて、
前記画像処理要素が、前記3次元画像センサの撮像面により定義される第1画像座標系における複数の第1ピクセルのそれぞれの位置が、前記2次元画像センサの撮像面により定義される第2画像座標系に座標変換された結果としての複数の変換位置のそれぞれを算定し、
前記第2画像座標系における少なくとも3つの変換位置のそれぞれに対応する、前記第1ピクセルが有する前記被写体の3次元情報に基づき、前記第2画像座標系において前記少なくとも3つの変換位置の近傍にある第2ピクセルが有する前記被写体の物理情報に対応付けられる前記被写体の3次元情報を算定するように構成されていることを特徴とする環境認識システム。
【請求項3】
請求項2記載の環境認識システムにおいて、
前記画像処理要素が、前記第2画像座標系における3つの変換位置のそれぞれに対応する、前記第1ピクセルが有する前記被写体の3次元情報としての世界座標系における3つの位置を通る平面を算定し、前記2次元画像センサの主点と、前記第2画像座標系において前記3つの変換位置の近傍にある前記第2ピクセルとを通る直線を算定し、前記世界座標系における前記平面と前記直線との交点位置を、前記第2ピクセルが有する前記被写体の物理情報に対応付けられる前記被写体の3次元情報として算定するように構成されていることを特徴とする環境認識システム。
【請求項4】
請求項2または3記載の環境認識システムにおいて、
前記画像処理要素が、前記第2画像座標系における変換位置の周辺に存在する一または複数の前記第2ピクセルが有する前記被写体の物理情報に基づき、前記変換位置に対応する、前記第1ピクセルが有する前記被写体の3次元情報に対応付けられる前記被写体の物理情報を算定するように構成されていることを特徴とする環境認識システム。
【請求項5】
請求項1記載の環境認識システムにおいて、
前記画像処理要素が、前記3次元画像センサの撮像面により定義される第1画像座標系における複数の第1ピクセルのそれぞれの位置が、前記2次元画像センサの撮像面により定義される第2画像座標系に座標変換された結果としての複数の変換位置のそれぞれを算定し、かつ、
前記第2画像座標系における変換位置の周辺に存在する一または複数の前記第2ピクセルが有する前記被写体の物理情報に基づき、前記変換位置に対応する、前記第1ピクセルが有する前記被写体の3次元情報に対応付けられる前記被写体の物理情報を算定するように構成されていることを特徴とする環境認識システム。
【請求項6】
請求項1〜5のうちいずれか1つに記載の環境認識システムにおいて、
前記2次元画像センサが、前記被写体の物理情報として色情報または温度情報を取得するように構成され、
前記画像処理要素が、前記3次元画像センサにより取得された前記被写体の3次元情報および前記2次元画像センサにより取得された前記被写体の色情報および温度情報のうち一方または両方を対応付けることにより、前記装被写体の位置、姿勢および形状、ならびに、色情報および温度情報のうち一方または両方を取得するように構成されていることを特徴とする環境認識システム。
【請求項7】
請求項1〜6のうちいずれか1つに記載の環境認識システムにおいて、
前記3次元画像センサが前記被写体の3次元情報に加えて前記被写体の輝度情報を取得するように構成され、
前記画像処理要素が、前記3次元画像センサにより取得されたキャリブレーション用物体の輝度情報および距離情報、ならびに、前記2次元画像センサにより取得された前記キャリブレーション用物体の物理情報を用いて、前記3次元画像の座標系、前記2次元画像の座標系および世界座標系の関係を表わすパラメータを求めるキャリブレーションを実行した上で、前記パラメータを用いて前記3次元画像センサにより取得された前記被写体の3次元情報および前記2次元画像センサにより取得された前記被写体の物理情報を対応付けるように構成されていることを特徴とする環境認識システム。
【請求項8】
装置の環境を認識する方法であって、
3次元画像センサにより前記装置の周辺の様子を撮像することにより、被写体の3次元情報を取得し、
前記3次元画像センサに撮像範囲と重なる範囲を2次元画像センサにより撮像することにより、前記被写体の物理情報を取得し、
前記被写体の3次元情報および前記被写体の物理情報を対応付けることにより、前記被写体の位置、姿勢および形状、ならびに、物理情報を取得することを特徴とする環境認識方法。
【請求項9】
請求項1〜7のうちいずれか1つに記載の環境認識システムを備え、
前記環境システムにより認識された被写体の位置、姿勢および形状ならびに物理情報を用いて、前記被写体を対象として動作することを特徴とする前記装置としてのロボット。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2011−33497(P2011−33497A)
【公開日】平成23年2月17日(2011.2.17)
【国際特許分類】
【出願番号】特願2009−180559(P2009−180559)
【出願日】平成21年8月3日(2009.8.3)
【出願人】(000005326)本田技研工業株式会社 (23,863)
【Fターム(参考)】