説明

3次元モデルを用いた自己位置認識手法及び自己位置認識システム

【課題】移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さく、さらに、高速且つ正確に自己位置認識する。
【解決手段】移動空間の3次元モデルを作成する手段21と、所定時間における移動体の位置及び方向からカメラ画像を取得する手段10と、所定時間における目標軌道上の目標位置及び方向を算出する手段17と、3次元モデルから目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成する手段15と、この複数のモデル画像とカメラ画像との色情報の一致度を算出する手段16と、この各一致度に基づいて、移動体の位置及び方向を認識する手段18とを備えた。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、通路を形成する対象物体が設置された移動空間を移動する移動体の自己位置認識手法及びシステムに関する。
【背景技術】
【0002】
物流倉庫等では、効率化及び省力化を向上するために、無人搬送車が荷物を運搬する。一般に、無人搬送車の自動走行として、電磁や磁気を検知して走行する方式(電磁誘導式・磁気誘導式)がある。この方式では、誘導手段となる磁気テープを床面に敷設したり(特許文献1等参照)、磁性体を床面に埋設する(特許文献2等参照)。そして、無人搬送車は、この誘導手段からの電磁や磁気等を検知して自動走行する。従って、磁性体等の誘導手段の位置変更に多大な手間や費用を要するから、倉庫内のレイアウト変更が非常に困難となる。また、この方式では磁性体を埋設等するので、導入コストが大きい。
【特許文献1】特開2002−278622号公報
【特許文献2】特開2005−122568号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
そこで、本発明が解決しようとする課題は、移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さく、さらに、高速且つ正確に自己位置認識できる移動体の自己位置認識手法及びシステムを提供することである。
【課題を解決するための手段】
【0004】
上記の課題を解決するために、本発明に係る自己位置認識手法は、
予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識手法であって、移動空間の3次元モデルを作成するステップと、所定時間における移動体の位置及び方向からカメラ画像を取得するステップと、所定時間における目標軌道上の目標位置及び方向を算出するステップと、3次元モデルから目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成するステップと、この複数のモデル画像とカメラ画像との色情報の一致度を算出するステップと、この各一致度に基づいて、移動体の位置及び方向を認識するステップとを含む。
【0005】
好ましくは、移動空間に対象物体を設置するステップと、カメラ画像における対象物体の境界垂直線を基準線に規定するステップと、カメラ画像における基準線の位置を特定するステップと、3次元モデルにおける基準線の位置を特定するステップと、この特定した各基準線の位置に基づいて、3次元モデルから任意の位置及び方向における複数のモデル画像を形成するステップとを含む。
【0006】
好ましくは、対象物体が通路を形成する通路形成体である。
【0007】
好ましくは、カメラ画像及びモデル画像を二値化処理するステップを含む。
【0008】
好ましくは、各一致度から2次又は3次曲線に近似して、曲線の極大値に基づいて移動体の位置及び方向の双方又は一方を認識するステップを含む。
【0009】
好ましくは、移動空間の入出庫管理システムからの情報に基づいて、3次元モデルにおける対象物体の形状を変更するステップを含む。
【0010】
好ましくは、カメラ画像及びモデル画像における対象物体以外からなる検出領域を抽出するステップと、この各検出領域を比較するステップと、この比較値と所定の閾値とに基づいて移動体の方向における障害物を認識するステップとを含む。
【0011】
また、本発明に係る自己位置認識システムは、
予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識システムであって、移動空間の3次元モデルを作成する手段と、所定時間における移動体の位置及び方向からカメラ画像を取得する手段と、所定時間における目標軌道上の目標位置及び方向を算出する手段と、3次元モデルから目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成する手段と、この複数のモデル画像とカメラ画像との色情報の一致度を算出する手段と、この各一致度に基づいて、移動体の位置及び方向を認識する手段とを備えた。
【0012】
好ましくは、移動空間に対象物体を設置する手段と、カメラ画像における対象物体の境界垂直線を基準線に規定する手段と、カメラ画像における基準線の位置を特定する手段と、3次元モデルにおける基準線の位置を特定する手段と、この特定した各基準線の位置に基づいて、3次元モデルから任意の位置及び方向における複数のモデル画像を形成する手段とを備えた。
【0013】
好ましくは、対象物体が通路を形成する通路形成体である。
【0014】
好ましくは、カメラ画像及びモデル画像を二値化処理する手段を備えた。
【0015】
好ましくは、各一致度から2次又は3次曲線に近似して、曲線の極大値に基づいて移動体の位置及び方向の双方又は一方を認識する手段を備えた。
【0016】
好ましくは、移動空間の入出庫管理システムからの情報に基づいて、3次元モデルにおける対象物体の形状を変更する手段を備えた。
【0017】
好ましくは、カメラ画像及びモデル画像における対象物体以外からなる検出領域を抽出する手段と、この各検出領域を比較する手段と、この比較値と所定の閾値とに基づいて移動体の方向における障害物を認識する手段とを備えた。
【発明の効果】
【0018】
本発明に係る3次元モデルを用いた自己位置認識手法及びシステムは、移動体のカメラで取得したカメラ画像と予め作成した移動空間の3次元モデルとに基づいて、移動体の自己位置及び方向の認識を可能とする。そのため、移動空間を変更しても、3次元モデルを移動空間に合わせて変更するだけで対応可能なので、移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さい。さらに、所定時間における目標軌道上の目標位置及び方向を算出して、3次元モデルから目標位置及び方向の所定範囲内におけるモデル画像を形成してカメラ画像との比較を行うので、比較対象とするモデル画像の枚数を限定でき、高速に処理できる。また、モデル画像とカメラ画像とを、輪郭形状に基づく画素位置情報でなく色情報の一致度に基づいて識別するので、推定される位置及び方向の信頼性が非常に高い。
【0019】
また、本発明では、カメラ画像における対象物体の境界垂直線を基準線に規定することができる。そして、カメラ画像及び3次元モデルにおける基準線の位置に基づいて、移動体の自己位置を認識する。従って、自己位置を認識するための特徴量が境界垂直線である基準線の位置となり、位置認識のための基準線が少なくて明確なので、高速且つ正確に自己位置を認識できる。
【発明を実施するための最良の形態】
【0020】
以下、添付図面に基づいて、本発明に係る3次元モデルを用いた自己位置認識手法及びシステムについて説明する。
【0021】
[全体構成]
図1は、自己位置認識システムを搭載した移動体を示す図である。本実施形態では、移動体1は無人搬送車からなる。図1の通り、移動体1は、前方に向けてカメラ2を備える。カメラ2は、床面Fから一定のカメラ高さHに設置される。移動体1は、コントローラ3を備える。
【0022】
移動体1は、操舵輪4及び走行輪5を備える。操舵輪4は、操舵モータ40の駆動に基づいて操舵角を変更する。走行輪5は、走行モータ50の駆動に基づいて前後進及び停止する。コントローラ3は、後で詳説するように、カメラ2からの画像に基づいて自己位置及び方向を認識し、予め記憶された目標軌道ST(走行路)に沿って移動体1が走行するように、操舵モータ40及び走行モータ50の駆動を制御する。
【0023】
[目標軌道]
図2は、目標軌道を説明するための図である。図2の通り、移動体1は、コントローラ3が操舵モータ40及び走行モータ50の駆動を制御して、予め記憶された2次元座標(XY座標)及び方向からなる目標軌道ST(図2の二点鎖線)に沿って操舵、減速、加速、停止及び進行等する。従って、コントローラ3は、所定時間間隔Δtごとの所定時間・・・t−1、t、t+1・・・において、移動体1が目標軌道STに沿って移動するための目標軌道上の目標位置(X,Y)及び方向θを算出可能とする。なお、本実施形態では、所定時間間隔Δtは、例えば約0.3秒である。
【0024】
[第1実施形態]
第1実施形態について説明する。
図3は、第1実施形態の自己位置認識システムを示すブロック図である。図4は、第1実施形態の自己位置認識手法を説明するフローチャート図である。図5は、第1実施形態の比較するモデル画像を説明するための図である。図6は、移動空間内の3次元モデルを示す概念図である。
【0025】
自己位置認識システムは、カメラ2及びコントローラ3等からなる(図3)。コントローラ3は、CPU等を搭載したコンピュータからなっており、カメラ2から取得したカメラ画像等を処理して、移動体1の位置及び方向を認識する。
【0026】
本実施形態では、移動体1は、物流倉庫を移動空間6として移動する(図6)。この移動空間6では、荷物等を配列するための複数のラック(棚)60が配置されている。移動体1は、それぞれのラック60の間を通路61として目標軌道STに沿って走行する。
【0027】
先ず、移動体1が実際に走行する移動空間6(実空間)と同一の3次元モデル(モデル空間)(図6)を3次元モデル作成手段21で作成する(図4のステップS01)。そして、3次元モデル記憶手段11が、この3次元モデルを記憶する。なお、3次元モデルは、実空間と略同一色で作成される。3次元モデル作成手段21は、例えばCADシステムからなる。
【0028】
3次元モデル作成手段21は、対象物体(ラック)60に配列される荷物を管理する入出庫・在庫管理システム(WMS)22に基づいて、3次元モデルにおける対象物体60に荷物を配置した形状に随時変更する。これにより、常に、実際(実空間)と3次元モデル(モデル空間)との移動空間6における形状や色情報が一致する。色情報は、色相(色度)H、彩度S、明度(輝度)Vからなる。
【0029】
そして、移動体1が走行する目標軌道STを作成して、目標軌道記憶手段17に目標軌道STを記憶する(図4のステップS02)。
【0030】
図7は、カメラ画像を示す図である。そして、カメラ画像取得手段10は、所定時間tにおいて、カメラ2でカメラ画像Riを取得する(図4のステップS11)。カメラ画像Riは、所定時間tにおける、移動体1の位置(X,Y)及び方向θに対する画像である。
【0031】
図8は、二値化したカメラ画像を示す図である。カメラ画像Riの全画素(全ピクセル)をHSV変換して、床面及び壁面の色相Hからなる画素の輝度値Vを「0」に、それ以外の画素の輝度値Vを「1」に変換して二値化処理し、対象物体60を抽出したカメラ画像Riを作成する(図3のステップS3)。なお、床面及び壁面の色相Hが予め設定されているので、対象物体60を抽出した二値化が可能である。
【0032】
そして、所定時間tにおいて、移動体1が目標軌道STに沿って移動するための目標軌道上の目標位置(X,Y)及び方向θを算出する(図4のステップS12)。
【0033】
そして、所定時間tの目標位置(X,Y)及び方向θの所定範囲内における複数の位置(Xtn,Ytn)及び方向θtnのモデル画像Viを作成する(図4のステップS13)。図5の通り、本実施形態では、所定範囲(W1−W2)は、目標位置(X,Y)を中心とする矩形範囲(円範囲等でもよい)であって、所定間隔Δwごとに、複数の位置(Xtn,Ytn)が設定される(図5の△印)。さらに、それぞれの位置(Xtn,Ytn)ごとに、目標方向θの左右所定角度範囲θwに所定角度間隔Δθごとに、複数のθtnが設定される(図5の×印)。なお、本実施形態では、例えば、W1=W2=200〜600mm、Δw=10〜50mm、θw=1〜10°、Δθ=0.1〜1.0°である。
【0034】
図9は、モデル画像を示す図である。モデル画像作成手段15は、予め記憶した3次元モデルに基づいて、移動体1の任意の位置及び方向におけるカメラ高さHから見た2次元のモデル画像を作成する。従って、モデル画像作成手段15が、上記の複数の位置(Xtn,Ytn)及び方向θtnのモデル画像Viを作成する。
【0035】
モデル画像Viにおいても、カメラ画像Riと同様に、全画素(全ピクセル)をHSV変換して、床面及び壁面の色相Hからなる画素の輝度値Vを「0」に、それ以外の画素の輝度値Vを「1」に変換して二値化処理し、対象物体60を抽出したモデル画像Viθiを作成する(図10)。図10は、二値化したモデル画像を示す図である。
【0036】
そして、一致度算出手段16が、カメラ画像Riと各モデル画像Viとの比較を行う(図4のステップS14)。図11は、カメラ画像とモデル画像とを比較する状態を示す図である。そして、カメラ画像Riと各モデル画像Viとの一致度CViを求める(図4のステップS15)。一致度CViは、カメラ画像Riと各モデル画像Viとにおける特徴量(輝度値V「0」)の画素に基づいて、全画素に対する一致する画素の割合を採用する。
【0037】
そして、最も一致度CViの高い一つのモデル画像Viを採用して、そのモデル画像Viにおける(Xtn,Ytn)及び方向θtnを、所定時間tにおける移動体1の自己位置(X,Y)及び方向θとして決定する(図4のステップS16)。この自己位置(X,Y)及び方向θに基づいて、予め記憶された目標軌道STに沿って移動体1が追従するように、操舵モータ40及び走行モータ50を制御する(図4のステップS17)。即ち、移動体1が、所定時間t+1における、目標軌道上の目標位置(Xt+1,Yt+1)及び方向θt+1に向かって走行するように制御する。
【0038】
なお、上記では、完全に一致する色相Hに基づいて識別したが、ある程度の幅をもった色相H±Δhに一致する画素を対象にして算出してもよい。また、上記では、カメラ画像Riとモデル画像Viとを色相Hに基づいて二値化処理して、一致度CViを算出したが、二値化処理せずに、それぞれの画素における色情報の一致度CViで算出してもよい。その場合、色相Hのみで識別するのではなく、例えば、グレー系に関しては明度(輝度)Vで識別する等、色の種類によって、色相H、彩度S、明度Vのいずれか又はそれらを組合わせて識別することもできる。
【0039】
[第2実施形態]
第2実施形態について説明する。なお、第1実施形態と同じ内容については、詳細な説明を省略する。
図12は、第2実施形態の自己位置認識システムを示すブロック図である。図13及び図14は、第2実施形態の自己位置認識手法を説明するフローチャート図である。
【0040】
先ず、移動体1が走行する移動空間6と同一の3次元モデル(図6)を3次元モデル作成手段21で作成する(図13のステップS01)。そして、移動体1が走行する目標軌道STを目標軌道記憶手段17に記憶する(図13のステップS02)。
【0041】
カメラ画像取得手段10は、所定時間tにおいて、カメラ2でカメラ画像Riを取得する(図13のステップS21)。カメラ画像Riは、所定時間tにおける、移動体1の位置(X,Y)及び方向θの画像である(図7)。
【0042】
[基準線rRL、lRLの位置]
図15は、基準線を規定したカメラ画像を示す図である。基準線規定手段12は、二値化したカメラ画像Ri(図8)における、対象物体(ラック)60と正面壁との境界によって形成される境界垂直線を基準線rRL、lRLと規定する(図13のステップS23)。本実施形態では、対象物体60は、垂直方向及び水平方向に延設する支柱等を組み立てて形成されるラック(棚)なので、境界垂直線が現れる。図15の通り、カメラ画像Ri内での座標系をIX−IY座標とし、基準線rRL、lRLの位置はIX軸方向の座標値とする。
【0043】
なお、境界垂直線は、移動体の位置等によっては1箇所しか現れない場合もある。また、境界垂直線は、対象物体60の形状によって設定が異なり、例えば、対象物体60と正面壁との境界が円弧の場合、その先端部分に接する垂直線としてもよい。
【0044】
カメラ画像Riにおいて、通路中心線Cptー1を設定する。通路中心線Cptー1は、所定時間t−1において決定した移動体1の位置(X,Y)及び方向θに基づいて、時間t−1における通路61の中心位置(IX軸方向における各基準線rRLt−1、lRLt−1の間の中央位置)を採用する。
【0045】
カメラ画像における基準線位置特定手段13は、次の手順により基準線rRL、lRLの位置を特定する。カメラ画像Riにおいて、通路中心線Cptー1の左右に対象物体60が存在する探索高さ範囲Raを設定する。探索高さ範囲Ra内において、カメラ画像Riにおける通路中心線Cptー1から、IY軸方向における所定画素間隔ごとに、IX軸方向に向けて探索を行い、対象物体60と識別される(輝度値V「1」と識別される)左右の位置を特定する。
【0046】
そして、左右それぞれに対して特定された各位置をソートし、信頼性の低い上位量1/4の位置と下位量1/4の位置とを除き、中位量1/2の位置について平均値を求め、その値を左右の基準線rRL、lRLの位置と特定する。
【0047】
上記した通路中心線Cptー1からの位置に基づいて、カメラ画像Riにおける画像中心垂直線から左右の基準線rRL、lRLの距離Wpa、Wpbを特定する(図13のステップS24)。
【0048】
そして、所定時間tにおいて、移動体1が目標軌道STに沿って移動するための目標軌道上の目標位置(X,Y)及び方向θを算出する(図13のステップS22)。
【0049】
図16は、基準線と移動体との位置関係を示す平面図である。3次元モデルにおける基準線位置特定手段14は、モデル空間内における基準線rRL、lRLの位置座標(Xq,Yq)、(Xp,Yp)を特定する(図13のステップS25)。この位置座標(Xq,Yq)、(Xp,Yp)は、所定時間tにおける目標位置(X,Y)及び方向θを算出することにより(図13のステップS22)、対象物体60の位置を推定して特定できる。
【0050】
モデル空間内における基準線rRL、lRLと移動体1との位置関係(図16)に基づいて、次の(1)式〜(3)式が導かれる。
【0051】

・・・(1)
【0052】

・・・(2)
【0053】

・・・(3)
【0054】
ここで、(X,Y)及びθはモデル空間内での移動体1の位置及び方向である。Fはカメラ2の焦点距離である。
【0055】
上記の通り、Wpa、Wpbは、カメラ画像Riに基づいて特定される(図13のステップS24)。また、Fはカメラ2のスペックで特定される。これらを(2)式及び(3)式に入力することによりα、βが特定される。
【0056】
さらに、上記の通り、(Xq,Yq)、(Xp,Yp)は、3次元モデルに基づいて特定される(図13のステップS25)。これらより、(1)式に基づいて、移動体1の方向θを任意に決めると、移動体1の位置(X,Y)が一義的に決定される。
【0057】
モデル画像作成手段15は、3次元モデルに基づいて、移動体1の任意の位置及び方向におけるカメラ高さHから見たモデル画像を作成する(図9)。
【0058】
[モデル空間における移動体1の方向θ
次に、基準線rRL、lRLの拘束を行って、移動体1の方向θを認識する手順について説明する。先ず、所定時間t−1において認識した移動体1の方向θを基準方向とする。基準方向θを中心とする任意の角度Ψを探索角度範囲とする。この探索角度範囲Ψを所定数(本例では7つ)に等分割し、φi(i=1,2,・・・,7)からなる集合Sφを決定する。Sφを(4)式に示す。
【0059】

・・・(4)
【0060】
このφiをモデル空間内での移動体1の方向として、(1)式からモデル空間内での移動体1の位置(Xφi,Yφi)を決定する。そして、この決定したモデル空間内での移動体1の位置(Xφi,Yφi)及び方向φiに基づいて、モデル画像作成手段15でモデル画像Viφiを作成する(図13のステップS26)。
【0061】
全画素(全ピクセル)をHSV変換して、床面及び壁面の色相Hからなる画素の輝度値Vを「0」に、それ以外の画素の輝度値Vを「1」に変換して二値化処理し、対象物体60のみを抽出した、特徴量のみのモデル画像Viφiを作成する(図10)。
【0062】
そして、一致度算出手段16が、カメラ画像Riとモデル画像Viθiとの比較を行って(図11)、一致度CViを求める(図13のステップS27)。なお、一致度CViは、カメラ画像Riとモデル画像Viφiとにおける特徴量(輝度値V「0」)の画素に基づいて、全画素に対する一致する画素の割合を採用する。
【0063】
これまでの手順(図13のステップS26及びS27)をそれぞれの方向φ〜φで繰り返し行い、これによって得られるカメラ画像Riとモデル画像Viφ1〜7と比較して、それぞれの一致度CV〜CVを求める。
【0064】
図17は、任意の方向と一致度との関係を示すグラフ図である。一致度算出手段16は、i=1〜7における方向φiの一致度CViに基づいて、最小二乗法によって3次元曲線f(φ)による近似を行う(図13のステップS28)。そして、3次元曲線f(φ)において極大となる方向φmを求める(図13のステップS29)。
【0065】
方向φmを新たな基準方向θとして、探索角度範囲をΨ/2として、これまでの手順(図13のステップS26〜S29)を行い、これをn回繰り返して、自己位置認識手段18で、モデル空間における移動体1の方向θを認識する(図13のステップS30)。
【0066】
上記より、基準線rRL、lRLの拘束によって移動体1の方向θを認識して、これを(1)式に入力して移動体1の位置(XθM,YθM)を求める。そして、移動体1の位置(X,Y)の認識精度を向上するために、次の手順によって、基準線rRL、lRLの拘束を行わずに、カメラ画像Riと各モデル画像Viθ1〜7とを比較する。
【0067】
[モデル空間における移動体1の位置(X,Y)]
次に、移動体1の位置(X,Y)を認識する手順について説明する。任意の変化量δとして、上記で求めた位置(XθM,YθM)を中心とする位置集合(Sx,Sy)を作成する。集合Sxを(5)式とし、集合Syを(6)式とする。従って、位置集合(Sx,Sy)は、集合Sxと集合Syとの全ての組合わせである9(=3×3)箇所の位置となり、位置(XθM,YθM)の周囲位置となる。なお、変化量δは、実空間における約5cmとする。
【0068】

・・・(5)
【0069】

・・・(6)
【0070】
9箇所の位置集合(Sx,Sy)のそれぞれについて、モデル画像作成手段15でモデル画像ViθMを作成する(図14のステップS31)。そして、それぞれの9つのモデル画像ViθM とカメラ画像Riとの比較を行い(図11)、一致度算出手段16で一致度CViを求める(図14のステップS32)。そして、最大値となる一致度CViを採用して、位置(XθM,YθM)を決定する(図14のステップS33)。
【0071】
さらに、位置(XθM,YθM)を中心とし、任意の変化量をδ/2として、これまでの手順(図14のステップS31〜S33)を行い、これをn回繰り返して、自己位置認識手段18が、モデル空間における移動体1の位置(X,Y)を認識する(図14のステップS34)。
【0072】
上記では、移動体1の方向θを決定する際に、一致度CViから3次曲線f(φ)による近似を行ったが、移動体1の位置(X,Y)を決定する際にも、一致度CViから3次曲線による近似を行うことができる。
【0073】
[実空間における移動体1の位置(X,Y)及び方向θ
上記より認識されたモデル空間内での移動体1の位置(X,Y)及び方向θから、実空間内での移動体1の位置(X,Y)及び方向θ をそれぞれ(7)式及び(8)式により決定する(図14のステップS35)。
【0074】

・・・(7)
【0075】

・・・(8)
【0076】
ここで、Kは実空間とモデル空間との縮尺、(X,Y)は実空間とモデル空間とのXY軸方向のオフセット量、λは実空間とモデル空間との回転角、を表す。
【0077】
[障害物認識]
障害物認識手段19は、自己位置(X,Y)及び方向θ を認識した後、カメラ画像Riとモデル画像Viに基づいて障害物認識を行う(図14のステップS36)。モデル画像Viは、移動体1の位置(X,Y)及び方向θに基づいて作成する。
【0078】
通路61と壁面からなる領域(対象物体60以外の領域)を、障害物を検出するための領域(検出領域)とする。モデル画像Viにおいて検出領域を抽出する。カメラ画像Riについても検出領域を抽出する。
【0079】
そして、カメラ画像Riとモデル画像Viとのそれぞれに対して検出領域内の画素をHSV変換し、それぞれの色相(H)、明度(V)、彩度(S)の差が閾値未満となる画素を除去して、カメラ画像Riの検出領域において、モデル画像Viと異なる色の画素のみを抽出した画像を作成する。そして、この画像において、一定値以上の面積を有する領域がある場合には、その領域を障害物として認識する。
【0080】
[目標軌道追従]
目標軌道追従手段20は、上記によって認定した移動体1の位置(X,Y)及び方向θに基づいて、予め記憶された目標軌道ST(走行路)に沿って移動体1が追従するように、操舵モータ40及び走行モータ50を制御する(図14のステップS37)。
【0081】
そして、所定時間間隔Δtごとに自己位置認識を行って、移動体1が目標軌道STを追従するように制御する。なお、上記手法において、所定時間t−1における種々の値を採用するステップがあるので、スタート時における値(初期値)は予め設定する。
【0082】
そして、上記の障害物認識手法によって障害物を認識した際には、移動体1が停止する等の所定の処置を取るように、目標軌道追従手段20が、操舵モータ40及び走行モータ50を制御する。
【0083】
[その他]
上記実施形態では、移動体1に前方に向けたカメラ2からのカメラ画像に基づいて自己位置を認識しているが、後方に向けたカメラ2からのカメラ画像を用いたり、前方からのカメラ画像と組合わせて認識してもよい。
【0084】
また、上記では、ラックが配置された物流倉庫内を移動する無人搬送車について説明したが、座席(対象物体60)が配置されたコンサート会場(移動空間6)内を走行又は歩行する警備ロボット(移動体1)等でも適用でき、本発明の趣旨を逸脱しない範囲内であれば様々な移動体及び移動空間等に採用できる。
【図面の簡単な説明】
【0085】
【図1】自己位置認識システムを搭載した移動体を示す図である。
【図2】目標軌道を説明するための図である。
【図3】第1実施形態の自己位置認識システムを示すブロック図である。
【図4】第1実施形態の自己位置認識手法を説明するフローチャート図である。
【図5】第1実施形態の比較するモデル画像を説明するための図である。
【図6】移動空間内の3次元モデルを示す概念図である。
【図7】カメラ画像を示す図である。
【図8】二値化したカメラ画像を示す図である。
【図9】モデル画像を示す図である。
【図10】二値化したモデル画像を示す図である。
【図11】カメラ画像とモデル画像とを比較する状態を示す図である。
【図12】第2実施形態の自己位置認識システムを示すブロック図である。
【図13】第2実施形態の自己位置認識手法を説明するフローチャート図である。
【図14】図13に続くフローチャート図である。
【図15】基準線を規定したカメラ画像を示す図である。
【図16】基準線と移動体との位置関係を示す平面図である。
【図17】任意の方向と一致度との関係を示すグラフ図である。
【符号の説明】
【0086】
1 移動体
2 カメラ
3 コントローラ
6 移動空間
60 対象物体
61 通路
Ri カメラ画像
Vi モデル画像
rRL、lRL 基準線
θ モデル空間における移動体の方向
,Y モデル空間における移動体の位置
θ 実空間における移動体の方向
,Y 実空間における移動体の位置

【特許請求の範囲】
【請求項1】
予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識手法であって、前記移動空間の3次元モデルを作成するステップと、所定時間における前記移動体の位置及び方向からカメラ画像を取得するステップと、前記所定時間における前記目標軌道上の目標位置及び方向を算出するステップと、前記3次元モデルから前記目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成するステップと、この複数のモデル画像と前記カメラ画像との色情報の一致度を算出するステップと、この各一致度に基づいて、前記移動体の位置及び方向を認識するステップとを含むことを特徴とする自己位置認識手法。
【請求項2】
前記移動空間に対象物体を設置するステップと、前記カメラ画像における前記対象物体の境界垂直線を基準線に規定するステップと、前記カメラ画像における前記基準線の位置を特定するステップと、前記3次元モデルにおける前記基準線の位置を特定するステップと、この特定した各基準線の位置に基づいて、前記3次元モデルから任意の位置及び方向における複数のモデル画像を形成するステップとを含むことを特徴とする請求項1に記載の自己位置認識手法。
【請求項3】
前記対象物体が通路を形成する通路形成体であることを特徴とする請求項1又は2に記載の自己位置認識手法。
【請求項4】
前記カメラ画像及び前記モデル画像を二値化処理するステップを含むことを特徴とする請求項1〜3のいずれかに記載の自己位置認識手法。
【請求項5】
前記各一致度から2次又は3次曲線に近似して、前記曲線の極大値に基づいて前記移動体の位置及び方向の双方又は一方を認識するステップを含むことを特徴とする請求項1〜4のいずれかに記載の自己位置認識手法。
【請求項6】
前記移動空間の入出庫管理システムからの情報に基づいて、前記3次元モデルにおける前記対象物体の形状を変更するステップを含むことを特徴とする請求項1〜5のいずれかに記載の自己位置認識手法。
【請求項7】
前記カメラ画像及び前記モデル画像における前記対象物体以外からなる検出領域を抽出するステップと、この各検出領域を比較するステップと、この比較値と所定の閾値とに基づいて前記移動体の方向における障害物を認識するステップとを含むことを特徴とする請求項1〜6のいずれかに記載の自己位置認識手法。
【請求項8】
予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識システムであって、前記移動空間の3次元モデルを作成する手段と、所定時間における前記移動体の位置及び方向からカメラ画像を取得する手段と、前記所定時間における前記目標軌道上の目標位置及び方向を算出する手段と、前記3次元モデルから前記目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成する手段と、この複数のモデル画像と前記カメラ画像との色情報の一致度を算出する手段と、この各一致度に基づいて、前記移動体の位置及び方向を認識する手段とを備えたことを特徴とする自己位置認識システム。
【請求項9】
前記移動空間に対象物体を設置する手段と、前記カメラ画像における前記対象物体の境界垂直線を基準線に規定する手段と、前記カメラ画像における前記基準線の位置を特定する手段と、前記3次元モデルにおける前記基準線の位置を特定する手段と、この特定した各基準線の位置に基づいて、前記3次元モデルから任意の位置及び方向における複数のモデル画像を形成する手段とを備えたことを特徴とする請求項8に記載の自己位置認識システム。
【請求項10】
前記対象物体が通路を形成する通路形成体であることを特徴とする請求項8又は9に記載の自己位置認識システム。
【請求項11】
前記カメラ画像及び前記モデル画像を二値化処理する手段を備えたことを特徴とする請求項8〜10のいずれかに記載の自己位置認識システム。
【請求項12】
前記各一致度から2次又は3次曲線に近似して、前記曲線の極大値に基づいて前記移動体の位置及び方向の双方又は一方を認識する手段を備えたことを特徴とする請求項8〜11のいずれかに記載の自己位置認識システム。
【請求項13】
前記移動空間の入出庫管理システムからの情報に基づいて、前記3次元モデルにおける前記対象物体の形状を変更する手段を備えたことを特徴とする請求項8〜12のいずれかに記載の自己位置認識システム。
【請求項14】
前記カメラ画像及び前記モデル画像における前記対象物体以外からなる検出領域を抽出する手段と、この各検出領域を比較する手段と、この比較値と所定の閾値とに基づいて前記移動体の方向における障害物を認識する手段とを備えたことを特徴とする請求項8〜13のいずれかに記載の自己位置認識システム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図16】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図15】
image rotate

【図17】
image rotate


【公開番号】特開2010−66934(P2010−66934A)
【公開日】平成22年3月25日(2010.3.25)
【国際特許分類】
【出願番号】特願2008−231599(P2008−231599)
【出願日】平成20年9月10日(2008.9.10)
【出願人】(000232807)日本輸送機株式会社 (320)
【出願人】(307020545)公立大学法人岡山県立大学 (8)
【Fターム(参考)】