説明

視覚認識処理用のモデルデータの登録方法および視覚センサ

【課題】個々の視覚センサの設置環境や計測条件に適合し、認識精度が確保されたモデルデータを容易に作成できるようにする。
【解決手段】ワークの視覚認識が可能な範囲を表す基本モデルを入力する一方で、実際の計測と同様の条件でワークを撮像して計測し、この計測により取得したワークの特徴データを基本モデルと照合する処理を、複数サイクル実行する。そして、基本モデルのうち、毎時の照合処理のいずれにおいてもワークの特徴データに対応づけられなかった情報、または対応づけられなかった回数または割合が所定の基準値を上回る情報、もしくは実行されたいずれかの照合処理で特徴データに対応づけることができなかった情報を、不要情報に設定する。そして、基本モデルから不要情報を削除し、削除毎の情報を登録対象のモデルデータとして特定し、メモリに登録する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、認識対象の物体をカメラにより撮像し、生成された画像を用いて2次元または3次元の計測処理を実行することにより取得した特徴データをあらかじめ登録したモデルデータと照合することによって、所定の認識処理を実行する視覚センサに関する。特に本発明は、上記の認識処理に用いるモデルデータを視覚センサに登録する処理に関する。
【背景技術】
【0002】
物体の外形の3次元情報のモデルデータを作成する方法として、たとえば特許文献1に開示されたものがある。
この特許文献1に記載の発明では、ステレオ計測により3次元情報を復元することを前提として、物体の実物モデルを、計測方向を毎回変更して複数回計測する。さらに、毎時の計測により復元された3次元情報を相互に照合して位置合わせを行い、位置合わせ後の情報を統合することによって、種々の方向からの計測に対応可能なモデルデータを作成する。
【0003】
また、特許文献1や下記の非特許文献1には、物体の輪郭線の3次元情報を復元する方法として、「セグメントベーストステレオ」という手法が開示されている。この方法は、ステレオ画像を構成する各画像に含まれるエッジを、連結点や分岐点を基準に直線や曲線のセグメントに分割し、セグメント単位でステレオ対応検索を行って、所定数の3次元座標を算出するものである。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第2961264号公報
【非特許文献】
【0005】
【非特許文献1】「セグメントベーストステレオにおける連結性に基づく対応評価」 情報処理学会論文誌 vol.40,No.8,3219−3229ページ,1999年8月発行
【発明の概要】
【発明が解決しようとする課題】
【0006】
視覚センサにモデルデータを登録する処理では、一般に、登録対象の視覚センサに良好な形状の認識対象物を供給して、実際に撮像や計測を実行し、計測により取得した特徴データをベースにしてモデルデータを作成する。また、認識精度を確保するために、作成されたモデルデータによる試験的な認識を行って、その認識結果に基づいてモデルデータを修正し、精度が極端に悪い場合には、必要に応じてモデルデータを作成し直すなど、登録対象のモデルデータを決定するまでにかなりの時間や労力を費やす。
【0007】
このように、視覚センサにモデルを登録する作業には大きな負荷がかかるため、同一の工程を実行する生産ラインを複数持つ現場からは、これらのラインの1つに配置された視覚センサに登録したモデルデータを、他のラインの視覚センサに移植したい、という要望があがっている。しかし、実際には、照明条件がラインによって異なったり、外光の影響を受けるラインがあったり、カメラの特性のばらつきによりコントラストが異なる画像が生成されるなどの原因により、各視覚センサが生成する画像の状態にばらつきが生じるため、各視覚センサに同一のモデルデータを登録するのは困難である。
【0008】
一方、視覚センサ毎にモデルデータを作成する場合には、モデルデータの作成に関わる作業者がセンサによって異なると、モデルデータに設定される内容に作業者によるばらつきが生じ、そのばらつきにより各ラインにおける処理の安定性にばらつきが生じるおそれがある。
【0009】
上記の点に関して、発明者らは、CADデータなどの設計データを計測に応じたデータ形式に変換することによって、センサの設置条件や計測条件の違いによる影響を受けないモデルデータを自動作成し、これを各視覚センサに導入することを検討した。しかし、設計データから導き出されたモデルデータには、視覚センサで計測できる範囲を超える情報が含まれるため、計測結果と照合すると、モデルデータ中に計測結果に対応づけされない情報が多数生じて、一致度がかえって低下することが判明した。
【0010】
本発明は上記の問題点に着目し、個々の視覚センサの設置環境や計測条件に適合し、認識精度が確保されたモデルデータを容易に作成できるようにすることを、課題とする。
【課題を解決するための手段】
【0011】
本発明によるモデルデータの登録方法は、認識対象の物体を少なくとも1台のカメラにより撮像し、生成された画像を用いた計測処理により物体の形状を表す特徴データを取得し、取得した特徴データを、あらかじめ登録したモデルデータと照合することにより物体に対する認識処理を実行する視覚センサにおいて実施されるもので、以下の第1〜第4のステップを実行することを特徴とする。
【0012】
第1ステップでは、認識対象の物体について、当該物体の視覚認識が可能な範囲の実寸大の形状を表す基本モデルデータを入力する。
「視覚認識が可能な範囲」とは、一般には、物体の表面の全範囲を意味するが、物体の表面であっても、計測時の物体の姿勢に制約があるなどの事情により、いずれの視覚センサのカメラでも観測できない部位がある場合には、その部位を「視覚認識が可能な範囲」から外して、基本モデルデータに含めないようにしてもかまわない。一方、本発明では、物体の内部構造などの視覚認識が不可能な部位の情報を含む基本モデルデータを入力することを、なんら排除するものではない。
【0013】
「実寸大の形状を表す3次元情報」は、輪郭形状を表す情報として構成される場合もあれば、物体の表面を表す座標の集合により構成される場合もある。また、文字どおり、実寸法を表すものに限らず、実寸法をあらかじめ定めた比率で縮小したサイズを表すものも含む。
【0014】
第2ステップでは、認識対象の物体の実物モデルを処理対象として、カメラによる撮像および計測処理、ならびに計測処理により取得した実物モデルの特徴データを、基本モデルデータまたは基本モデルデータを変換処理したデータ(以下、「変換モデルデータ」という。)と照合する処理を、所定サイクル実行する。第3ステップでは、第2ステップで実物モデルの特徴データと照合されたデータ(第2ステップの処理対象となった基本モデルデータまたは変換モデルデータを意味する。)から、実物モデルの特徴データに対応づけることができなかったデータを削除し、残されたデータを登録対象のモデルデータに設定する。
【0015】
上記の方法によれば、認識対象の物体について自装置が必要とする以上の情報を含む基本モデルデータを入力し、この基本モデルデータまたは当該基本モデルデータから生成した変換モデルデータを自装置で実物モデルに対して行った計測結果と照合する。そして、照合処理の対象とされた基本モデルデータまたは変換モデルデータから、実物モデルの特徴データに対応づけられなかったデータを、自装置での処理には不要なデータとして削除する。
【0016】
上記の照合処理では、カメラと実物モデルとの位置関係を実際の計測の際に想定される関係に設定して、視覚センサが設置される環境やカメラの特性に応じた画像を生成し、その画像から取得した特徴データを基本モデルデータまたはその変換データと照合するのが望ましい。このようにすれば、照合で対応付けされなかったデータを削除することによって、残りのデータは、おのずと視覚センサが行うべき認識処理に適合するものとなり、モデルデータの精度を検証する作業を不要、または大幅に削減することができる。また、作業者によりモデルデータを修正する必要もなくなるので、モデルデータの精度にばらつきが生じるのを防止することができる。
【0017】
また、認識対象の物体の視覚認識が可能な範囲の実寸大の形状を表す情報を基本モデルデータとするので、同じ物体を認識対象とする全ての視覚センサに同一の基本モデルデータを導入し、各視覚センサで上記の方法を実行することができる。よって、十分な精度の基本モデルデータを準備しておけば、各視覚センサにおいて、この基本モデルデータを、自装置の認識処理に適したモデルデータに作り替えて登録することができる。
【0018】
以下、第3ステップの処理について3つの実施態様を説明する。
まず第1の態様における第3ステップでは、実物モデルの特徴データと照合されたデータのうち、第2ステップで実行されたすべてのサイクルの照合処理において実物モデルの特徴データに対応づけることができなかったデータを、削除の対象に設定する。
【0019】
上記の態様によれば、この方法を実施している視覚センサでは計測される可能性が殆どない特徴データに対応するデータを不要な情報として設定し、基本モデルデータまたは変換モデルデータから不要な情報を除いたものをモデルデータとして登録することができる。よって、計測により得た特徴データの中からモデルデータに対応するものを安定して抽出することができ、認識精度を確保することができる。
【0020】
第2の態様における第3ステップでは、実物モデルの特徴データと照合されたデータのうち、第2ステップの照合処理において実物モデルの特徴データに対応づけることができなかった回数またはその割合が所定の基準値を上回るデータを、削除の対象に設定する。
【0021】
上記の態様によれば、視覚センサでの計測が可能であるが、照明条件の変動などによって計測が不安定になる情報を、モデルデータに含めないようにすることができる。よって、不安定な情報による照合が行われるのを防止して、認識精度を高めることができる。
【0022】
第3の態様による第3ステップでは、実物モデルの特徴データと照合されたデータのうち、第2ステップで実行されたいずれかの照合処理において実物モデルの特徴データに対応づけることができない状態が生じた情報を、削除対象に設定する。
【0023】
上記の態様によれば、基本モデルデータ又は変換モデルデータから、実物モデルの特徴データへの対応づけに1回でも失敗したものを不要な情報として削除することにより、認識対象の物体につき、ほぼ確実に計測することができる情報のみを含むモデルデータを作成することができる。よって、認識処理の安定度をより一層高めることができる。
【0024】
上記の方法において、計測処理として、認識対象の物体の3次元形状を表す特徴データを取得する3次元の計測処理を実行する場合には、第1ステップでは、基本モデルデータとして、物体の視覚認識可能な範囲の実寸大の形状を少なくとも表す3次元情報を入力する。また第2ステップの照合処理では、実物モデルから取得した特徴データを基本モデルデータが示す3次元情報と照合する。
【0025】
一方、計測処理として、カメラにより生成された画像中の物体のエッジを取得する2次元の計測処理を実行する場合もある。この場合の第1ステップでは、基本モデルデータとして、物体を特定の姿勢で配置してカメラにより撮像したときに画像中に現れるエッジパターンを実寸法で表した2次元情報を入力する。また第2ステップの照合処理では、実物モデルの画像から取得したエッジのパターンを基本モデルデータが示すエッジパターンと照合する。
【0026】
このように、本発明による方法は、2次元の計測を行う装置、3次元の計測を行う装置の双方に適用することが可能である。
【0027】
上記の方法が適用された視覚センサは、認識対象の物体について、当該物体の視覚認識が可能な範囲の実寸大の形状を表す基本モデルデータを入力するための入力手段と、認識対象の物体の実物モデルが処理対象となることを条件として、カメラによる撮像および計測処理、ならびに計測処理により取得した実物モデルの特徴データを、入力手段より入力した基本モデルデータまたは当該基本モデルデータを変換処理したデータと照合する処理を、所定サイクル実行する実物モデル処理手段と、実物モデルの特徴データと照合されたデータから、実物モデル処理手段が実行した照合処理において実物モデルの特徴データに対応づけることができなかったデータを削除し、残されたデータを登録対象のモデルデータとして設定するモデルデータ設定手段とを、具備する。
【0028】
上記の構成によれば、あらかじめ認識対象の物体について、視覚認識が可能な範囲の実寸大の形状を精度良く表す情報を生成して、これを基本モデルデータとして視覚センサに入力すると共に、計測条件に応じた状態で配置された実物モデルをカメラの視野に導入して、モデル処理手段およびモデル設定手段による処理を順に実行することにより、視覚センサの設置される環境や計測条件などに適合したモデルデータを作成し、登録することができる。
【発明の効果】
【0029】
本発明によれば、同種の物体を認識対象とする複数の視覚センサに対し、これらのセンサが認識対象とする物体の視覚可能な範囲の実寸大の形状を表す基本モデルデータを1つ準備し、この基本モデルデータを各視覚センサに入力して、それぞれの視覚センサの設置環境、カメラの特性、計測条件などに適合したモデルデータに作り替えて登録することができる。よって、個々の視覚センサにおけるモデルデータの登録処理を効率良く行うことができる。
【0030】
また認識対象の物体の実物モデルを実際の処理と同様の条件で撮像して計測し、この計測結果に対応づけられる情報によるモデルデータを作成するから、このモデルデータの精度を自然と確保することができるから、このモデルデータをもって安定した認識処理を実行することが可能である。
【図面の簡単な説明】
【0031】
【図1】ピッキングシステムの構成例を示す図である。
【図2】視覚センサの電気構成を示すブロック図である。
【図3】上記の視覚センサにおいて実施される3次元認識処理の手順を示すフローチャートである。
【図4−1】認識対象のワークの構成例を示す斜視図および底面図である。
【図4−2】認識対象のワークの構成例を示す側面図である。
【図5】図4に示したワークの基本モデルのデータ構成を示す図である。
【図6】計測時のワークの配置例を示す図である。
【図7】図6の配置状態のワークを用いて作成した実用モデルのデータ構成を示す図である。
【図8】計測時のワークの配置の他の例を示す図である。
【図9】図8の配置状態のワークを用いて作成した実用モデルのデータ構成を示す図である。
【図10】モデル登録処理の手順を示すフローチャートである。
【図11】ワークに影が発生するか否かにより実用モデルのデータ構成が変化する例を示す図である。
【図12】2次元の認識処理を行う視覚センサにおけるモデル登録処理の手順を示すフローチャートである。
【発明を実施するための形態】
【0032】
図1は3次元視覚センサが導入されたピッキングシステムの構成例を示す。
このピッキングシステムは、工場内で収容ボックス6に収容されたワークWを1つずつ取り出して所定の位置に搬送する作業を行うためのもので、作業を行う多関節ロボット4や、このロボット4の動作を制御するロボット制御装置3のほか、処理対象のワークWを認識する3次元視覚センサ100が含まれる。
【0033】
3次元視覚センサ100は、ステレオカメラ1と認識処理装置2とにより構成される。
ステレオカメラ1は、横並びに配置された3台のカメラA,B,Cにより構成される。認識処理装置2は、専用のプログラムが格納され、表示部25や、キーボード、マウスなどによる入力部24が接続されたパーソナルコンピュータにより構成される。
【0034】
認識処理装置2は、各カメラA,B,Cを用いたステレオ計測処理によってワークWの輪郭線の3次元情報を取得した後、取得した3次元情報をあらかじめ登録された3次元のモデルデータ(以下、「3次元モデル」という。)と照合することにより、ワークWの位置および姿勢を認識する。ロボット制御装置3は、認識処理装置2から上記の認識結果の送信を受け付けて、これに基づきロボット4のアーム40がワークWを把持するように、その動作を制御する。
【0035】
図2は、上記の3次元視覚センサ100の構成をブロック図により表したものである。
この図に示すように、認識処理装置2には、各カメラA,B,Cに対応する画像入力部20A,20B,20C、カメラ駆動部21、CPU22、メモリ23、入力部24、表示部25、通信インターフェース26、外部ディスク装置27などが含まれる。
【0036】
カメラ駆動部21は、CPU22からの指令に応じて、各カメラA,B,Cを同時に駆動する。なお、キャリブレーション処理や3次元モデルを登録する処理を行う場合には、このカメラ駆動は、入力部24から撮像開始の指示を受け付けたことに応じて行われる。
【0037】
表示部25および入力部24は、キャリブレーション処理や3次元モデルの作成処理の際に、設定のための情報の入力や撮像開始の指示を行ったり、作業を支援するための情報を表示したり、作成された3次元モデルの投影像を確認する目的で使用される。
【0038】
通信インターフェース26は、ロボット制御装置3との通信に用いられる。外部ディスクドライブ27は、コンパクトディスクなどの記憶媒体に情報を読み書きするためのもので、この実施例では、後記する基本モデルデータを読み出す目的に使用される。
【0039】
メモリ23は、ROM,RAM,およびハードディスクなどの大容量メモリを含むもので、キャリブレーション処理、3次元モデルの作成、およびワークWの3次元認識処理のためのプログラムや設定データが格納されている。また、キャリブレーション処理で算出された3次元計測用のパラメータや3次元のモデルデータも、メモリ23内の専用のエリアに登録される。
【0040】
CPU22は、メモリ23のプログラムに基づき、キャリブレーション処理を実行して、3次元計測用のパラメータの算出および登録を行った後に、認識処理用のモデルデータの作成および登録処理を実行する。この2種類の設定処理を実行することによって、視覚センサ100は、ワークWに対する3次元計測や認識処理を実行することが可能な状態になる。
【0041】
図3は上記の3次元視覚センサ100において、ワークWを認識するために実行される処理手順を示す。以下、このフローチャートに沿って、認識処理の概要を説明する。
【0042】
まず、カメラA,B,Cによるステレオ撮像を実行し(ST1)、生成された各画像からエッジを抽出する(ST2)。
【0043】
つぎに検出されたエッジを細線化し(1画素幅のデータにする。)、細線化後のエッジを連結点や分岐点を基準に直線や曲線のセグメントに分割する(ST3,4)。この2次元画像上のエッジから抽出されたセグメントを、以下では「2次元セグメント」と呼ぶ。
【0044】
つぎに、画像間で対応関係にある2次元セグメントを対応づける処理を実行する(ST5)。具体的には、3つの画像のうちの1つを基準画像として、この基準画像の各2次元セグメントに順に着目し、着目した2次元セグメントにつき、エピポーラ条件を満たすこと、および近傍のセグメントとの連結関係が着目中の2次元セグメントに整合することを条件として、他の2つの画像において条件を満たす2次元セグメントを探索する。この探索処理により、2つの画像で、ともに条件を満たす2次元セグメントが検出された場合には、これらを着目中の2次元セグメントに対応づける。
なお、各画像間での対応づけがなされなかった2次元セグメントは、以下の処理の対象から除外される。
【0045】
上記の対応付け処理が終了すると、ST6に進み、対応づけられた2次元セグメントの組み合わせ毎に、3次元情報を復元する処理を実行する。この復元された3次元情報により表される3次元のセグメントを、以下では「3次元セグメント」という。
【0046】
ここで対応づけられた1組の2次元セグメントから1つの3次元セグメントを復元する処理について説明する。
まず対応づけられた2次元セグメント間で、さらに画素単位の対応づけを行い、対応づけられた画素の組毎に3次元座標を算出する。さらに各3次元座標の分布パターンに近似する直線または曲線を設定し、設定された直線または曲線を所定の間隔毎にサンプリングする。そして、サンプリングされた3次元座標による集合に、各3次元座標の分布パターンに応じた属性(直線または曲線)を対応づけたものを、3次元セグメントとして確定する。
【0047】
ST6では、2次元セグメントのすべての組み合わせについて上記の処理を実行することにより、ワークWの輪郭形状を表す複数の3次元セグメントによる3次元情報を復元する。この処理が終了すると、つぎのST7では、復元した3次元情報をあらかじめ登録したモデルデータと照合することにより、ワークWの位置および姿勢を認識する。
【0048】
上記ST7の処理について、具体的に説明する。この実施例では、モデルデータとして、ワークWの計測され得る範囲の輪郭形状を表す3次元セグメントが登録されており、ST7では、各3次元セグメントの交点を特徴点として、モデルデータ側の各特徴点と復元された3次元情報における各特徴点とを総当たり式に対応づけながら、両者の一致度を算出する。そして、所定の基準値を超える一致度が得られたときの対応づけを正しいものとして、モデルデータ中の代表点(たとえば重心)に対応づけられた座標をワークWの位置として特定する。またこの正しい対応づけにおけるモデルデータの回転角度をワークの姿勢として特定する。
【0049】
さらに上記の照合処理では、3次元モデルに対する一致度が基準値を超える対応づけが複数見つかった場合には、それぞれの対応づけ毎に、座標および回転角度を特定する。よって、複数のワークWを対象にステレオ計測が実施された場合でも、各ワークWを個別に認識することができる。
【0050】
ワークWの位置および姿勢が認識されると、この後は、通信インターフェース26を介して認識結果をロボットコントローラ3に出力し(ST8)、処理を終了する。
【0051】
上記の認識処理の精度を確保するには、精度の良いモデルデータを登録する必要がある。この点につき、この実施例では、図1に示したシステム外のコンピュータにおいて、ワークWのCADデータを3次元セグメント形式の情報に変換することにより、ワークWの全輪郭形状を実寸法で表した3次元情報を作成し、これをワークの基本のモデルデータ(以下、「基本モデル」という。)とする。作成された基本モデルはコンパクトディスクに保存されて、ユーザに提供される。
【0052】
ユーザは、このコンパクトディスクを認識処理装置2の外部ディスクドライブ27にセットして、3次元モデルの作成処理を開始する。ここでユーザは、ワークWの実物モデルを実際に計測する場合と同様の姿勢にしてステレオカメラ1の計測領域に配置し、入力部24より撮像を指示する。認識処理装置2では、この指示に応じて図3のST1〜ST6の各ステップに相当する処理を実行し、復元された実物モデルの3次元情報を外部ディスクドライブ27より読み出した基本モデルと照合する。
【0053】
さらにこの実施例では、計測時に取り得る範囲内でワークWの姿勢を毎回変更して、上記のステレオ計測および照合処理を複数サイクル実行する。そして、基本モデル側の3次元セグメントのうち、いずれのサイクルの照合処理でもステレオ計測の結果に対応づけされなかった情報を、認識処理に不要な情報と判別する。そして基本モデルから不要な情報を削除したものを、図3の認識処理に使用するモデルデータ(以下「実用モデル」という。)としてメモリ23に登録するようにしている。
【0054】
図4は、視覚センサの認識対象となるワークWの具体的な構成例を、斜視図および背面図(図4−1の(1)(2))、および三方から見た側面図(図4−2の(3)(4)(5))により示す。これらの図に示すように、この実施例のワークWは、厚みのある板体30の背面に3個の取付片41,42,43を具備する取付金具40を一体に設けた構成のものである。各取付片41,42,43は、取り付け金具40の本体部の三辺からそれぞれ異なる傾斜角度をもって後方に突出している。また取付片41,42の先端部は屈曲しているのに対し、取付片43は、まっすぐに延びた状態に形成されている。なお、図4では、板体30の厚み部分の面を、符号32,33,34,35により示す。
【0055】
上記のワークWは、板体30の前面31を上に向けることにより、取付片42,43によって板体30を水平な状態にして支持される(このときの取付片41は浮いた状態になる。)。また後記する図8に示すように、面33を底面として、板体30を垂直な状態にして支持される場合もある。
【0056】
図5は、上記のワークWの基本モデルのデータ構成を、図4の斜視図に合わせた模式図として示す。この基本モデルM0は、CADデータを変換処理することにより生成されたもので、ワークWのすべての輪郭線(図中、一点鎖線で示す。)を表す3次元セグメント情報(3次元セグメントの集合)が含まれている。
【0057】
図6は、ワークWの実物モデル(以下、これを単に「ワークW」という。)を図4に示した支持状態にして配置したものを、ステレオカメラ1により計測される方向から見たののである。ただし、計測方向に対するワークWの姿勢は一定ではなく、図中の矢印fの方向に沿って回転した姿勢をとる可能性がある。
【0058】
図6の例の場合には、板体30の前面31の真上から計測を行うため、計測が可能となるのは、板体30の前面31、および取付片41,42,43の先端部付近であり、板体30の背面32や取付金具40の本体部分を計測することは不可能になる。
【0059】
図7は、上記の計測条件による計測結果を図5に示した基本モデルM0と照合することにより作成した実用モデルM1の例を示す。なお、この図7および後記する図9では、削除された情報を極細点線により表現している。
【0060】
この実用モデルM1は、計測方向に対し、ワークWを図6の矢印fの方向に沿って所定角度ずつ回転させて、撮像および計測を繰り返し行い、毎回の計測により取得した3次元情報を基本モデルと照合し、ワークWの3次元情報に対応づけられなかった情報を基本モデルから削除することにより得られたものである。この結果、実用モデルM1に含まれるのは、実際に計測される箇所(板体30の前面および取付片41,42,43の先端部)に対応する情報のみとなっている。
【0061】
図8は、ステレオカメラ1に対するワークWの他の配置例を示す。この例のワークWは、板体30の取付片が設けられていない方位にある面33を底面とすることにより、板体30を垂直に起立させた状態で配置される。図8では、計測方向に対してワークWが取り得る3通りの姿勢を、示している。このようにワークWの姿勢は一定ではないが、この例では、板体30の背面が計測されることはないものとする。
【0062】
図9は、図8のように配置されたワークWに対して複数回のステレオ計測を実行し、各計測により取得した3次元情報と基本モデルM0とを照合することにより生成された実用モデルの例を示す。この実用モデルM3も、基本モデルM0からワークWの計測結果を対応づけられなかった情報を削除することにより生成されたものである。
【0063】
上記の各例に示したように、この実施例の視覚センサ100が作成する実用モデルM1,M2は、基本モデルM0に含まれる3次元情報から、実際のワークWに対する計測処理では取得することができない情報を削除したものである。いずれの実用モデルM1,M2も、実際に認識されるものと同様の姿勢で配置されたワークWに対する計測結果に対応するように作成されているので、これらの実用モデルM1,M2を用いた認識処理では、計測処理により得た3次元情報と実用モデルとが正しく対応づけられたときに、実用モデルの殆どの情報が計測された3次元情報に対応する状態になる。よって、十分な一致度をもってワークWを認識することができ、安定した認識を行うことができる。
【0064】
図10は、実用モデルを作成する際の処理手順を示す。
この処理は、作業者が基本モデルが格納されたコンパクトディスクを外部ディスクドライブ27にセットして、読み出し操作を行ったことに応じて開始される。まず最初のステップ(ST11)では、読み出し操作に従って基本モデルを読み出し、これをメモリ23の作業領域に格納する。
【0065】
ここで作業者は、ステレオカメラ1の計測領域に、実際に計測されるときと同様の姿勢でワークWを配置し、撮像指示操作を行う。この操作に応じてST12が「YES」となり、ステレオ撮像を実行する(ST13)。さらに、この撮像により生成されたステレオ画像を用いた計測処理により、ワークWの3次元情報を取得する(ST14)。なお、図10のST14は、図3のST3〜ST6に相当する処理をまとめて表したもので、これにより、ワークWの輪郭形状を表す特徴データとして、複数の3次元セグメントを取得することになる。
【0066】
つぎのST15では、上記の計測処理により取得した3次元情報(特徴データ)を基本モデルと照合する。この場合にも、図3のST7の処理と同様に、計測による特徴点と基本モデル側の特徴点とを総当たり式で対応づけて一致度を求める処理を繰り返し、両者の一致度が最も高い状態になったときの対応関係を正しい関係として特定する。さらに、基本モデルに含まれる3次元情報の中から、上記の正しい対応関係にあるときに特徴データに対応づけられなかった情報を特定する処理も実行する。
【0067】
この後も、作業者は、実際の計測で想定される範囲内でワークWの姿勢を種々に変更して撮像指示操作を行う。視覚センサ100では、この操作に応じて、ST13,14,15の各処理を実行する。
【0068】
以下、同様に、撮像指示操作に応じて、ステレオ撮像および計測処理、ならびに計測処理により得た特徴データと基本モデルとを照合する処理が繰り返し実行される。所定の時点で、作業者が必要な撮像を実行したと判断して終了操作を行うと(ST16が「YES」)、毎回の照合処理の結果に基づき、基本モデル内の3次元情報のうち、いずれの照合処理においても計測データに対応づけられなかった情報を、不要情報として特定する(ST17)。
【0069】
この後は、基本モデルから特定した不要情報を削除し(ST18)、残された情報を実用モデルとしてメモリ23に登録する(ST19)。
【0070】
なお、実用モデルの登録は、作業者による確認作業を経てから実行してもよい。たとえば、不要情報を削除した後の情報をカメラA,B,Cの座標系に透視変換し、この変換処理により生成された投影像を表示部25に表示し、表示された投影像が実物のワークWの画像に適合しているか否かを作業者に判断させてもよい。
【0071】
上記の手順によれば、ワークWを処理対象とする複数の視覚センサ100に同一の基本モデルM0を入力し、各視覚センサ100において、それぞれその装置の計測条件に応じた実用モデルを作成することができる。たとえば、ワークWを図6に示すような条件で計測する視覚センサ100と、ワークWを図8で示すような条件で計測する視覚センサ100とに、それぞれ図5に示した構成の基本モデルM0を入力して、各センサ100において上記図10の処理を実行すれば、前者のセンサ100には、図7に示した実用モデルM1が、後者のセンサ100には図9に示した実用モデルM2が、それぞれ登録され、これらによりワークWを認識する処理を安定して実行することができる。
【0072】
さらに、各視覚センサ100における計測条件が同一であっても、照明の状態やカメラの特性などの違いによって計測が可能な範囲が異なる場合にも、各センサ100に同一の基本モデルを入力して、上記図10と同様の方法により、それぞれの計測精度に応じた実用モデルを作成することができる。
【0073】
図11は、ワークWを板体30のみの構成に模式して、このワークWに対する照明条件の違いによる実用モデルの構成の違いを示す。この図では、(1)にワークWの基本モデルの構成を示すとともに、(2)に上面に影が生じているワークWを、(3)に影が発生していないワークWを、それぞれの実用モデルM,Mとともに示す。
【0074】
上記の例によれば、影が生じていないワークWを用いてモデル登録処理を行った場合の実用モデルMには、計測対象のすべての輪郭線の情報が含まれるのに対し、上面に影が生じたワークWを用いてモデル登録処理を行った場合の実用モデルMでは、影が生じた面の輪郭線の情報を含まない実用モデルが作成される。このように、影が発生する環境下で計測されるワークWに対し、影により取得できない計測データに対応する情報を除いた実用モデルを設定すれば、影の発生しない環境下で計測されるワークWと同様の精度の認識処理を行うことができる。
【0075】
なお、外光の影響など、時間の経過に伴って環境を変化させる要因がある場合には、それぞれの環境においてワークWの撮像および計測を実行し、基本モデルM0との照合処理において、ワークWの特徴データに対応づけられなかった回数、またはこの回数の全照合回数に対する割合が所定の基準値を上回った情報を基本モデルM0から削除すれば、計測が不安定な部位の情報を含まない実用モデルを作成することが可能になる。計測が可能になる場合と不可能になる場合とがある部位が存在するような場合も、同様である。
【0076】
さらに、高い認識精度を要求するような場合には、複数回の照合処理のうちのたとえ1回でも計測データに対応づけることができない状態が生じた情報を、不要情報として基本モデルから削除してもよい。このような厳しい基準を設定すれば、安定して計測することができる部位の情報のみを含む実用モデルを作成し、認識処理をより一層安定させることができる。
【0077】
なお、上記の実施例では、CADデータから基本モデルを作成するとしたが、基本モデルの作成方法はこれに限定されるものではない。たとえば、良好な環境を確保した視覚センサ100の計測エリアに実物のワークWを導入し、このワークWに対するステレオ計測を複数の方向から実行し、各計測結果を統合する方法(特許文献1参照。)により基本モデルを作成し、これを各視覚センサ100に導入することも可能である。
【0078】
また、上記の実施例では、計測処理として、ワークWの輪郭形状を表す3次元情報を復元する処理を行うことに伴い、基本モデルや実用モデルも、同様に輪郭形状を表す3次元情報により構成したが、3次元計測の手法は、これに限定されるものではない。
【0079】
たとえば、ステレオ計測や光切断法などによりワークWの表面の形状を表す3次元座標の集合を取得し、この集合を登録されたモデルデータと照合する場合もある。このような計測を行うタイプの視覚センサについても、ワークWの表面全体の形状を表す3次元座標群を基本モデルとして入力し、実物のワークWに対する撮像および計測、ならびに計測処理により取得した3次元座標群(特徴データ)を基本モデルと照合する処理を実行し、基本モデルからワークWの特徴データに対応づけられなかった座標を削除したものを、実用モデルとして登録することができる。
【0080】
さらに、上記の実用モデルの作成方法は、3次元の認識処理を行うタイプの視覚センサに限らず、2次元の認識処理を行うタイプの視覚センサに適用することもできる。以下、1台のカメラによりワークWを撮像し、生成された画像中のエッジのパターンを登録されたモデルの2次元のエッジパターンと照合することにより、ワークWの位置および姿勢を認識するタイプの視覚センサを例に、登録対象のモデルのエッジパターンを作成する処理を説明する。
【0081】
この実施例の視覚センサは、カメラおよび画像入力部の組み合わせが1つになることを除けば、図2に示したのと同様のハードウェア構成を具備する。よって、以下の説明では、適宜、図2の符号を参照して説明する(カメラについては符号を省略する。)。
【0082】
この実施例では、カメラの光軸が特定の方向に固定され(たとえば、鉛直方向を向く状態に設定される。)、処理対象のワークWが常に特定の部位で支持される状態で配置されること(たとえば、図6または図8に示した配置)を前提にする。この場合の基本モデルは、画像に現れるワークWのエッジパターンを実寸法で表すものであり、たとえば2次元のCADデータにより生成される。また、この実施例の視覚センサ100では、あらかじめキャリブレーション処理の結果に基づいて、カメラにより生成される画像の倍率(1画素当たりの実寸法)を特定し、この倍率をメモリ23内に登録する。
【0083】
図12は、上記の前提による視覚センサ100において、基本モデルから実用モデルを作成する処理の手順を示す。この処理では、まず、コンパクトディスクからエッジパターンの基本モデルを読み出す処理を実行し(ST21)、メモリ23に登録された倍率に基づき、この基本モデルを画像に適合するサイズに変換する(ST22)。以下、この変換後のエッジパターンを「変換モデル」という。
【0084】
ユーザは、上記の前提条件を守りながら、計測方向に対するワークWの向きを想定される範囲で毎回変更して、撮像開始の指示操作を行う。この操作が行われる都度、カメラによる撮像処理、生成された画像からエッジを抽出する処理、抽出されたエッジのパターンを変換モデルと照合する処理が実行される(ST23〜ST26)。
【0085】
なお、ST26の照合処理では、画像から抽出されたエッジのパターンと変換モデルとを、位置関係を毎回変更して対応づけて、一致度が最大になったときの対応関係を正しいものとして特定する。また、この正しい対応関係における変換モデルから、照合対象のエッジに対応づけられなかった情報を特定する。
【0086】
所定の時点で終了操作が行われると、ST23〜27のループを終了してST28に進む。このST28では、計測が不安定な情報を削除対象とする目的で、変換モデルを構成するエッジ情報のうち、画像側のエッジに対応づけられなかった割合が基準値を超えた情報を不要な情報として特定する。さらに、この不要情報を変換モデルから削除し(ST29)、削除後の変換モデルを実用モデルとしてメモリ23に登録する(ST30)。
【0087】
上記のとおり、ワークWの2次元形状を表す特徴データを用いた認識処理を行う場合には、ワークWのカメラによる視認が可能な範囲内の実寸大の形状を表す2次元パターンを基本モデルとして視覚センサ100に入力し、実際の計測におけるのと同じ姿勢で配置されたワークWに対する計測結果を基本モデルと照合し、基本モデルから計測結果に対応しない割合が高い情報を削除することにより、照明の変動などによる不安定な要素を含まない実用モデルを作成することができる。また、ワークWの配置やカメラの光軸方向に関する設定内容が一致する複数の視覚センサに同一の基本モデルを入力して、それぞれのセンサに適した実用モデルを作成することができる。
【0088】
なお、上記の2次元の認識処理を行う場合の視覚センサ100に導入される基本モデルも、CADデータによるものに限らない。たとえば、設置環境が良好な状態の視覚センサ100において、ワークWの撮像および生成された画像からエッジを抽出する処理によって、このセンサによる倍率で表したモデルデータを作成した後に、このモデルデータを上記の倍率に基づき実寸法を示す情報に変換したものを基本モデルとしてもよい。または視覚センサで作成したモデルデータと倍率との組み合わせを基本モデルとしてもよい。
【0089】
さらに、同一のワークWを処理対象とするが、ワークWの底面とする面が視覚センサ100によって異なる場合(たとえば図6の例の配置を採用するセンサと、図8の例の配置を採用するセンサとがある場合)には、ワークWの表面の全輪郭形状を表す3次元情報を基本モデルとして各センサに入力して、実用モデルを作成することができる。簡単に説明すると、この場合には、3次元の基本モデルを視覚センサ100に入力した後に、そのセンサ100におけるワークWの配置状態に合わせて基本モデルを回転補正し、さらに補正後の基本モデルをカメラ座標系に透視変換する。そして、この変換により生成された2次元のエッジパターンを変換モデルとして、図12のST23以降の処理を実行する。
【0090】
最後に、上記した各種構成による視覚センサ100は、認識対象のワークWの位置および姿勢を認識する処理を実行する以外に、計測結果をモデルデータと照合したときの一致度に基づいて、ワークWの姿勢または形状の適否を判定する目的に利用することもできる。また2次元のエッジパターンの抽出および照合を行うタイプの視覚センサ100においては、図12に示した方法により登録したモデルデータを複数とおりの倍率で表し、ワークWの画像から抽出したエッジパターンを各倍率のモデルデータと照合することにより、ワークWの位置および姿勢に加えて、ワークWの高さを認識することも可能である。
【符号の説明】
【0091】
A,B,C カメラ
W ワーク
1 ステレオカメラ
2 認識処理装置
22 CPU
23 メモリ
100 視覚センサ

【特許請求の範囲】
【請求項1】
認識対象の物体を少なくとも1台のカメラにより撮像し、生成された画像を用いた計測処理により前記物体の形状を表す特徴データを取得し、取得した特徴データを、あらかじめ登録したモデルデータと照合することにより前記物体に対する認識処理を実行する視覚センサにおいて、前記照合処理のためのモデルデータを登録する方法であって、
認識対象の物体について、当該物体の視覚認識が可能な範囲の実寸大の形状を表す基本モデルデータを入力する第1ステップと、
前記認識対象の物体の実物モデルを処理対象として、前記カメラによる撮像および前記計測処理、ならびに計測処理により取得した実物モデルの特徴データを前記基本モデルデータまたは基本モデルデータを変換処理したデータと照合する処理を、所定サイクル実行する第2ステップと、
前記第2ステップで前記実物モデルの特徴データと照合されたデータから、実物モデルの特徴データに対応づけることができなかったデータを削除し、残されたデータを登録対象のモデルデータに設定する第3ステップとを、
実行することを特徴とする、視覚認識処理用のモデルデータの登録方法。
【請求項2】
前記第3ステップでは、前記実物モデルの特徴データと照合されたデータのうち、前記第2ステップで実行されたすべてのサイクルの照合処理において前記実物モデルの特徴データに対応づけることができなかったデータを、削除の対象に設定する、請求項1に記載された視覚認識処理用のモデルデータの登録方法。
【請求項3】
前記第3ステップでは、前記実物モデルの特徴データと照合されたデータのうち、前記第2ステップの照合処理において実物モデルの特徴データに対応づけることができなかった回数またはその割合が所定の基準値を下回るデータを、削除の対象に設定する、請求項1に記載された視覚認識処理用のモデルデータの登録方法。
【請求項4】
前記第3ステップでは、前記実物モデルの特徴データと照合されたデータのうち、前記第2ステップで実行されたいずれかの照合処理において実物モデルの特徴データに対応づけることができない状態が生じた情報を、削除の対象に設定する、請求項1に記載された視覚認識処理用のモデルデータの登録方法。
【請求項5】
請求項1〜4のいずれかに記載された方法において、
前記計測処理として、前記認識対象の物体の3次元形状を表す特徴データを取得する3次元の計測処理を実行し、
前記第1ステップでは、基本モデルデータとして、前記物体の視覚認識可能な実寸大の形状を表す3次元情報を入力し、前記第2ステップの照合処理では、前記実物モデルから取得した特徴データを前記基本モデルデータが示す3次元情報と照合する、
視覚認識処理用のモデルデータの登録方法。
【請求項6】
請求項1〜4のいずれかに記載された方法において、
前記計測処理として、前記カメラにより生成された画像中のエッジを取得する処理を実行し、
前記第1ステップでは、基本モデルデータとして、前記物体を特定の姿勢で配置してカメラにより撮像したときに画像中に現れるエッジパターンを実寸法で表した2次元情報を入力し、前記第2ステップの照合処理では、前記実物モデルの画像から取得したエッジのパターンを前記基本モデルデータが示すエッジパターンと照合する、
視覚認識処理用のモデルデータの登録方法。
【請求項7】
認識対象の物体を少なくとも1台のカメラにより撮像し、生成された画像を用いた計測処理により前記物体の形状を表す特徴データを取得し、取得した特徴データを、あらかじめ登録したモデルデータと照合することにより前記物体に対する認識処理を実行する視覚センサであって、
認識対象の物体について、当該物体の視覚認識が可能な範囲の実寸大の形状を表す基本モデルデータを入力するための入力手段と、
前記認識対象の物体の実物モデルが処理対象となることを条件として、前記カメラによる撮像および前記計測処理、ならびに計測処理により取得した実物モデルの特徴データを前記入力手段より入力した基本モデルデータまたは基本モデルデータを変換処理したデータと照合する処理を、所定サイクル実行する実物モデル処理手段と、
前記実物モデルの特徴データと照合されたデータから、前記実物モデル処理手段が実行した照合処理において実物モデルの特徴データに対応づけることができなかったデータを削除し、残されたデータを登録対象のモデルデータとして設定するモデルデータ設定手段とを、
具備することを特徴とする、視覚センサ。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4−1】
image rotate

【図4−2】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate


【公開番号】特開2010−218016(P2010−218016A)
【公開日】平成22年9月30日(2010.9.30)
【国際特許分類】
【出願番号】特願2009−61355(P2009−61355)
【出願日】平成21年3月13日(2009.3.13)
【出願人】(000002945)オムロン株式会社 (3,542)
【Fターム(参考)】