説明

追跡方法

本発明は、フレーム・シーケンス内の少なくとも1つの物体を追跡する方法であって、各フレームが画素アレイを有し、深さ値が各画素に関連付けられている方法に関する。この方法は、各フレームの前記画素の少なくともいくつかを複数の領域にグループ分けするステップと、前記領域を、相互接続された領域のクラスタB,…,Bにグループ分けするステップと、2次元投影で別のクラスタBに隣接する少なくとも1つのクラスタB,…,Bが前記別のクラスタBの深さ値よりも高い深さ値を有する場合に、少なくとも1つのクラスタB,…,Bが前記別のクラスタBによって部分的に遮蔽されている物体に属すると判断するステップを含む。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、フレーム・シーケンス内の少なくとも1つの物体を追跡する方法であって、各フレームが画素アレイ(ピクセル配列)を有し、深さ値が各画素に関連付けられている方法に関する。
【背景技術】
【0002】
実世界物体を追跡するために、撮像デバイスに接続され、撮像デバイスによって生成されるビデオ・シーケンスで物体を追跡するようにプログラムされたデータ処理デバイスであって、ビデオ・シーケンスが連続するフレーム・シーケンスを有し、各シーケンスが画素アレイを有するデータ処理デバイスを使用することが、長きにわたり提案されている。
【0003】
例えば、Wei Du及びJustus Piaterによる論文「Tracking by Cluster Analysis of Feature Points using a Mixture Particle Filter」において、Harrisコーナー検出器及びLucas−Kanadeトラッカを使用して、ビデオ・シーケンス内の物体を追跡するための方法が開示されている。しかしこの方法は、画素の深さ情報なしで2次元ビデオ・シーケンスに適用されるので、かなりのデータ処理要件にも関わらずその性能は限られる。
【0004】
2次元画素アレイを有するビデオ・シーケンスで1つ又は複数の物体を追跡するための方法を開示するいくつかの他の関連の論文は以下のものである。
【0005】
S. McKenna、S. Jabri、Z. Duric、及びH. Wechsler, “Tracking Groups of People”, Computer Vision and Image Understanding, 2000
【0006】
F. Bremond及びM. Thonnat, “Tracking multiple nonrigid objects in video sequences”, IEEE Trans. On Circuits and Systems for Video Techniques, 1998
【0007】
I Haritaoglu, “A Real Time System for Detection and Tracking of People and Recognizing Their Activities”, University of Maryland, 1998
【0008】
G. Pingali、Y. Jean、及びA. Opalach, “Ball Tracking and Virtual Replays for Innovative Tennis Broadcasts”, 15th Int. Conference on Pattern Recognition
【0009】
しかし、これらの追跡方法は、直接の画素深さ情報なしで2Dビデオ・シーケンスで実施されるので、色、形状、又はテクスチャなど他の物体属性に基づいてしか画像セグメント化を行うことができないため、それらの性能は必然的に限られる。
【0010】
例えば国際公開第2008/128568号で、各フレームの各画素に深さ値が関連付けられたビデオ・シーケンスを提供する3D撮像システムを使用することが既に提案されている。そのような追跡方法は、純粋に2次元の画像に基づくものよりも、追跡される物体に関する有用な位置情報をはるかに多く生成する。特に、3D撮像システムの使用は、前景と背景の区別を容易にする。しかし、開示された方法は、複数の物体を追跡するという問題には対処しておらず、特に、3D撮像システムの視野内で別の物体によって少なくとも部分的に遮蔽された物体を追跡するという問題には対処していない。国際公開第2008/128568号では、3次元空間内のボリュームを認識するための方法であって、3次元画像データが3次元空間内に複数の点を有する方法が開示されている。これらの点はクラスタ化され、クラスタが、対象の点として選択される。選択されたクラスタ内部の点は、サブクラスタにさらにグループ分けされ、サブクラスタはそれぞれ、重心と、重心に関連付けられるボリュームとを有する。重心は、物体を示すネットワークを形成するために接続することができ、末端の重心は、ただ1つの他の重心に接続された重心として識別される。
【0011】
3Dビデオ・シーケンスを使用しており、しかし遮蔽の問題に対処できていない他の追跡方法は、A. Azerbayerjani及びC. Wrenによって“Real−Time 3D Tracking of the Human Body”, Proc. of Image’com, 1996において開示されており、また、T. Olson及びF. Brillによって“Moving Object Detection and Event Recognition Algorithms For Smart Cameras”, Proc. Image Understanding Workshop, 1997においても開示されている。
【0012】
いくつかの他の開示は、この遮蔽の問題に対処している。いくつかの様々な方法が、リエージュ大学(University of Liege)の電子工学及びコンピュータ・サイエンス科(the Department of Electrical Engineering and Computer Science)のPierre F. Gabriel、Jacques G. Verly、Justus H. Piater、及びAndre Genonによって、“The State of the Art in Multiple Object Tracking Under Occlusion in Video Sequences”という論文で提示されている。
【0013】
この遮蔽の問題に対処する追跡方法は、A. Elgammal及びL.S. Davisが“Probabilistic framework for segmenting people under occlusion”, Proc. of IEEE 8th International Conference on Computer Vision, 2001において開示しており、またI. Haritaoglu、D. Harwood、及びL. Davisが“Hydra: Multiple People Detection and Tracking”, Workshop of Video Surveillance, 1999において開示しており、またS. Khan及びM. Shahが“Tracking People in Presence of Occlusion”, Asian Conference on Computer Vision”, 2000において開示しており、またH.K. Roh及びS.W. Leeが“Multiple People Tracking Using an Appearance Model Based on Temporal Color”, International Conference on Pattern Recognition, 2000において開示しており、またA.W. Senior、A. Hampapur、L.M. Brown、Y. Tian、S. Pankanti、及びR. M. Bolleが“Appearance Models for Occlusion Handling”, 2nd International Workshop on Preformance Evaluation of Tracking and Surveillance Systems”, 2001において開示している。しかし、これらの方法は全て、深さデータはなんら有さずに、2次元画素アレイのみを有する2D又はステレオビデオ・シーケンスに基づいているので、それらの性能は限られる。
【0014】
トップダウン・シーン・ビューに基づく物体追跡方法を、A. F. Bobick他が“The KidsRoom: A perceptually based interactive and immersive story environment”, Teleoperators and Virtual Environrment, 1999において開示しており、またR.T. Collins、A.J. Lipton、及びT. Kanadeが“A System for Video Surveillance and Monitoring”, Proc. 8th International Topical Meeting on Robotics and Remote Systems, 1999において開示しており、またW.E.L. Grimson、C. Stauffer、R. Romano、及びL. Leeが“Using adaptive tracking to classify and monitor activities in a site”, Computer Society Conference on Computer Vision and Pattern Recognitionにおいて開示しており、またA. Bevilacqua、L. Di Stefano、及びP. Tazzariが“People tracking using a time−of−flight depth sensor”, IEEE International Conference on Video and Signal Based Surveillance, 2006において開示している。しかし、その結果、追跡される物体に関して入手できる情報は、特にその物体が人間ユーザであるときには制限される。
【0015】
Dan Witzner Hansen、Mads Syska Hansen、Martin Kirschmeyer、Rasmus Larsen、及びDavide Silvestreが“Cluster tracking with time−of−flight cameras”, 2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshopsにおいて、やはりホモグラフィ平面内で、すなわち「トップダウン」ビューで物体が追跡される物体追跡方法を開示している。この方法は、期待値最大化アルゴリズムを使用する。しかし、この方法もまた、追跡された物体が人間ユーザである場合には、ジェスチャの認識に十分には適合しない。
【0016】
また、Leila Sabeti、Ehsan Parvizi、及びQ.M. Jonathan Wuが、“Visual Tracking Using Colour Cameras and Time−of−Flight Range Imaging Sensors”, Journal of Multimedia, Vol. 3, No. 2, June 2008において、画素深さデータを有する3Dビデオ・シーケンスを使用する物体追跡方法を提示している。しかし、モンテカルロベースの「パーティクル・フィルタ」追跡方法を使用するこの方法はまた、かなりのデータ処理リソースを必要とする。
【0017】
米国特許出願公開第2006/239558号は、シーンの画像を生成する3次元撮像システムを開示する。シーンの画像内の画素は、その画素がシーン内のどの物体に関係付けられているかに応じてラベル付けされて、値を割り当てられる。同じラベルを有する画素のグループは、「ブロブ」を生成するようにグループ分けされ、各ブロブが異なる物体に対応している。ブロブが定義されると、それらは、円や長方形など様々な形状の基本形、或いは人、動物、又は車など他の事前定義された物体にモデル化又は量子化される。シーン内の画素のクラスタ化及びそれらの関連付けられた深さ値を使用して、画素の深さ値に従って、その画素が特定のクラスタに属するかどうか判断する。したがって画素は、隣接する画素と同じ深さである場合には、隣接する画素が属するクラスタと同じラベルを割り当てられる。
【0018】
米国特許第671818号は、シーン内の別個の3次元領域又は「ブロブ」を選択的にクラスタ化して、「ブロブ」クラスタを物体認識に関するモデルと比較することによって、シーン内で対象の人及び物体を識別及び位置特定するための方法を開示する。対象のシーンの初期3次元深さ画像が生成される。3次元ボリューム内での3次元画像画素の空間座標が画像によって表される。人又は物体の識別及び位置特定は、作業画像を処理することによって決定され、作業画像は、初期3次元深さ画像とライブ深さ画像を使用した背景差分プロセスから得られ、その際、初期3次元深さ画像とは大きく異なるライブ深さ画像内の任意の画素が作業画像の一部となり、作業画像は、いくつかの別個の3次元領域又は「ブロブ」を含む。「ブロブ」を処理して、各ブロブがどの人又は物体に属するかが識別される。
【先行技術文献】
【特許文献】
【0019】
【特許文献1】国際公開第2008/128568号
【特許文献2】米国特許出願公開第2006/239558号
【特許文献3】米国特許第671818号
【非特許文献】
【0020】
【非特許文献1】Wei Du及びJustus Piaterによる論文「Tracking by Cluster Analysis of Feature Points using a Mixture Particle Filter」
【非特許文献2】S. McKenna、S. Jabri、Z. Duric、及びH. Wechsler, “Tracking Groups of People”, Computer Vision and Image Understanding, 2000
【非特許文献3】F. Bremond及びM. Thonnat, “Tracking multiple nonrigid objects in video sequences”, IEEE Trans. On Circuits and Systems for Video Techniques, 1998
【非特許文献4】I Haritaoglu, “A Real Time System for Detection and Tracking of People and Recognizing Their Activities”, University of Maryland, 1998
【非特許文献5】G. Pingali、Y. Jean、及びA. Opalach, “Ball Tracking and Virtual Replays for Innovative Tennis Broadcasts”, 15th Int. Conference on Pattern Recognition
【非特許文献6】A. Azerbayerjani及びC. Wren“Real−Time 3D Tracking of the Human Body”, Proc. of Image’com, 1996
【非特許文献7】T. Olson及びF. Brill“Moving Object Detection and Event Recognition Algorithms For Smart Cameras”, Proc. Image Understanding Workshop, 1997
【非特許文献8】リエージュ大学(University of Liege)の電子工学及びコンピュータ・サイエンス科(the Department of Electrical Engineering and Computer Science)のPierre F. Gabriel、Jacques G. Verly、Justus H. Piater、及びAndre Genonによる論文“The State of the Art in Multiple Object Tracking Under Occlusion in Video Sequences”
【非特許文献9】A. Elgammal及びL.S. Davis“Probabilistic framework for segmenting people under occlusion”, Proc. of IEEE 8th International Conference on Computer Vision, 2001
【非特許文献10】I. Haritaoglu、D. Harwood、及びL. Davis“Hydra: Multiple People Detection and Tracking”, Workshop of Video Surveillance, 1999
【非特許文献11】S. Khan及びM. Shah“Tracking People in Presence of Occlusion”, Asian Conference on Computer Vision”, 2000
【非特許文献12】H.K. Roh及びS.W. Lee“Multiple People Tracking Using an Appearance Model Based on Temporal Color”, International Conference on Pattern Recognition, 2000
【非特許文献13】A.W. Senior、A. Hampapur、L.M. Brown、Y. Tian、S. Pankanti、及びR. M. Bolle“Appearance Models for Occlusion Handling”, 2nd International Workshop on Preformance Evaluation of Tracking and Surveillance Systems”, 2001
【非特許文献14】A. F. Bobick他“The KidsRoom: A perceptually based interactive and immersive story environment”, Teleoperators and Virtual Environrment, 1999
【非特許文献15】R.T. Collins、A.J. Lipton、及びT. Kanade“A System for Video Surveillance and Monitoring”, Proc. 8th International Topical Meeting on Robotics and Remote Systems, 1999
【非特許文献16】W.E.L. Grimson、C. Stauffer、R. Romano、及びL. Lee“Using adaptive tracking to classify and monitor activities in a site”, Computer Society Conference on Computer Vision and Pattern Recognition
【非特許文献17】A. Bevilacqua、L. Di Stefano、及びP. Tazzari“People tracking using a time−of−flight depth sensor”, IEEE International Conference on Video and Signal Based Surveillance, 2006
【非特許文献18】Dan Witzner Hansen、Mads Syska Hansen、Martin Kirschmeyer、Rasmus Larsen、及びDavide Silvestre“Cluster tracking with time−of−flight cameras”, 2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops
【非特許文献19】Leila Sabeti、Ehsan Parvizi、及びQ.M. Jonathan Wu“Visual Tracking Using Colour Cameras and Time−of−Flight Range Imaging Sensors”, Journal of Multimedia, Vol. 3, No. 2, June 2008
【発明の概要】
【発明が解決しようとする課題】
【0021】
本発明の目的は、画素深さ情報を用いてフレーム・シーケンス内の物体を追跡するための方法であって、部分的に遮蔽されている物体でさえ確実に追跡し、それと同時に、3次元空間内での追跡された物体の形状に関する情報を提供し、それをジェスチャ認識のために適用することができる方法を提供することである。
【課題を解決するための手段】
【0022】
一実施例では、本発明によるコンピュータ実装方法は、
−画素深さ情報を備えるフレーム・シーケンスの各フレームの画素の少なくともいくつかを複数の領域にグループ分けするステップと、
−前記領域を、相互接続された領域のクラスタにグループ分けするステップと、
−2次元投影で別のクラスタに隣接する少なくとも1つのクラスタが前記別のクラスタの深さ値よりも高い深さ値を有する場合に、前記少なくとも1つのクラスタが前記別のクラスタによって部分的に遮蔽されている物体に属すると判断するステップと
を含む。
【0023】
「深さ値」という用語は、前記ビデオ・シーケンスを捕捉する撮像デバイスの位置とは無関係に、前記2次元投影の平面に垂直な深さの値を意味するものとする。深さ値は、撮像デバイスからの画素の距離である。したがって、1つのクラスタ(又はそのクラスタ内の画素)の深さ値は、撮像デバイスからより遠くに離れていることにより、別のクラスタ(又は別のクラスタ内の画素)の深さ値よりも高い値を有することができる。
【0024】
本発明のさらなる目的は、単一の部分的に遮蔽されている物体に属するクラスタをつなぎ合わせることである。
【0025】
このために、前記2次元投影で前記別のクラスタへの隣接性を共に有し且つ前記別のクラスタよりも高い深さ値を有する2つのクラスタが、前記別のクラスタによって部分的に遮蔽されている単一の物体に属するかどうかを、前記より高い深さ値が互いに所定の範囲Δd内にあるかどうかに応じて判断することができる。
【0026】
また、前記2次元投影で前記別のクラスタへの隣接性を共に有し且つ前記別のクラスタよりも高い深さ値を有する2つのクラスタが、前記別のクラスタによって部分的に遮蔽されている単一の物体に属するかどうかを、前記2次元投影の少なくとも1つの軸において前記2つのクラスタのそれぞれが前記2つのクラスタの他方と少なくとも最小長さにわたって重畳しているかどうかに応じて判断することができる。
【0027】
これら2つの条件は、個別に、又は同時に適用することができる。これら2つの条件のそれぞれを包含的条件として適用することができ、したがって条件が満たされる場合に、2つのクラスタが単一の物体に属するものとみなされる。しかしこれは、条件が満たされない場合も依然として除外されてはいない。しかし、それぞれの条件を排他的条件として適用することもでき、これは、クラスタがその条件を満たさない場合には、それらのクラスタが単一の物体に属することが除外されることを意味する。特定の実施例では、各条件はさらに、包含及び排他のための様々なしきい値を使用して、包含的及び排他的に個別に適用することができる。
【0028】
したがってこの追跡方法により、別の物体によって部分的に遮蔽されているときでさえ、物体の追跡を続けることができる。遮っているクラスタからはみ出した領域であって、それらの相対位置により、確実に互いにリンクさせることができる領域は、部分的に遮蔽された物体に属するものとして識別される。さらにこれは、限られた計算リソース消費で実現され、それと同時に、相互接続された領域のクラスタによって、追跡される物体の3次元形状に関する有用な情報を提供する。
【0029】
対照的に、米国特許出願公開第2006/239558号は、画素の深さ値に従って、シーン内の画素に同じラベルを割り振る。これは、シーン内の異なる別個の物体に属する画素が、同一の物体として誤って識別される可能性があることを意味する。
【0030】
米国特許第6771818号では、識別されたクラスタをモデルと比較して、遮蔽されている可能性がある物体に画素が属するかどうかを判断する。
【0031】
有利には、画素は、ベクトル量子化アルゴリズムを使用していくつかの領域にグループ分けすることができる。特に、前記ベクトル量子化アルゴリズムにおいて、
−第1のフレームにおいて、leader−followerアルゴリズムを使用して画素をK個の領域にグループ分けすることができ、
−後続のフレームにおいて、
・制約付きK−meansアルゴリズムを使用して、画素を前のフレームの領域にグループ分けし、距離制約を使用して、これらの領域のうちの任意の領域の重心から所定の距離Qよりも離れている画素を排除し、
・leader−followerアルゴリズムを使用して、残っている画素があればそれを新たな領域にグループ分けし、
・最後に、この後続のフレームにおいて、前のフレームの領域にいかなる画素も割り当てられていない場合には、その領域を削除することができ、数値Kを1だけ減分する。
【0032】
特に、前記leader−followerアルゴリズムにおいて、
・画素が領域重心から前記距離Qよりも離れている場合には、新たな領域が生成され、数値Kが1だけ増分され、また
・画素が領域重心から前記距離Q以内にある場合には、その画素は対応する領域に割り当てられ、それに従って重心の位置が更新される。
【0033】
そのようなleader−followerアルゴリズムは、いくつかの領域への画素の均一な分散を可能にし、それと同時に、領域の粒度を実質的に一定に保ち、領域の連続的なリフレッシュを保証し、計算リソース消費を制限する。
【0034】
有利には、
−それら2つの領域の一方での少なくとも1つの画素とそれら2つの領域の他方での別の画素が2次元投影で隣接する場合、及び
−これら2つの領域の隣接する画素の各対における深さの平均差が、前記所定の距離Δd未満である場合
に、2つの領域が3次元空間内で接続されていると判断することができる。
【0035】
2つの画素は、それらが前記2次元投影で少なくとも1方向で所定の距離以内にある場合に、2次元投影で隣接しているとみなすことができる。
【0036】
これらの基準により、空間内の単一の物体又は接続された複数の物体の点を表現する画素をグループ分けする複数の領域を、単一のクラスタにグループ分けすることができる。
【0037】
さらに有利には、後続のフレームにおいて、前のフレームには存在しなかった新たな領域が前記3次元空間内で直接又は少なくとも1つの別の領域を介して前記既存のクラスタの領域に接続されている場合に、前記新たな領域が、前記前のフレームに既に存在していた相互接続された領域の既存のクラスタに属すると判断することができる。したがって、各クラスタの内容は、各後続のフレームにおいて新たに存在する候補領域があればそれを考慮に入れて、連続的に更新することができる。
【0038】
有利には、本発明による方法の好ましい一実施例は、前記画素を領域にグループ分けする前に、基準フレーム内の対応する画素の深さ値と所定量Δd未満しか異ならない各画素を前記シーケンス内の各フレームから削除する別のステップを含むことができる。したがって、基準フレーム内に既に存在していた背景から前景物体が切り離され、コンピュータ実装追跡方法の計算要件をさらに低減させる。
【0039】
有利には、前記フレーム・シーケンスは、実世界シーンを捕捉する3D撮像デバイスからのビデオ・シーケンスでよい。したがって、本発明のこの実施例によるコンピュータ実装追跡方法は、例えばビデオ・ゲーム、シミュレーション、仮想環境、遠隔操作などの用途で、コンピュータ・システムとのリアルタイム対話、例えば命令又はデータの入力のために使用することができる。
【0040】
さらに有利には、本発明のこの実施例において、画素を領域にグループ分けするステップの前に、撮像デバイスにリンクされた座標系から、前記実世界シーンでの点にリンクされた別の座標系に座標変換を行うことができる。このステップにより、画素座標を、本発明による追跡方法の後続のステップを単純化する別の座標系に変換することができる。
【0041】
本発明のさらなる目的は、連続するフレーム・シーケンスを含む3次元ビデオ・シーケンスで少なくとも1つの物体を追跡する方法であって、各フレームが画素アレイを備え、深さ値が各画素に関連付けられる方法を使用する用途で、物体のアクティブ化及び/又は非アクティブ化を管理することである。
【0042】
したがって、本発明の有利な実施例による方法は、さらに、前記シーケンスの少なくとも1つのフレームに関して、物体が第1の組のアクティブ化基準を満たす場合には、前記フレーム内で物体を予備アクティブ化するステップと、所定のアクティブ化規則の下で物体が第2の組のアクティブ化基準を満たす場合には、予備アクティブ状態の物体をアクティブ化するステップとを含むことができる。したがって、第1の組のアクティブ化基準は、第1の絶対フィルタとして働く。予備アクティブ状態の物体のその後のアクティブ化は、各予備アクティブ状態の物体が第2の組のアクティブ化基準を満たすかどうかに依存するだけでなく、アクティブ化規則にも依存する。
【0043】
有利には、前記第1の組のアクティブ化基準及び/又は前記第2の組のアクティブ化基準が、
−アクティブ化又は非アクティブ化することができる物体の最大数、
−物体の位置、
−物体のサイズ、
−物体の動き、
−物体の形状、
−物体の色、
−物体が非アクティブ状態を保っている、連続する前のフレームの最大数、又は
−ユーザ選択
のうちの少なくとも1つの基準を含むことができる。
【0044】
有利には、前記アクティブ化規則は、
−第2の組のアクティブ化基準を満たす全ての予備アクティブ状態の物体をアクティブ化する強制アクティブ化規則、
−アクティブ状態の物体が非アクティブ化される場合にのみ、前記第2の組のアクティブ化基準を満たす物体をアクティブ化するランク付きアクティブ化規則、
−前記第2の組のアクティブ化基準を最も良く満たす物体をアクティブ化する単純アクティブ化規則、
−関連し合う別のアクティブ状態の物体が非アクティブ化された場合に物体をアクティブ化する単純交換アクティブ化規則、
−別の物体によって遮蔽される又は遮蔽されている場合に物体をアクティブ化する遮蔽アクティブ化規則、又は
−別のアクティブ状態の物体に接触する場合に物体をアクティブ化する接触交換アクティブ化規則
からなる1組のアクティブ化規則のうちの1つでよい。
【0045】
これらのアクティブ化基準及び規則は、本発明の物体追跡方法に基づいて、広い範囲の対話の可能性を開く。
【0046】
さらに有利には、本発明による方法の一実施例はまた、前記シーケンスの少なくとも1つの後続のフレームに関して、所定の非アクティブ化規則の下で物体が1組の非アクティブ化基準を満たす場合に、事前にアクティブ化されている物体を非アクティブ化するステップを含むこともできる。
【0047】
非アクティブ化基準の前記組は、
−アクティブ化又は非アクティブ化することができる物体の最大数、
−物体の位置、
−物体の形状、
−物体の色、
−物体ランキング、
−物体がアクティブ状態を保っている、連続する前のフレームの最大数及び/又は最小数、或いは
−ユーザ選択
のうちの少なくとも1つの基準を備えることができる。
【0048】
前記非アクティブ化規則は、
−前記非アクティブ化基準の組を満たす全てのアクティブ状態の物体を非アクティブ化する強制非アクティブ化規則、
−非アクティブ状態の物体がアクティブ化される場合にのみ、前記非アクティブ化基準の組を満たす物体を非アクティブ化するランク付き非アクティブ化規則、
−前記非アクティブ化基準の組を最も良く満たす物体を非アクティブ化する単純非アクティブ化規則、
−関連し合う別の非アクティブ状態の物体がアクティブ化された場合に物体を非アクティブ化する単純交換非アクティブ化規則、又は
−別の非アクティブ状態であるが予備アクティブ化されている物体に接触する場合に物体を非アクティブ化する接触交換非アクティブ化規則
の中から選択することができる。
【0049】
また本発明は、本発明の実施例の任意のものによる方法を実施するためのコンピュータ実行可能命令を有するコンピュータ可読データ記憶媒体に関し、さらにまた、3次元ビデオ・シーケンス用の入力を備え、本発明の実施例の任意のものによるコンピュータ実装方法を実施するようにプログラムされたコンピュータ・システムであって、3次元ビデオ・シーケンスが、連続するフレーム・シーケンスを有し、各フレームが画素アレイを有し、各画素に深さ値が関連付けられるコンピュータ・システムに関する。
【0050】
「コンピュータ可読データ記憶媒体」という用語は、限定はしないが、ランダム・アクセス・メモリ、フラッシュ・メモリ、又は読み出し専用メモリなどのソリッドステート・メモリ、さらには、ハードディスク・ドライブ又は磁気テープなどの磁気データ記憶媒体、及び光ディスクなどの光データ記憶媒体を含めた、デジタル・データを含む任意のコンピュータ可読サポートを意味する。
【0051】
本発明のこれら及び他の目的は、以下の詳細な説明を読み、添付図面を参照すれば、より容易に明らかになろう。
【図面の簡単な説明】
【0052】
【図1】3D撮像デバイスの前に立つ人間ユーザのいる部屋を示す図である。
【図2】3D撮像システムによって捕捉されたときの、3次元空間内に分散された画素の形態での、同じ部屋の3次元画像データを示す図である。
【図3】前記画像データ内部のクリップされたボリュームであって、背景除去後の人間ユーザに対応する画素をグループ分けする相互接続された領域のクラスタを含むボリュームの2次元投影を示す図である。
【図4A】3Dビデオ・シーケンスの連続フレームで、相互接続された領域のクラスタが更新される状況を示す図である。
【図4B】3Dビデオ・シーケンスの連続フレームで、相互接続された領域のクラスタが更新される状況を示す図である。
【図4C】3Dビデオ・シーケンスの連続フレームで、相互接続された領域のクラスタが更新される状況を示す図である。
【図5】1人の人間ユーザと、そのユーザを部分的に遮る別の人間ユーザとを表す相互接続された領域のクラスタを示す図である。
【図6A】位置基準と単純アクティブ及び非アクティブ化規則を使用して、物体をアクティブ化及び非アクティブ化することができる状況を示す図である。
【図6B】位置基準と単純アクティブ及び非アクティブ化規則を使用して、物体をアクティブ化及び非アクティブ化することができる状況を示す図である。
【図6C】位置基準と単純アクティブ及び非アクティブ化規則を使用して、物体をアクティブ化及び非アクティブ化することができる状況を示す図である。
【図7A】位置基準と接触交換規則を使用して、第1の物体をアクティブ化することができ、第2の物体を非アクティブ化することができる状況を示す図である。
【図7B】位置基準と接触交換規則を使用して、第1の物体をアクティブ化することができ、第2の物体を非アクティブ化することができる状況を示す図である。
【図8A】位置基準と単純アクティブ化及び非アクティブ化規則を使用して、第1の物体がアクティブ化及び非アクティブ化される状況、及び位置基準とランク付きアクティブ化規則を使用して第2の物体がアクティブ化される状況を示す図である。
【図8B】位置基準と単純アクティブ化及び非アクティブ化規則を使用して、第1の物体がアクティブ化及び非アクティブ化される状況、及び位置基準とランク付きアクティブ化規則を使用して第2の物体がアクティブ化される状況を示す図である。
【図8C】位置基準と単純アクティブ化及び非アクティブ化規則を使用して、第1の物体がアクティブ化及び非アクティブ化される状況、及び位置基準とランク付きアクティブ化規則を使用して第2の物体がアクティブ化される状況を示す図である。
【発明を実施するための形態】
【0053】
本発明は様々な修正形態及び代替形態が可能であるが、本発明の具体的な実施例を図面に例として示してあり、本明細書で詳細に述べる。しかし、開示する特定の形態に本発明を限定する意図はなく、逆に、本発明は、添付の特許請求の範囲で表される本発明の範囲に入る全ての修正形態、均等形態、及び代替形態を網羅するものであることを理解すべきである。
【0054】
本発明の一実施例によるコンピュータ実装物体追跡方法及びコンピュータ・システムの一実施例の可能な使用例の1つを図1に示す。本出願では、対象物、この場合には人間ユーザ1のジェスチャを認識するためのこのシステム及び方法を、人間ユーザ1に表示される仮想環境を生成するコンピュータ・システム2と対話するために使用する。
【0055】
ボリューム認識システムは、3D撮像システム、この特定の実施例では飛行時間(TOF)3Dカメラ3を有する。このTOF3Dカメラ3はコンピュータ・システム2に接続され、人間ユーザ1は、そのコンピュータ・システム2と対話することができる。この実施例では、このコンピュータ・システム2は、それ自体、TOF3Dカメラ3と協働して本発明のボリューム認識法を実施するようにプログラムされる。或いは、人間ユーザが前記コンピュータ・システム2と対話できるようにするために、前記方法を実施するようにプログラムされた別個のデータ処理デバイスをTOF3Dカメラとコンピュータ・システム2の間に接続することができる。
【0056】
TOF3Dカメラ3は、人間ユーザ1がいる部屋4の3D画像データを含む連続フレームを捕捉する。3D画像データは、2D画素アレイと、各画素に関する深さ値とを含み、深さ値は、その画素によって表された点からTOF3Dカメラ3までの距離に対応する。2D画素アレイ内の画素の垂直位置と水平位置は、それら自体、それらが表現する点のTOF3Dカメラ3に対する天頂角と方位角に対応するので、図2におけるように、各フレームは、TOF3Dカメラ3の視程内の物体の可視点に対応する画素5の3次元クラウドによって示すことができる。
【0057】
これらの連続フレームは、3次元ビデオ・シーケンスを生成し、これがコンピュータ・システム2に伝送される。第1のステップで、前記コンピュータ・システム3の内部にあるデータ処理装置は、ビデオ・シーケンス内の各フレームの画素5の3次元クラウドのカメラに対する画素位置を、シーンに固定された座標系6での座標に変換する。この座標系6は、3つの直交軸、すなわち横軸X、深さ軸Y、及び高さ軸Zを有する。その後、不十分な画素情報しか入手できない画素、又はセンサ雑音によるものである可能性がある画素を、フィルタを使用してフレームから除去することができる。
【0058】
また、後続のステップにおいて、フレームを、背景のみを含む事前に捕捉された基準フレームと比較することによって、シーン背景に対応する各フレーム内の画素5を除去することもできる。前記深さ軸Yで、基準フレーム内の対応する画素からしきい値距離Δdを超えていない全ての画素5を、画像から差し引く。しかし或いは、代わりにリアルタイムで基準背景を更新することによって、この背景除去を動的に行うこともできる。
【0059】
その後、データ処理要件を低減するために、得られた画像をクリップして、残っている画素5を含むより小さなボリューム7にすることができる。
【0060】
次いで、データ処理装置によって、コンピュータ・メモリにおいて、それらの残っている画素5を複数の領域R(ここでi=1,…,K)にグループ分けする。有利には、以下のようにベクトル量子化アルゴリズムを使用して画素をグループ分けする。
【0061】
ビデオ・シーケンスの第1のフレームにおいて、leader−followerアルゴリズムを使用して画素をK個の領域にグループ分けする。このアルゴリズムでは、画素が領域重心から前記距離Qよりも離れている場合には、新たな領域が生成され、数値Kが1だけ増分される。画素が領域重心から前記距離Q以内にある場合には、その画素は対応する領域に割り当てられ、それに従って重心の位置が更新される。したがって、前記第1のフレームでの第1の画素から始めると、領域がまだ1つも生成されていないので(K=0)、第1の領域が生成され、Kが1に設定され、この第1の領域の重心の位置は第1の画素の位置となる。次の画素に関して、その画素が第1の画素から前記距離Q以内にある場合には、その画素は第1の領域に組み込まれ、第1の領域の重心の位置が変わる。しかし、その画素が前記距離Qよりも離れている場合には、新たな領域が生成され、Kが2に設定される。
【0062】
各後続のフレームにおいて、まず制約付きK−meansアルゴリズムを使用して、画素の少なくともいくつかをグループ分けする。K−meansアルゴリズムは反復アルゴリズムであり、時間的コヒーレンスの度合いを導入するために、K個の領域の重心の初期位置C(この場合には、前のフレームに関して決定されている位置)を定義した後、まず、1組のN個の画素の各画素jが、以下の式によって表される前記K個の領域のうちの1つの領域Rに関連付けられる。
【0063】
【数1】


ここで、Pは、上述した座標系6での画素jの位置である。この特定の制約付きK−meansアルゴリズムでは、重心から前記所定の距離Qよりも離れている画素は、割り当てられていないままである。
【0064】
各画素j=1,…,Nを前記K個の領域の1つに割り振った後、各領域に割り振られた画素の質量中心の位置を計算することによって、それらのK個の領域の重心の位置Cが更新される。
【0065】
【数2】


ここで、nは、領域Rに割り振られた画素の数である。
【0066】
次いで、K個の領域への画素の安定した割振りに落ち着くまで、これら2つのステップを繰り返し行うことができる。
【0067】
次いで、割り当てられていないままの画素を、上述したのと同じleader−followerアルゴリズムを使用して新たな領域にグループ分けすることができる。このアルゴリズムでは、画素が領域重心から前記距離Qよりも離れている場合に、新たな領域が生成され、数値Kが1だけ増分される。画素が領域重心から前記距離Q以内にある場合には、その画素は対応する領域に割り当てられ、それに従って重心の位置が更新される。
【0068】
最後に、K個の領域のうちの1つの領域が、このフレームにおいてその領域に割り当てられる画素がなく空のままである場合、この領域Rは削除され、数値Kが1だけ減分される。
【0069】
フレームにおいて得られた1組の領域Rが図3に示される。
【0070】
各フレームに関する次のステップは、領域隣接グラフ(RAG)を生成し、コンピュータ・メモリにおいて、領域Rを相互接続された領域のクラスタBにグループ分けすることを含む。データ処理装置は、
−領域R内の少なくとも1つの画素と領域R内の別の画素とが、X−Z平面上への2次元投影で隣接する場合、及び
−これら2つの領域R、Rの隣接する画素の各対におけるY軸での深さの平均差が、所定の距離Δd未満である場合に、
2つの領域R、R(ここでaとbは、0〜Kの間の2つの異なる数)が3次元空間内で接続されていると判断する。
【0071】
2つの画素は、これら2つの画素の一方が、少なくともX軸又はZ軸で他方の画素の次、次の次、又はそのまた次の画素である場合に、2次元投影で隣接しているとみなされる。
【0072】
2つの領域R、Rが、X−Z平面上への投影で隣接する画素を有するが、隣接する画素のこれらの各対における深さの平均差が前記所定の距離Δdを超えている場合、領域RとRは、ほぼ間違いなく接続されているものとしてフラグを立てることができる。この場合、それらの領域を相互接続された領域として単一のクラスタBにグループ分けするかどうかは、1組の追加の基準に応じて決まることがある。
【0073】
いくつかのクラスタBが第1のフレームにおいて生成され、各クラスタが、1組の相互接続された領域を組み込む。後続のフレームに関して、新たな領域Rが直接又は少なくとも別の領域Rを介して既存のクラスタBの領域に接続されている場合には、その領域Rは既存のクラスタBに組み込まれる。これは、以下のアルゴリズムを実行するデータ処理装置によって決定される。
【0074】
各領域Rに関して、
−領域Rが前のフレームで存在していた場合、したがって既存のクラスタBに関連付けられる場合には、時間コヒーレンスを考慮して、Rが属するクラスタに対するRの距離のインジケータ「distance(R)」はゼロに設定され、インジケータ「object(R)」は「B」に設定され、「distance(R)」の値に関して昇順でソートされたリストH内にRが記憶される。
−そうでない場合には、「distance(R)」が「INFINITE(無限)」に設定され、「object(R)」が「NULL(ゼロ)」に設定される。
【0075】
次いで、リストHが空でない限り、以下のことが繰り返される。
−リストHから、最小のインジケータ「distance(R)」の値を有する領域Rを抽出する。
−領域Rに隣接する各領域Rに関して、
・d=distance(R)+distanceRAG(R,R)を計算する。ここで、RとRが接続されている場合、distanceRAG(R,R)=0であり、RとRが接続されていない場合、distanceRAG(R,R)=INFINITEであり、並びに
・d<distance(R)である場合、
・「distance(R)」の値を値dに設定し、
・「object(R)」の値を「object(R)」の値に設定し、及び
・領域RがリストH内にない場合には、それをリストHに挿入し、
・領域Rが既にリストH内にある場合には、それをHから抽出する。
【0076】
それにより、既存のクラスタに接続させることができる全ての領域を既存のクラスタに組み込んだ後、残っている領域があればそれを接続に関してチェックして、必要であれば、そのような領域を組み込む追加のクラスタを生成する。図4A、図4B、及び図4Cは、2つの連続フレーム間のこの遷移を示す。
【0077】
図4Aに示される第1のフレームには、2つのクラスタBとBが存在する。Bは、相互接続された領域R、R、R、R、R、及びRを有し、Bは、相互接続された領域R、R、R、R10、及びR11を有する。図4Bに示される次のフレームでは、Bは依然として存在するが、Rが消えている。他方、新たな領域R12、R13、R14、R15、R16、及びR17が現れている。R12は、クラスタBの領域Rに接続され、R13は、クラスタBの領域R11に接続され、R14は、R13に接続されている。R15と、R16と、R17は、相互接続されるが、いかなる他の領域又はクラスタにも接続していない。したがって、図4Cで見ることができるように、R12は、クラスタBに組み込まれ、R13及びR14は、クラスタBに組み込まれる。R15、R16、及びR17は、新たなクラスタBを形成する。
【0078】
次のステップでは、クラスタ関係グラフ(CRG)が確立される。このCRGにおいて、X−Z平面上への2次元投影で隣接するクラスタの対(すなわち、各クラスタが、X−Z平面上への2次元投影で、他方のクラスタの領域内の少なくとも1つの画素に隣接する少なくとも1つの画素を有する領域を備える)が、「2D接続」とタグ付けされた第1のタイプのリンクでリンクされる。次いで、両方のクラスタが共通の隣接するクラスタへの「2D接続」リンクを有するが、共通の隣接するクラスタよりも高い深さ値を有し、深さ軸で互いから所定の距離Δd以内にあるようなクラスタの対が、「3D接続可能」とタグ付けされた第2のタイプのリンクでリンクされる。
【0079】
「3D接続可能」リンクによってリンクされたクラスタは、それらの共通の隣接するクラスタによって表される別の物体によって部分的に遮蔽された物体に属する可能性がある。それらのクラスタを実際に単一の物体に属するものとして互いに相互接続すべきかどうか判断するために、次いで、それらのクラスタが、前記2次元投影内で「スタック可能」であるかどうか、すなわち前記2次元投影の少なくとも1つの軸で少なくとも最小の正規化長さominだけ互いに重畳しているかどうか検査される。正規化された重畳長さの値o=O/Lであり、ここで、Oは、その軸での絶対重畳長さであり、Lは、その軸での2つの「3D接続可能」クラスタの短い方の長さである。
【0080】
図5は、フレームが1組のクラスタB、B、B、B、及びBを示し、これらのクラスタが2つの物体、すなわち第1の人間ユーザUと、第1の人間ユーザUによって部分的に遮蔽されている第2の人間ユーザUとを表す一例である。第2の人間ユーザUの前に第1の人間ユーザUがいることで、第2の人間ユーザUがクラスタB、B、B、及びBに実質的に分割されることを容易に理解されよう。クラスタB、B、B、及びBは全て、X−Z平面への2次元投影でクラスタBに隣接しており、Y軸でのそれらの平均の深さは、最小距離よりも大きくBの深さを上回っているので、それらは、「2D接続」リンク7によってBとリンクさせることができる。それらはまた、深さ軸Yで互いに所定の範囲内にあるので、「3D接続可能」リンク8で互いにリンクさせることができる。
【0081】
したがって、次のステップでは、「3D接続可能」タイプのリンク8によってリンクされたそれらのクラスタB、B、B、及びBが、さらに、前記2次元投影の少なくとも1つの軸で、少なくとも最小の正規化長さominだけ互いに重畳しているかどうかチェックされる。図示される実例では、Bは、Bと、X軸において十分な正規化長さoX(3,2)>ominだけ重畳しており、また、B及びBは、それぞれB及びBと、Z軸において十分な正規化長さoZ(4,2)>omin及びoZ(5,3)>ominだけ重畳している。
【0082】
正規化された重畳長さoX(3,2)=OX(3,2)/LX3であり、ここで、OX(3,2)は、X軸でのBとBの重畳であり、LX3は、X軸でのBの長さである。正規化された重畳長さoZ(4,2)=OZ(4,2)/LZ4であり、ここで、OZ(4,2)は、Z軸でのBとBの重畳であり、LZ4は、Z軸でのBの長さである。最後に、正規化された重畳長さoZ(5,3)=OZ(5,3)/LZ5であり、ここで、OZ(5,3)は、Z軸でのBとBの重畳であり、LZ5は、Z軸でのBの長さである。
【0083】
したがって、クラスタB、B、B、及びBは、コンピュータ・メモリにおいて、クラスタBを備える別の物体Uによって部分的に遮蔽されている単一の物体Uに割り当てることができる。
【0084】
この図示した実施例では、これらの「3D接続可能」試験と「スタック可能」試験が組み合わせて使用され、クラスタが両方の条件を満たさない場合には、クラスタが単一の物体に属することが除外されるが、代替実施例では、それらの試験は、互いに別個に、又は互いに並列して使用することもできる。これら2つの条件のそれぞれを包含的条件として適用することができ、したがって、条件が満たされる場合に、2つのクラスタが単一の物体に属するものとみなされる。しかしこれは、条件が満たされない場合も依然として排除されてはいない。各条件は、さらに、包含及び排他のための様々なしきい値を使用して、包含的及び排他的に個別に適用することができる。
【0085】
後続のフレームに関して、データ処理装置は、新たなCRGを生成し、まず上述した試験を使用して、新たなクラスタを既存の物体に割り当てることができるかどうかチェックする。次いで、同じ試験を使用して、残っている新たなクラスタがあればそれを新たな物体にグループ分けすることができるかどうかチェックする。
【0086】
したがって、複数の物体を、それらの物体の1つが別の物体に遮蔽されているときでさえ、フレーム・シーケンス全体にわたって追跡することができる。そのような物体は、静止していても、移動可能でもよい。この物体追跡方法が、ビデオ・ゲーム、シミュレーション、又は仮想現実アプリケーションなどのコンピュータ・アプリケーションと対話するために使用されるとき、追跡される物体はそれぞれ、様々なアクティブ化/非アクティブ化基準とアクティブ化/非アクティブ化規則の組に従ってアクティブ化及び/又は非アクティブ化することができる。
【0087】
本発明の特定の一実施例では、フレーム・シーケンス内の少なくとも1つの物体を追跡する方法であって、各フレームが画素アレイを有し、深さ値が各画素に関連付けられている方法が、さらに、少なくとも1つのフレームに関して、物体が第1の組のアクティブ化基準を満たす場合には、前記フレーム内で物体を予備アクティブ化するステップと、所定のアクティブ化規則の下で物体が第2の組のアクティブ化基準を満たす場合には、予備アクティブ状態の物体をアクティブ化するステップとを含む。
【0088】
好ましくは、この方法はまた、前記シーケンスの少なくとも1つの後続のフレームに関して、所定の非アクティブ化規則の下で物体が1組の非アクティブ化基準を満たす場合に、事前にアクティブ化されている物体を非アクティブ化するステップを含むこともできる。
【0089】
第1の組のアクティブ化基準は、以下の基準の少なくとも1つを含むことができる。
【0090】
物体の位置:すなわち、この要件により、追跡される物体は、別の追跡される物体など移動基準及び/又は静止基準に対してある相対位置範囲内にある(さらには接触している)場合に予備アクティブ化される。
【0091】
物体のサイズ:すなわち、この要件により、追跡される物体は、1次元、2次元、又は3次元での少なくとも所定の最小サイズ及び/又は多くとも所定の最大サイズを有する場合に予備アクティブ化される。
【0092】
物体の動き:すなわち、この要件により、追跡される物体は、シーケンス内の少なくとも1つの前のフレームに対する少なくとも所定の最小の動き及び/又は多くとも所定の最大の動きを示す場合に予備アクティブ化される。
【0093】
物体の形状:すなわち、この要件により、追跡される物体は、例えば人体を表すパターンなど所定のパターンにその物体の形状を合致させることができる場合に予備アクティブ化される。
【0094】
物体の色:すなわち、この要件により、追跡される物体は、所定の色範囲内の色値を有する1つ又は複数の画素を含む場合に予備アクティブ化される。
【0095】
物体の持続性:すなわち、この要件により、追跡される物体は、連続する前のフレームの少なくとも最小数及び/又は多くとも最大数にわたってアクティブ状態又は非アクティブ状態として追跡されている場合に予備アクティブ化される。
【0096】
ユーザ選択:すなわち、この要件により、追跡される物体は、例えば「物体を見えるようにする」といったコマンドなど明示的なユーザ選択によって事前にフラグを立てられている場合に予備アクティブ化される。
【0097】
アクティブ状態の物体の最大数:すなわち、この要件により、追跡される物体は、アクティブ状態の物体の数が所定の最大数を超えない場合にアクティブ化される。
【0098】
この第2の組のアクティブ化基準は、アクティブ化規則に関連付けて使用される。このアクティブ化規則は、例えば、第2の組のアクティブ化基準を満たす全ての予備アクティブ状態の物体をアクティブ化する強制アクティブ化規則、アクティブ状態の物体が非アクティブ化される場合にのみ、前記第2の組のアクティブ化基準を満たす物体をアクティブ化するランク付きアクティブ化規則、前記第2の組のアクティブ化基準を最も良く満たす1つ又は複数の物体をアクティブ化する単純アクティブ化規則、関連し合う別のアクティブ状態の物体が非アクティブ化された場合に物体をアクティブ化する単純交換アクティブ化規則、別の物体によって遮蔽される又は遮蔽されている場合に物体をアクティブ化する遮蔽アクティブ化規則、又は別のアクティブ状態の物体に接触する場合に物体をアクティブ化する接触交換アクティブ化規則でよい。
【0099】
非アクティブ化基準の組は、第2の組のアクティブ化基準のものと同様の基準を含むことがある。また、物体ランキング基準も備えることがあり、これは、物体のランキングが最小値未満である場合に、アクティブ状態の物体を非アクティブ化できるようにする。物体ランキングは、例えば、アクティブ状態の物体の組がアクティブ化された順序によって決定することができる。
【0100】
非アクティブ化規則は、例えば、前記非アクティブ化基準の組を満たす全てのアクティブ状態の物体を非アクティブ化する強制非アクティブ化規則、非アクティブ状態の物体がアクティブ化される場合にのみ、前記非アクティブ化基準の組を満たす物体を非アクティブ化するランク付き非アクティブ化規則、前記非アクティブ化基準の組を最も良く満たす物体を非アクティブ化する単純非アクティブ化規則、関連し合う別の非アクティブ状態の物体がアクティブ化された場合に物体を非アクティブ化する単純交換非アクティブ化規則、又は別の非アクティブ状態であるが予備アクティブ化されている物体に接触する場合に物体を非アクティブ化する接触交換非アクティブ化規則でよい。
【0101】
したがって、アクティブ化基準及び規則、並びに非アクティブ化基準及び規則の組合せに応じて、様々なシナリオが利用可能である。
【0102】
例えば、図6Aにおいて、物体Uが示されており、この物体Uは、予備アクティブ状態で、静止基準11を中心とする円10に入っており、アクティブ化のための位置基準を満たす。その結果、物体Uは、単純アクティブ化規則に従ってアクティブ化される。図6Bでは、物体Uは、円10から出ているが、非アクティブ化のための位置基準はより大きな円12よりも外にあるので、アクティブ状態のままである。図6Cに示されるように、物体Uがより大きな円12から出たときにのみ、別の単純非アクティブ化規則の下で非アクティブ化することができる。
【0103】
図7Aにおいて、2つの物体UとUは、接触していないものとして示されている。この場合には、2つの物体U及びUは、それぞれのユーザUser1及びUser2に対応する。第1の物体Uはアクティブ状態であり、第2の物体Uは予備アクティブ状態である。第1の物体Uは、非アクティブ状態であるが予備アクティブ化されている物体と接触するという非アクティブ化のための位置基準を満たすので、接触交換非アクティブ化規則の下で非アクティブ化することができる。他方、第2の物体Uは、アクティブ状態の物体と接触するというアクティブ化のための位置基準を満たすので、接触交換アクティブ化規則の下でアクティブ化される。その結果生じた状態交換が、図7Bに示される。
【0104】
図7Bでは、接触交換アクティブ化規則の下で、物体Uが物体Uと接触するとき、物体Uは、(非アクティブ状態であるが予備アクティブ化されていたので)アクティブ状態になり、物体Uは、ここでアクティブ化された物体Uと接触するので、非アクティブ化される。
【0105】
図8Aにおいて、第1の物体Uが示されており、この物体Uは、予備アクティブ状態で、静止基準11を中心とする円10に入っており、アクティブ化のための位置基準を満たしている。その結果、この第1の物体Uは、単純アクティブ化規則に従ってアクティブ化される。円10の内部にない第2の物体Uは、非アクティブ状態のままである。図8Bでは、第1の物体Uは、ここでは円10の外である。しかし、非アクティブ化のための位置基準はより大きな円12よりも外にあるので、第1の物体Uは非アクティブ状態のままである。第2の物体Uは、ここでは予備アクティブ状態であり円10内にあるが、ランク付きアクティブ化規則の下では、第1の物体Uがアクティブ状態のままであるときには第2の物体Uをアクティブ化することはできない。図8Cに示されるように、第1の物体Uが、より大きな円12から出た後に非アクティブ化されるときにのみ、このランク付きアクティブ化規則の下で第2の物体Uをアクティブ化することができる。
【0106】
アクティブ/非アクティブ化規則が許す場合には、複数の物体をアクティブ化することができることを理解されよう。これは、本発明による3次元撮像システムの視野内の同じ3次元空間内で2人以上のユーザが対話できるようにする。
【0107】
具体的な例示的実施例を参照しながら本発明を説明してきたが、特許請求の範囲に記載する本発明のより広範な範囲から逸脱することなく、これらの実施例に様々な修正及び変更を加えることができることは明らかであろう。例えば、物体を予備アクティブ化、アクティブ化、及び/又は非アクティブ化するステップは、部分的に遮蔽された単一の物体に複数のクラスタが属すると判断される方法又はその判断の結果とは無関係に行うことができる。したがって、本明細書及び図面は、限定的な意味合いではなく例示的な意味合いとみなすべきである。

【特許請求の範囲】
【請求項1】
フレーム・シーケンス内の少なくとも1つの物体を追跡する方法であって、各フレームが画素アレイを有し、深さ値が各画素(5)に関連付けられ、また前記方法が、
a)各フレームの前記画素(5)の少なくともいくつかを複数の領域(R,…,R17)にグループ分けするステップと、
b)前記領域(R,…,R17)を、相互接続された領域のクラスタ(B,…,B)にグループ分けするステップと
を含む方法において、
c)2次元投影で別のクラスタ(B)に隣接する少なくとも1つのクラスタ(B,…,B)が前記別のクラスタ(B)の深さ値よりも高い深さ値を有する場合に、前記少なくとも1つのクラスタ(B,…,B)が前記別のクラスタ(B)によって部分的に遮蔽されている物体(U)に属すると判断するステップ
をさらに含むことを特徴とする方法。
【請求項2】
ステップc)は、前記2次元投影で前記別のクラスタ(B)への隣接性を共に有し且つ前記別のクラスタ(B)よりも高い深さ値を有する2つのクラスタ(B,…,B)が、前記別のクラスタ(B)によって部分的に遮蔽されている単一の物体(U)に属するかどうかを、前記より高い深さ値が互いに所定の範囲Δd内にあるかどうかに応じて判断するステップを含む請求項1に記載の方法。
【請求項3】
前記2次元投影で前記別のクラスタ(B)への隣接性を共に有し且つ前記別のクラスタ(B)よりも高い深さ値を有する2つのクラスタ(B,…,B)が、前記別のクラスタ(B)によって部分的に遮蔽されている単一の物体に属するかどうかが、前記2次元投影の少なくとも1つの軸線において前記2つのクラスタ(B,…,B)のそれぞれが前記2つのクラスタ(B,…,B)の他方と重畳しているかどうかに応じて判断される請求項1又は2に記載の方法。
【請求項4】
前記画素(5)の少なくともいくつかが、データ処理装置によって、ベクトル量子化アルゴリズムを使用して領域(R,…,R17)にグループ分けされる請求項1から3までのいずれか一項に記載のコンピュータ方法。
【請求項5】
前記ベクトル量子化アルゴリズムにおいて、
−第1のフレームにおいて、leader−followerアルゴリズムを使用して、前記画素(5)がK個の領域(R,…,R11)にグループ分けされ、
−後続のフレームにおいて、
・画素(5)を前のフレームの領域(R,…,R11)にグループ分けするように制約付きK−meansアルゴリズムが使用され、領域重心(C,…,C)から所定の距離Qよりも離れている画素(5)を排除するように距離制約が使用され、
・残っている画素(5)があればそれを新たな領域(R12,…,R17)にグループ分けするようにleader−followerアルゴリズムが使用され、また
・最後に、この後続のフレームにおいて、前のフレームの領域(R)にいかなる画素(5)も割り当てられていない場合には、その領域(R)が削除され、数値Kが1だけ減分される
請求項4に記載の方法。
【請求項6】
前記leader−followerアルゴリズムにおいて、
・画素(5)が領域重心(C,…,C)から前記距離Qよりも離れている場合には、新たな領域(R12,…,R17)が生成され、数値Kが1だけ増分され、また
・画素(5)が領域重心(C,…,C)から前記距離Q以内にある場合には、前記画素(5)が対応する領域(R,…,R11)に割り当てられ、それに従って重心の位置が更新される
請求項5に記載の方法。
【請求項7】
−前記2つの領域(R,…,R17)の一方での少なくとも1つの画素(5)と前記2つの領域(R,…,R17)の他方での別の画素(5)が2次元投影で隣接する場合、及び
−前記2つの領域(R,…,R17)の隣接する画素(5)の各対における深さの平均差が前記所定の距離Δd未満である場合に、
2つの領域(R,…,R17)が3次元空間内で接続されていると判断する請求項1から6までのいずれか一項に記載の方法。
【請求項8】
後続のフレームにおいて、前のフレームには存在しなかった新たな領域(R12、R13、R14)が前記3次元空間内で直接又は少なくとも1つの別の領域(R13)を介して既存のクラスタの領域(R、R11)に接続されている場合に、前記新たな領域(R12、R13、R14)が、前記前のフレームに既に存在していた相互接続された領域の前記既存のクラスタに属すると判断される請求項4から7までのいずれか一項に記載の方法。
【請求項9】
前記画素(5)を領域(R,…,R17)にグループ分けする前に、基準フレーム内の対応する画素(5)の深さ値と所定量Δd未満しか異ならない各画素(5)を前記シリーズ内の各フレームから削除する別のステップを含む請求項1から8までのいずれか一項に記載の方法。
【請求項10】
前記フレーム・シーケンスが、実世界シーンを捕捉する3D撮像デバイスからのビデオ・シーケンスである請求項1から9までのいずれか一項に記載の方法。
【請求項11】
前記画素を領域(R,…,R17)にグループ分けするステップの前に、撮像デバイスにリンクされた座標系から、前記実世界シーンでの点にリンクされた別の座標系に座標変換が行われる請求項10に記載の方法。
【請求項12】
前記シーケンスの少なくとも1つのフレームに関して、
−前記フレーム内の物体(U、U)が第1の組のアクティブ化基準を満たす場合に、前記物体(U、U)を予備アクティブ化するステップと、
−予備アクティブ状態の物体(U、U)が所定のアクティブ化規則の下で第2の組のアクティブ化基準を満たす場合に、前記予備アクティブ状態の物体(U、U)をアクティブ化するステップと
をさらに含む請求項1から11までのいずれか一項に記載の方法。
【請求項13】
前記第1の組のアクティブ化基準及び/又は前記第2の組のアクティブ化基準が、
−アクティブ化することができる物体の最大数、
−物体の位置、
−物体のサイズ、
−物体の動き、
−物体の形状、
−物体の色、
−物体がアクティブ状態又は非アクティブ状態を保っている、連続する前のフレームの最小数及び/又は最大数、或いは
−ユーザ選択
のうちの少なくとも1つの基準を含む請求項12に記載の方法。
【請求項14】
前記アクティブ化規則が、
−第2の組のアクティブ化基準を満たす全ての予備アクティブ状態の物体をアクティブ化する強制アクティブ化規則、
−アクティブ状態の物体が非アクティブ化される場合にのみ、前記第2の組のアクティブ化基準を満たす物体をアクティブ化するランク付きアクティブ化規則、
−前記第2の組のアクティブ化基準を最も良く満たす1つ又は複数の物体をアクティブ化する単純アクティブ化規則、
−関連し合う別のアクティブ状態の物体が非アクティブ化された場合に物体をアクティブ化する単純交換アクティブ化規則、
−別の物体によって遮蔽される又は遮蔽されている場合に物体をアクティブ化する遮蔽アクティブ化規則、又は
−別のアクティブ状態の物体に接触する場合に物体をアクティブ化する接触交換アクティブ化規則
からなる1組のアクティブ化規則のうちの1つである請求項12又は13に記載の方法。
【請求項15】
前記シーケンスの少なくとも1つの後続のフレームに関して、所定の非アクティブ化規則の下で物体が1組の非アクティブ化基準を満たす場合に、事前にアクティブ化されている物体を非アクティブ化するステップをさらに含む請求項12から14までのいずれか一項に記載の方法。
【請求項16】
非アクティブ化基準の前記組が、
−アクティブ化又は非アクティブ化することができる物体の最大数、
−物体の位置、
−物体のサイズ、
−物体の形状、
−物体の色、
−物体ランキング、
−物体がアクティブ状態を保っている、連続する前のフレームの最大数及び/又は最小数、又は
−ユーザ選択
のうちの少なくとも1つの基準を含む請求項15に記載の方法。
【請求項17】
前記非アクティブ化規則が、
−前記非アクティブ化基準の組を満たす全てのアクティブ状態の物体を非アクティブ化する強制非アクティブ化規則、
−非アクティブ状態の物体がアクティブ化される場合にのみ、前記非アクティブ化基準の組を満たす物体を非アクティブ化するランク付き非アクティブ化規則、
−前記非アクティブ化基準の組を最も良く満たす物体を非アクティブ化する単純非アクティブ化規則、
−関連し合う別の非アクティブ状態の物体がアクティブ化された場合に物体を非アクティブ化する単純交換非アクティブ化規則、又は
−別の非アクティブ状態であるが予備アクティブ化されている物体に接触する場合に物体を非アクティブ化する接触交換非アクティブ化規則
からなる1組の非アクティブ化規則のうちの1つである請求項16に記載の方法。
【請求項18】
請求項1から17までのいずれか一項に記載の方法を実施するためのコンピュータ実行可能命令を有するコンピュータ可読データ記憶媒体。
【請求項19】
請求項1から17までのいずれか一項に記載の方法を実施するようにプログラムされたコンピュータ・システム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4A】
image rotate

【図4B】
image rotate

【図4C】
image rotate

【図5】
image rotate

【図6A】
image rotate

【図6B】
image rotate

【図6C】
image rotate

【図7A】
image rotate

【図7B】
image rotate

【図8A】
image rotate

【図8B】
image rotate

【図8C】
image rotate


【公表番号】特表2013−516014(P2013−516014A)
【公表日】平成25年5月9日(2013.5.9)
【国際特許分類】
【出願番号】特願2012−546440(P2012−546440)
【出願日】平成22年12月28日(2010.12.28)
【国際出願番号】PCT/EP2010/070821
【国際公開番号】WO2011/080282
【国際公開日】平成23年7月7日(2011.7.7)
【出願人】(512168630)ソフトキネティック ソフトウェア (3)
【Fターム(参考)】