説明

物体のトラッキングおよび活動分析のためのシステムおよび方法

本発明の実施形態は、混雑した環境のリアルタイムのビデオ監視を提供するための方法およびシステムに関する。本方法は、入力ビデオの解像度およびオクルージョン・レベルに基づいて、個々の物体またはグループの物体をトラッキングするために、自動的に選択されてもよい複数の物体検出およびトラッキングのプロセスから構成されている。可能な対象となる物体(OOI)は人間、動物、車等であってよい。本発明は混雑した環境の中で人をトラッキングするために、または渋滞した交通状況の中で車をトラッキングするために使用されてもよい。

【発明の詳細な説明】
【技術分野】
【0001】
本出願は、内容の全体が参照により本明細書に組み込まれている、2005年9月13日に出願した米国仮出願第60/716,544号の利益を主張するものである。
【0002】
本発明の実施形態は、ビデオ監視を提供するための方法およびシステムに関し、より詳細には、混雑した環境のビデオ監視を提供するためのシステムおよび方法に関する。
【背景技術】
【0003】
物体の検出およびトラッキングのために、異なる方法が存在している。しかしながら、これらの方法およびシステムのうちの大部分は、当業者には知られているように、オクルージョン(occlusion)が少なく、解像度のレベルが高い個々の物体を検出するために適したものである。さらに、対象となる物体(OOI)をうまく抽出すること、および対象となる物体は一般に背景シーンの複雑さか、またはいかなる前景物体も伴わない背景シーンの入手可能性によって決まる。
【特許文献1】米国仮出願第60/716,544号
【特許文献2】米国特許出願公開第2003/0053659号
【非特許文献1】Grimson他、「Using adaptive tracking to classify and monitor activities in a site」、CVPR、1998年
【非特許文献2】Grimson他、「Learning patterns of activity using real−time tracking」、IEEE Transactions onPAMI、Vol22、No8、2000年
【非特許文献3】D.A.Forsyth and J.Ponce、「Computer Vision A Modern Approach」、Pearson Education、2003年
【非特許文献4】Mark.D.Fairchild、「Color Appearance Model」、Addison−Wesley、1998年
【発明の開示】
【発明が解決しようとする課題】
【0004】
したがって、高性能カメラ・システムのための、改良された前景物体抽出、検出およびトラッキングのためのシステムおよび方法が必要とされている。
【課題を解決するための手段】
【0005】
本発明の実施形態は、物体のトラッキングおよび活動分析のためのシステムおよび方法を提供することによって、これらの必要性およびその他の必要性を満たす。本発明の実施形態は、a)改良された背景モデルの適合のために高度な時間セマンティクスを使用すること(例えば持続時間の統計値(すなわち信頼レベルを備えた平均、分散)、およびカラー・モデルが異なるモデル分布の混合に対応する反復パターンなど)、b)改良された背景モデルの適合のために高度なシーン・セマンティクスを使用すること(例えば、物体に基づくシーンの変化対視野に基づくシーンの変化についての統計値など)、c)監視エリアの分析のために、高度な時間セマンティクスとシーン・セマンティクスとを組み合わせること、およびd)前景物体のないシーン・モデルを必要とせずに、最初の背景分析の堅固性を改良するために時間セマンティクスを使用することに基づいて、圧縮されていない領域および圧縮された領域で、カラー・モデルを使用して、背景を除去し、前景の区域を見つけ出すための手段を含む、混雑した環境の中での物体のトラッキングおよび活動分析のための装置および方法に関する。
【0006】
本発明の実施形態は、添付の図面と合わせて考慮される、以下に示された例示的実施形態の詳細な説明から理解されることが可能である。
添付の図面は、本発明の概念を示すためのものであるということを理解されたい。
【発明を実施するための最良の形態】
【0007】
図1に示されているように、システムは複数の部分から構成されている。初期化部分100の後の最初の構成要素は、背景除去部分101である。シーンの背景モデルを得るための初期化プロセスの後、このモデルは、変化またはカメラの動きに基づいた視野によるか(例えば明暗などによる)、または物体による(例えば新たな物体の追加、または背景物体の位置の変化による)シーンの変化に適合するために、その後更新される。次いで抽出された前景物体の区域は、対象となる物体(OOI)の存在を検出し、シーンの密集レベルを推定するために分析される(ブロック102)。推定されるオクルージョンおよび解像度のレベルとともに、密集レベルは適切なトラッキング・アルゴリズムを選択するために使用される(ブロック103)。フロー推定(104)およびトラッキング(105)アルゴリズムの出力は、イベント検出(106)のための運動分析を提供する。検出される可能性のあるイベントの一部は、以下で示されている例の中で挙げられているが、運動分析は異なるパターンについて調整されることが可能なので、その他のイベントがエンド・ユーザによって定義されてもよい。
【0008】
背景の除去
本発明の実施形態のこの部分(101)は、ビデオでの背景の除去方法に関する。この方法は、シーンの中の一時的な変化と永続的な変化とを区別するために、高レベルなセマンティクスを発展させることに基づいている。さらに、高レベルなセマンティクスからのフィードバックは、背景モデルの統計値を適合するために使用される。
【0009】
背景の除去プロセスのために、今日異なる方法が存在する。2つの主な分類は、連続したフレームを区別することと、現在のフレームをシーンの背景モデルと比較することに基づいている。本発明の実施形態は、後の方の方法を使用する。
【0010】
筆者は、Grimson他、「Using adaptive tracking to classify and monitor activities in a site」(CVPR、1998年)およびGrimson他、「Learning patterns of activity using real−time tracking」(IEEE Transactions on PAMI、Vol.22、No.8、2000年)の中で、観測されるピクセルがtの時間に輝度値vを有する確率をモデル化するために混合ガウス分布を使用している。ガウス確率の合計は、重みが対応するピクセルの混合モデルの各分布に割り当てられるところで加重される。この重みは、指数平滑移動平均(exponential moving average)を使用することによって更新される。さらに、分布の平均、分散は指数平滑移動平均を使用して、合致した分布のために更新される。
【0011】
米国特許出願公開第2003/0053659号では、探索エリアの中で移動する物体を監視し、悪影響を及ぼす恐れのある物体の経路を検出するためのシステムが定義されている。発明者によって述べられているように、前景物体の抽出は、各ピクセルが多変量正規(multi−normal)の表現式を有する、上で引用されたGrimsonの方法に類似している。高周波数でオンやオフになる背景の変化(例えば通り過ぎる雲など)は、Grimsonの方法では適切ではないので、この方法は変更されている。このため発明者は、ピクセルが既存の分布に合致する場合、およびピクセルがいかなる既存の分布にも合致しない場合に、ガウス確率の重みの計算を変更する。
【0012】
しかしながら、本発明の実施形態は、シーンの一時的な変化について高レベルなセマンティクスを得ることを可能にする異なる方法に関するものである。各分布に関連した1つの重みを用いる既存の方法は、例えば周期性および偶発性のレベルが異なる反復的な変化と長期間持続する変化など、シーンの変化のパターンを区別することができない。この情報は、長期間にわたりエリアを監視する高度な監視アプリケーションのために、特に重要なものである。さらに、この方法は、システムが移動中のカメラのパラメータを背景の変化の中に組み込むことをより簡単にすることができる。
【0013】
D.A.Forsyth and J.Ponceの「Computer Vision A Modern Approach」(Pearson Education、2003年)、およびMark.D.Fairchildの「Color Appearance Model」(Addison−Wesley、1998年)の中で説明されているように、異なるカラー・モデルが背景の除去プロセスのために使用されてもよい。本発明の実施形態によって、HSVおよびYUV/YIQのカラー・モデルが別々に、または組み合わせて使用されてもよい。当業者であれば、その他の適切なモデルが使用されてもよいということを理解されよう。YUV(またはYIQ)とは、1つのルミナンス(Y)と2つのクロミナンス要素(UおよびV)を有するカラー・モデルである。YUVはカラーTVに適したカラー・モデルであり、また人間の目はルミナンスに対してよりもクロミナンスに対しての方がより感度が低いことから、クロミナンス情報の圧縮のために優れた表現である。YUVスペースは、欧州でPALブロードキャスト・テレビジョン・システムのために使用されている。YIQカラー・スペースは、北米でNTSCブロードキャスト規格のために使用されている。HSVは色相、彩度および数値で表現されるカラー・モデルである。数値は、明度または輝度を表す。彩度は色の彩度を判定し、円錐の半径である。色相は、0から360度までで波光(波長)の周波数を判定する。値は、0から1までで白色光のレベルを判定し、円錐の高さである。彩度は色の豊かさである。中心軸近くの色が低い彩度を有する一方で、円錐の表面近くの色は高い彩度を有する。色相値は、赤が0で(赤は、V=1.0;S=1.0で、H=0度の座標を有する)、0から360度の間である。彩度が0に設定されると、色相は判定されず、値の軸はグレイ・スケールのイメージを表す。最も一般的なHSVの量子化は162(18×3×3)ビンの中にある。
【0014】
背景は、異なる理由のせいで変化する場合がある。背景の変化は、例えば明暗および物体の変化など、また例えば雲、新たな永続的な物体などの、環境の変化によるものである場合がある。時間的な特性については、これらは反復的および一定的変化として分類されることが可能である。例えば、木の枝および雲の動きによって、異なる背景モデルを有するピクセル/ブロックは反復的な方法で変化する。木の枝によって影響を受けるエリアでは、これらのエリアの中での反復の持続時間は、通り過ぎる雲によって影響を受ける空のエリアとは異なる。駐車中の車は、変化が一定である時間間隔の間、背景モデルを変化させる。明暗は、例えば昼対夜などの長い期間についての反復的な方法か、または電気をオンにすること、新たな物体による影等などの偶発的な方法で突然に変化することが可能である。
【0015】
既存のアルゴリズムの1つの欠点は、絶対時間に関して、背景の除去のための時間的モデルを判定することが簡単ではないということである。本発明の実施形態の目的は、変化が生じる持続時間および変化の時間的特性に応じて変化を分類することによって、背景シーンの中の変化をモデル化することである。このために、持続時間および忘却係数の2つの時間パラメータが使用されることが可能である。持続時間は、ピクセル/ブロックが背景モデルに割り当てられるフレームの数を判定する。忘却係数は、ピクセル/ブロックが背景モデルに最後に割り当てられた時を判定する。反復モデルでは、2つの背景モデルの持続時間は同様のものであるが、その一方で忘却係数はこれら2つのモデルについて、それぞれ異なっている。比較的一定した変化では、新たな背景モデルについて持続時間はより長くなり、忘却要素は小さくなるが、その一方で対応するエリアについてのその他の背景モデルの忘却係数はより大きくなり、継続期間は一定のままである。前景物体モデルについては、同じパラメータが使用されるということに留意されたい。さらに、これらのパラメータによって、エンド・ユーザは前景物体抽出モデルを制御することができる。例えば1つの適用例では、目的は駐車時間などの情報を集めるために、駐車中の車を前景物体として分類することであってもよく、一方で別の適用例では、道に沿って駐車された車が背景物体とみなされてもよい。
【0016】
初期化段階の間に背景モデルの統計値が計算される(図2)。背景モデルの統計値はモデル構成要素の平均および共分散、ならびに背景モデルの持続時間(すなわちピクセル/ブロックが対応する背景モデルに割り当てられるフレームの数)から構成されている。さらに忘却係数が計算され、その分散が観測される。はじめに、ステップ201でパラメータが初期化される。画像は、平滑化オプションが選択される(ブロック202)場合、背景ノイズの影響を減少させるために平滑化されてもよい(ブロック203)。初期化段階での各フレームのために、背景モデルのパラメータが更新される(ブロック204)。初期化段階は、調整条件の基準が満たされるまで継続する(ブロック205)。この基準は、調整期間の間の持続時間が最も多い分布の分散に基づいていてもよい。初期化段階の間、異なる分類方法(例えばK−meansアルゴリズムなど)が適用されることが可能である。
【0017】
物体の検出およびトラッキングは、最初の調整部分の間には実行されないということに留意されたい。背景モデル化の調整部分は、シーンの情報を得ることが、アルゴリズムの検出およびトラッキングの信頼性および堅固性を向上させることを可能にする。目的は、任意の静止した前景物体を除去することである。適合段階は、シーンの中の一時的な変化と永続的な変化とを区別し続ける。
【0018】
持続時間および忘却係数は、上述のような背景モデルの中の変化についての高レベルなセマンティクスを得るために使用される時間的な統計値である。
【0019】
調整段階の間、一部の前景物体はしばらく静止してもよい。調整段階の間に物体が長い期間静止している場合、それは背景物体として仮定される。したがって、調整期間は、一時的な物体と永続的な物体とを区別するための基準を定義する。例えば、監視カメラが信号のところに配備されている場合、最初に赤信号で停止している車は背景物体とはならないが、一方で道の隣で駐車されている車は背景の一部となる。また、この分類は適合段階の間継続するということにも留意されたい。さらに、対象となる物体の検出は、前景物体を区別するために使用されてもよい。
【0020】
調整の後、最初の背景モデル(ブロック302)は変化に対して適合される(図3)。調整段階が処理の前にフレームを平滑化する場合、同じ平滑化プロセス(ブロック203)が後で適合される。忘却係数を用いて指数移動平均を取り入れることによって、背景モデルが更新される(ブロック301)。忘却係数が大きい場合、新たな更新が有力なものとなる。そうではない場合、平均部分が有力なものとなる。各ピクセルのカラー構成要素は、各分布の統計値と比較される。ピクセルが分布のうちの1つと合致する場合、平均、分布の共分散、持続時間および忘却係数が更新される。そうではない場合、新たな背景の分布が作成される。新たな前景物体が永続的な背景の変化である場合、このエリアはその後背景とみなされる。この判定は、これが視野に基づくか、または物体に基づく変化による反復的な変化であるかどうかを理解するために、持続時間および忘却係数に基づくものでもよい。持続時間パラメータは、背景の変化の再出現に基づいて計算されてもよい所定の期間に応じて正規化されることが可能であるということに留意されたい。物体の検出およびトラッキングの結果(ブロック102〜105)は、OOIモデルに合致しない前景としてラベル付けされた区分がある場合に(ブロック303)、背景モデルを修正するために使用される。対象となる物体の隣にある区分は、陰影、背景エラー等の複数の要素によって、前景区域として誤って分類される場合がある。この区域が物体検出ステップ(102)で、対象となる物体の一部として分類されない場合、この区域を背景物体として分類するためにフィードバックが使用される。この機能は、前述のような陰影を除去するような場合を改良するために役立つ。このシステムの目的は、背景−前景分類のための柔軟なモデルを有するということである。例えば駅の監視システムは、人以外のすべてのものは背景とみなされながら、人々だけを監視することを目的としてもよい。このため、シーンの中のその他の物体を背景物体として分類するために、物体検出アルゴリズムからのフィードバックが使用されてもよい。
【0021】
背景モデルの大部分は、可能な前景物体を形成するために、接続された構成要素が後で適用される場所に基づいたピクセルである。背景のピクセルを再分類するために、前景物体検出からのフィードバックを使用することは、例えば人が、その人の衣服に類似した背景色のエリアに向かって歩いている場合など、複数の場合における誤分類を克服するためにも役立つ。さらに、背景モデルの高レベルなセマンティクスが計算され(ブロック304)、それらは更新プロセスに対するフィードバックとして使用される。
【0022】
アルゴリズムは、ピクセル/ブロックが有する可能性のある分布の最大数を使用する。この数はピクセル/ブロックを背景モデルに割り当てるために、比較基準によって制御される。例えば、基準が0と255との間のルミナンス構成要素の平均に基づいており、しきい値が64である場合には、この値は最大で4である。分布の最大数に厳しい制限がある場合、最大の忘却係数と最小の持続時間とを備えた背景モデルが上書きされてもよい。忘却係数は、ピクセル/ブロックが対応する背景モデルに最後に割り当てられた時を現在のフレーム数に設定することによって、更新される。
【0023】
OOIの検出および密集レベルの推定
本発明の実施形態のこの部分(102)は、OOIの存在を見つけ出す方法に関する。この方法は、オクルージョンのレベルが高く、解像度のレベルが低い混雑した環境の中で人などのOOIを検出するために適している。可能な適用例は、密集レベルを検出するために、密集したエリアの中で人々を検出することである。他の物体検出方式とは違って、解像度が低く、オクルージョンのレベルが高いために、これらの画像の中で確実に色、形状および運動が使用されることはできない。したがって、検出のために、DCT係数に基づいたより抽象的な表現が使用される(図4)。
【0024】
上で定義された背景除去アルゴリズムは、運動分析が行われる対象となる区域(ROI)を抽出するために(401)、高レベルなシーン情報とともに使用される。高レベルな情報(402)は、マスキング・プロセスとしてユーザによって導入されるか、またはシーンの中で所定のOOIを検出するためにアプリオリな調整を実行することによって導入されてもよい。後者のものは、類似のシーンを使用することによって、その区域にラベル付けするために自動的に行われる。例えば、駅の中の監視エリアはプラットフォームおよび鉄道エリアから構成されていてもよい。物体の検出は、所定の対象となる区域の中だけで行われてもよい。その後、異なる対象となる区域での物体検出結果に応じて、異なるイベントが定義される。
【0025】
次いでこれらの対象となる区域は、物体検出アルゴリズムを適用するために、ブロック分割される(403)。OOIを検索するための画像中のブロック・サイズは、カメラに対する位置によって決まる。このために、従来のカメラ補正方法が使用されることが可能である。最も簡単な形態では、複数の(n個の)ブロック・サイズは、フレームをy方向でnの区域に分割することによって使用されてもよい。
【0026】
両方の方向にスライドされた各ブロックのために、DCT係数が計算される(404)。解像度が低い画像エリアでは、カラー構成要素は一般に信頼性が高いものではないので、ルミナンス値のDCT係数のみが使用されてもよい。彩度のレベルが高い(例えばS>HSVカラー・モデルのしきい値)場合、カラー構成要素のDCT係数も使用されてよい。
【0027】
次いで、DCT係数に基づいたOOIのテンプレート(405)は、モデル・テンプレート(406)と比較するために(407)作成される。このテンプレートのための選択肢は、元々のブロックのより小さなブロックの中でDCT係数を使用することである。例えば、先頭エリアは、円形エリアの境界の中で高いAC値を形成する。その他の選択肢は、DCT値に基づいて固有画像(eigenimages)を作成することである。このために、第1のmのAC係数の加重総和が使用されてもよい。固有画像は、OOIのシルエットを作成する。例えばこのために、人々の頭−肩のエリアのシルエットが使用されてもよい。シルエットのためのモデル・テンプレートは、遮蔽されたシルエットための調整によって作成されることが可能である。その後、モデル・テンプレートを計算されたシルエットと比較するために、主要構成要素分析が使用されてもよい。
【0028】
DCT係数の変わりに、ウェーブレット・パラメータ(または同様の圧縮方法)もまた、遮蔽されたOOIを検出するために使用されてもよい。
【0029】
この部分の出力によって、シーンの中の密集レベルの推定が可能になる。シーン(またはシーンの一部)の密集レベルによって、グループまたは個々の運動分析が実行される。後で、異なるアプリケーションが実装されてもよい。例えば、エリア当たりの起立している人の数がしきい値を上回る場合に警報を与えるために、次の節で説明されるフロー推定アルゴリズムが使用されてもよい。
【0030】
密集レベルを計算するために、各ブロックで、OOIが検索されるエリアは1とマークされる。エリア全体に対して1とマークされるエリアの割合が所定のしきい値よりも大きい場合、そのエリアは密集しており、エリア当たりの密集レベルが計算される。ブロックのサイズは、カメラの補正結果に応じて適合されるということに留意されたい。
【0031】
検出プロセスの信頼度を高めるために、同じアルゴリズムがN個のフレームに適用され、結果の平均がブロックのために使用される。フレームの数Nは、フロー推定の結果によって決まる。フロー推定がブロックの中で高い運動性および変化を示す場合、Nのために小さな数が選択され、そうでない場合、検出の信頼度を高めるために大きな数が使用される。結果は、ROI(402)およびOOI(406)の属性を更新するために使用される。例えば、OOIの固有画像は大きな数Nのための小さな分散で計算される場合、テンプレート・モデルの中に含まれる。
【0032】
OOIグループのフロー推定
図5を参照し、続いて図1を参照すると、本発明の実施形態のこの部分(104)は、OOIのフローを推定する方法に関する。本発明の実施形態の目的は、低レベルな運動特徴を計算するために単純で迅速なアルゴリズムを使用しながら、それらを群集運動の平均の推定などの高レベルな属性に結び付けるために、堅固で信頼度の高い方法を使用することである。このアルゴリズムは、検出されたOOIに運動特徴を結び付けるために、物体検出アルゴリズムとともに使用される。OOIは柔らかい物体(例えば人、動物など)および堅い物体(例えば車、列車など)であることが可能である。このアルゴリズムの結果は、群集フローの推定のために使用されてよい。考えられる適用例は、人々、動物、車等のグループのためのフロー推定を含む。
【0033】
前節で選択されたブロックのために、例えばKanade−Lucasトラッキング・アルゴリズムなどの異なるアルゴリズムが、低レベルの運動特徴(501)を計算するために使用されることが可能である。このアルゴリズムの出力は、xおよびy方向で運動ベクトルを示す。運動ベクトルの大きさが所定のしきい値よりも大きい場合、グループの中の各ピクセルのための方向(例えば4または8の方向)が判定される。全体の方向および大きさは、方向および大きさの値(503)に基づくピクセルを使用することによって計算される。例えば平均および分散値など、異なる統計値が運動属性のために使用されてもよい。ブロックの中の分散は、ブロックエリア中のOOIの異なる運動、またはこのブロックの中のOOIの一部の異なる運動によるものである可能性がある。これらの2つの場合を区別し、運動分析をより信頼できるものにするために、前節で検出された運動グループおよびOOI区域は、低レベルの運動パラメータを、例えば特定のOOIの運動などの高レベルのセマンティクスに結び付けることを目的としてマップされる。このために、OOIとラベル付けされたエリアは、特定の運動ベクトルのために、1とマーク付けされたエリアと比較される。
【0034】
フロー推定の信頼度を高めるために、ブロックの運動がM個のフレームでトラッキングされ、平均運動が計算される。Mは、ブロック中の個々のピクセルの方向およびブロック全体の方向の分散などの運動パラメータによって決まる。パラメータは、M個のフレームの各々で再設定される。Mはブロック当たりで選択されるか、またはシーン中の最も高い運動性に基づいて選択されてもよい。
【0035】
運動ベクトルは、ROI(402)およびOOI(406)の属性を特徴付けるためにも使用される。例えば、鉄道エリアの運動ベクトルは、運動ベクトルが同じ方向にうまく向けられた高速エリアに一致する。これは、前節で定義された特徴に関連した形状などのその他の属性とともに、(やって着て、停止し、出発する)列車を検出するために使用される。
【0036】
イベント検出(504)は、物体検出の出力およびフロー推定アルゴリズムを使用することによって、使用される。例えば鉄道駅については、ROIはプラットフォームおよび鉄道エリアであり、一方でOOIは人々および列車である。ブロックの中でまとめられた運動ベクトルは、その大きさが特定のしきい値を上回る場合、処理されてもよい。一例では、起立している移動中の人の割合が計算され、表示される。エリア当たりの起立している人の数がしきい値を上回る場合、警報が与えられる。
【0037】
トラッキング
図6を参照し、続いて図1を参照すると、本発明の実施形態のこの部分(105)は、例えば個々の人々の行為などの運動分析を行うために個々のOOIをトラッキングする方法に関する。この部分のトラッキング・アルゴリズムは対象となる物体(OOI)の形状、色および運動パターンに基づいている。目的は、異なるフレーム中の区分の低レベルの画像特徴を合致させるために単純で迅速なアルゴリズムを使用しながら、それらを高レベルのOOIの属性に結び付けるために、区域を結合/分割するための高度なアルゴリズムを使用することである。低レベルの特徴はフレーム中の区域のピクセルの色、運動ベクトルであることが可能であり、その一方で高レベルの属性は、この区域(例えば、カメラの方に向かって移動している人の頭−胴体エリアに対応する区域など)に割り当てられたラベルである。OOIは柔らかい物体(例えば人、動物など)および堅い物体(例えば車、列車など)であることが可能である。このアルゴリズムの結果は、イベント分類のための関節運動、ジェスチャー、剛体運動を含めて、運動分析のために使用されてもよい。この発明の目的は、オクルージョンおよび視野変更の場合にも、堅固で信頼度の高いOOIのトラッキングを提供することである。
【0038】
前景区域は、前景とマーク付けされたピクセルの結び付けられた構成要素として、背景除去アルゴリズム(101)から取得される。区域は、異なる前景区分の組合せであってもよい。
【0039】
各区域は、(ステップ602で属性を形成するための)以下の構造を有する。
【0040】
区域の輪郭点が使用される場合:
Number:この区域の輪郭点の数
X:この区域の輪郭点のx座標
Y:この区域の輪郭点のx座標
M_color[i]:この区域の中のカラー・モデルのi番目の構成要素の平均(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)。一部の実施形態では、その他の統計値が含まれてもよい。
CV_color[i]:この区域の中のカラー・モデルのi番目の構成要素の共分散(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)
Blacklist_num:この区域に合致されるべきではないOOI区域の数。実装によって、Blacklist属性は、OOI区域の属性として設定されてもよい。
Blacklist:この区域に合致されるべきではないOOI区域のID(ids)を維持するための配列。
Difference:この区域とトラッキングされる人区域との間の属性の場合の差を保持するための時間的値。一部の実施形態では、実装によって、この値は置き換えられてもよい。
【0041】
区域中のすべての点が使用される場合:
Number:この区域の中の点の数
X:この区域の点のx座標
Y:この区域の点のx座標
M_color[i]:この区域の中のカラー・モデルのi番目の構成要素の平均(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)
CV_color[i]:この区域の中のカラー・モデルのi番目の構成要素の共分散(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)
Blacklist_num:この区域に合致されるべきではない人区域の数。
Blacklist:この区域に合致されるべきではない人区域のIDを維持するための配列。
Difference:この区域とトラッキングされる人区域との間の属性の場合の差異を保持するための時間的値。
【0042】
例えばテクスチャ・パターンおよび/または肌色の小区域など、その他の属性が属性リストの中に追加されてもよいということが、当業者には理解されよう。
【0043】
各前景区域(601)のための属性は、ステップ602で計算される。入力引数はNumber、x、yおよびフレーム中の点のカラー値である。カラー構成要素の統計値(例えば平均および分散など)は、区域の異なるブロックのために生産される。これは、OOIの異なる部分を区別し、オクルージョンの場合にOOIの部分をトラッキングするために役立つ。
【0044】
トラッキングされる各OOI区域は以下のような属性を有する。
Mean_X:OOI区域の中の点のX座標の平均
Mean_Y:OOI区域の中の点のY座標の平均
Max_X:OOI区域の中の点の最大値Xの座標
Min_X:OOI区域の中の点の最小値Xの座標
Max_Y:OOI区域の中の点の最大値Yの座標
Min_Y:OOI区域の中の点の最小値Yの座標
Major_X:OOI区域の中の点のX座標の長軸
Major_X:OOI区域の中の点のY座標の長軸
First Frame:このOOIが検出される第1フレーム。実装(例えば割り込み優先順位、速度制約など)およびコンピュータの処理能力によっては、すべてのフレームがトラッキングのために処理されるわけではない。フレームのうちのいくつかは、スキップされる場合がある。すべてのフレーム、および処理されるフレームのために、フレーム数を別にしておくことが重要である。OOIのための属性は、処理されるフレームの数に基づくことが可能である。
Last Frame:このOOIが検出される最後のフレーム
Combined_Flag:OOIが現在のフレームの中の単一の物体として、または別の物体に隠蔽されたものとして検出される場合に示されるフラグ。
M_color[i]:ウィンドウ中のカラー・モデルのi番目の構成要素の平均(OOIの異なるウィンドウで表示されたエリアの中のカラー属性)(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)
CV_color[i]:ウィンドウ・エリアの中のカラー・モデルのi番目の構成要素の共分散(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)
MatchedRegion:このOOIに合致された前景区域のID
Dx:現在のフレームの中のこのOOIのMean_Xと検出されていた前のフレームの中のこのOOIのMean_Xとの間の距離
Dy:現在のフレームの中のこのOOIのMean_Yと検出されていた前のフレームの中のこのOOIのMean_Yとの間の距離
Dv:DxとDyとから計算されたOOIの運動の速度。速度は、このOOIのための現在のフレームと最後に処理されたフレームとの間の差に応じて、正規化されるべきである。
【0045】
さらに、物体が遮蔽される場合にエラーを減少させるために、単一のOOIが単一の区域か、または区域の組合せに合致される場合、以下の属性が保持される(視野の角度および/またはそれらの運動が変化すると、物体の属性はやがて変化するので、これらの属性の使用法はOOIによって決まる)。
Single_Mean_X:OOI区域の中の点のX座標の平均
Single_Mean_Y:OOI区域の中の点のY座標の平均
Single_Major_X:OOI区域の中の点のX座標の長軸
Single_Major_X:OOI区域の中の点のY座標の長軸
Single_LastFrame:このOOIが検出される最後のフレーム
Single_M_color[i]:この区域の中のカラー・モデルのi番目の構成要素の平均(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)
Single_CV_color[i]:この区域の中のカラー・モデルのi番目の構成要素の共分散(例えば、HSVカラー・モデルが使用される場合、色相、彩度および値の構成要素が計算される)
【0046】
例えばテクスチャ・パターンおよび/または肌色の小区域など、その他の属性が属性リストの中に追加されてもよいということが、当業者には理解されよう。
【0047】
アクティブ・リストからOOIを除去するための複数の選択肢が存在する。1つの選択肢では、OOIは監視エリアの視野の外側にいると仮定される場合、それ以上トラッキングされた物体の表の中に維持されることはない。この仮定は、このOOIがその最後のフレーム以来検出されていない処理されたフレームの数を述べるしきい値に基づいている。さらに、この目的で(例えば、検出されたOOIの最初フレームおよび最後のフレームの位置を使用することによって、シーンの入場/退場エリアを推定することなど)、シーンについての高レベルな情報が使用されることになる。しかしながら、このリストは、1)同じOOIが視野のエリアに入った/視野のエリアから退いたと仮定される場合(例えば人々のIDが、フレームの高解像度が利用可能であるときに、顔認識またはその他のアイデンティティに基づいた認識アルゴリズムに基づいて保持される場合など)、および2)OOIがカメラの視野エリアから出て、別の隣のカメラの視野エリアに入るところで、複数のカメラの調整が実施される場合の2つの場合について、物体が視野エリアの外側にある場合でもOOIの情報を保持してよい。本発明の実施形態は、監視のために複数のカメラが使用されるところで使用されてもよい。既存のアルゴリズムは、複数のカメラからの画像融合のために使用されてもよい。この場合、中央プロセッサは複数のカメラから得られたフレームのために本発明の実施形態を適用する。別の選択肢は、各カメラがその視野エリアを処理し、次いで位置情報に基づいて、候補のカメラにトラッキング・データを送信する分散型システムを使用することである。任意で、各OOIの属性は対応するフレーム番号とともに保存される。
【0048】
合致ブロック603のための入力は、現在のフレームの中の前景区分と、以前のフレームの中の検出されたOOIである。処理されるべき個々の前景区域および組み合わせられた前景区域(REG)の区域番号が存在する。本明細書で説明される例示的なアルゴリズムは、区域についての外側ループを使用し、複数の区域に対して、トラッキングされているものと同じOOIを合致させてもよい。したがって、この区域を別のOOIに合致させるために、区域が以前にOOIに合致していない場合、区域番号が増やされてもよい。
【0049】
OOIについて、以下の遷移が生じてもよい。
1.区域に合致された単一のOOI→別のOOIのある領域に合致された、遮蔽されたOOI
2.別のOOIのある区域に合致された、遮蔽されたOOI→区域に合致された単一のOOI
【0050】
第2の選択肢は、以前のフレームの中でOOIが単一のOOIとして検出されなかった場合、最初にオクルージョンのレベルおよび利用可能な解像度に応じて、1つのOOIとして2つのOOIが合致することにつながってもよい。
【0051】
合致アルゴリズムは、REG(個々の前景区分または組み合わせられた前景区分)によって示された区域を個々のOOIまたは組み合わせられたOOIに合致させる。合致プロセスを明確にするために、以下に(ブロック603〜605についての)例示的なアルゴリズム・フローが示される。トラッキングを目的として、シーンの中の新たな区分を合致させるために、同様のアルゴリズムがOOIの高レベルの属性を集めるために使用されてもよい。
【0052】
REGのOOIへの合致



【0053】
組合せが、それらの中でいかなる制約もなく行われる場合、一部の組合せは意味のないものである場合がある。2つの領域があって間に別の区域を有するが、その中間のものが取られることはないといった場合である。組み合わせられた区域の間の小さな区域のミスを考慮に入れるために、組み合わせられた検索の選択肢が含まれる。
【0054】
LOCATION_TABLEは、REGの中の個々のOOIの位置を定義する。OOIは区域の最も左側(MIN_X)および/または区域の最も右側(MAX_X)および/または区域の最下部(MIN_Y)および/または区域の最上部(MAX_Y)および/または区域の内側にあってもよい。OOIが別のOOIか、または背景物体で遮蔽されている場合、OOIの位置はOOI上の異なるウィンドウで表示されたエリアに基づいて、色、形状、運動属性および(変位制約などの)制約を使用することによって見つけ出される。例えば、OOI上の異なるウィンドウで表示されたエリアは、カラー構成要素に基づいて、REGに対して合致される。OOIの一部が遮蔽されている場合、一部のウィンドウで表示されたエリアは合致されることはないが、別のエリアは、(物体の平均の推移についてだけ対処するアルゴリズムとは対照的に)オクルージョンのレベルに応じて合致する。
【0055】
OOIが任意の区域(606)に合致されない場合、以下のように、対応するREGのために新たなOOIが作成される(607)。

新たなOOI属性の設定
OOI.Max_X=REG.Max_X
OOI.Min_X=REG.Min_X
OOI.Max_Y=REG.Max_Y
OOI.Min_Y=REG.Min_Y
OOI.Major_X=OOI.Max_X−OOI.Min_X;
OOI.Major_Y=OOI.Max_Y−OOI.Min_Y;
OOI_Mean_X=REG_Mean_X;
OOI_Mean_Y=REG_mean_Y;
OOI_Lastframe=this frame;
OOI_Firstframe=this frame;
OOI_Matchedregion=REG;

OOI.Combined_flag=0
OOI.M_colo[i]=REG.M_Color[i]
OOI.CV_color[i]=REG.CV_Color[i]
OOI.Dx=0
OOI.Dy=0
OOI.Dv=0
OOI.Single_Mean_X=OOI.Mean_X
OOI.Single_Mean_Y=OOI.Mean_Y
OOI.Single_Major_X=OOI.Major_X
OOI.Single_Major_X=OOI.Major_X
OOI.Single_LastFrame=OOI.LastFrame
OOI.Single_M_color[i]=OOI.M_color[i]
OOI.Single_CV_color[i]=OOI.CV_color[i]
【0056】
1つのOOIが2つ以上の区域(608)に合致される場合、以下のサブルーチン(609)が実行される。

OOIに合致されるべき最も近いRFGを見つけ出す

【0057】
合致プロセスは、アクティブ・リストの中のOOI間の色、形状および運動の差、および現在のフレームの中の新たな区分を考慮に入れるので、オクルージョンの影響は減少される。運動推定部分は、OOIに合致された区域の部分の平均運動を計算する。異なる運動推定アルゴリズムは、上述のような低レベルの特徴を使用することによって、現在のフレームの中の区域を前のフレームの中のOOIに対応する区域と合致させるために使用されることが可能である。この部分は、低レベルの特徴によって合致された区分の組合せ/断片化として見つけ出された区域の高レベルな合致に対処する。したがって、以下の運動パラメータは、OOIの全体またはOOIの一部(例えば、人間の四肢、胴など)としてラベル付けされた区域に対応する。



【0058】
以下のサブルーチンは、シーンを離れたOOIのなどの古い情報を除去するための一例である。著しいオクルージョンまたはその他のエラーによって合致が失敗する可能性があるので、OOIはリストから直ちに除去されることはない。

OOIリストの更新


【0059】
アルゴリズムは、複数のOOIについて、特定のフレーム当たり処理時間を超えないように最適化されなければならない。OOIが多数ある複雑なシーンについては、処理能力の制限のために、いくつかのフレームがスキップされる場合がある。これは処理されるフレームの数に対する、しきい値(特には位置および運動の差)の適合を必要とする。例えば2つのフレームがスキップされる場合、OOIの最後の位置とその新たな位置との間の差は大きくなる。
【0060】
(物体のサイズが小さな)解像度の低い画像では、運動分析は本体の全体に基づいて実行され、一方で解像度の高い画像では、運動分析は異なる物体の部分の分析に基づいて実行される。この節で説明されている後者のものの結果は、異なるイベント検出のために使用されてもよい。例えばDxおよびDy値は、OOIの方向およびその速度(例えば歩行対走行など)を推定するために使用されてもよい。(起立している人のためのMAX_Y部分に対応する)検出された頭部エリアとともにMajor_XおよびMajor_Y属性を使用することは、落下した人を検出するために役立つことがある。列車、車などの堅い物体の運動分析は、OOI.Dx、OOI.DyおよびOOI.Dvの属性を比較することによって同様に行われる。
【0061】
本発明の実施形態による例示的装置
本発明の実施形態は、a)改良された背景モデルの適合のために高度な時間セマンティクスを使用すること(例えば持続時間の統計値(すなわち信頼度を備えた平均、分散)、およびカラー・モデルが異なるモデル分布の混合に対応する反復パターンなど)、b)改良された背景モデル適合のために高度なシーン・セマンティクスを使用すること(例えば、物体に基づくシーンの変化対視野に基づくシーンの変化についての統計値など)、c)監視エリアの分析のために、高度な時間セマンティクスとシーン・セマンティクスとを組み合わせること、およびd)前景物体のないシーン・モデルを必要とせずに、最初の背景分析の堅固性を改良するために時間セマンティクスを使用することに基づいて、圧縮されていない領域および圧縮された領域で、カラー・モデルを使用して、背景を除去し、前景の区域を見つけ出すための手段を含む、混雑した環境の中での物体のトラッキングおよび活動分析のための装置に関する。
【0062】
この装置はさらに、a)カメラ補正およびシーン中の物体のサイズの分析に基づいて、ブロックに分割された対象となる区域を抽出すること、b)(例えばDCTを使用して)低周波および高周波のブロックの構成要素のためにテンプレートを計算すること、c)テンプレートをラベル付けされたテンプレート(例えば、一緒に起立している人々のグループの頭−肩エリアなど)に合致させるために調整を行うこと、およびd)対象となる物体の存在を見つけ出すために、入力画像テンプレートを調整されたテンプレートのものと比較することに基づいて、解像度が低く、オクルージョン・レベルが高いところで対象となる物体を見つけ出すための手段を含むことができる。
【0063】
本発明の実施形態によって、この装置は、推定された密集レベルおよびオクルージョン・レベルに基づいて、(例えばグループ対個々の物体などの)適切な検出およびトラッキング・アルゴリズムを選択するための手段を含むことができる。さらに、この装置は、a)フロー・ブロックを可能な対象となる物体でマーク付けされたエリアに対応させること、b)そのブロック中の個々のピクセルの方向およびブロック全体の方向の分散などの運動パラメータを使用して、これらの統計値に基づいてグループの運動についての信頼レベルを計算することに基づいて、解像度が低く、オクルージョン・レベルが高いところで対象となるグループ物体をトラッキングするための手段を含む。
【0064】
本発明の実施形態によって、この装置は、a)解像度が低く、オクルージョン・レベルが高いところで対象となる物体を見つけ出す方法に基づいて、密集レベルを推定すること、b)光フロー計算の方法を使用することによって、対象となる物体のグループのフローを推定すること、およびc)活動およびイベントを見つけ出すためにa)およびb)の結果を組み合わせること(例えば増加する密集レベルをトラッキングし、起こりうる危険な状況などのイベント検出のために、密集レベルが高く、運動が少ないエリアを区別すること、列車/バス駅の自動分析など)に基づいて、解像度が低く、オクルージョン・レベルが高いところで活動を分析するための方法を含むことができる。
【0065】
実施形態はまた、a)画像ブロックの加重された形状、色、運動パターンを使用して、オクルージョン問題を克服することを目的として、対象となる物体のテンプレートを合致させるためにブロックを結合/分割すること、b)分散/平均などの統計値に基づいた各パターンの信頼レベルを使用することによって、パターンの重みを変更すること、c)前景区域の個々のもの、および/または組合せに合致させるため、および検出された対象となる物体の組合せを前景区域に合致させるために、シーンの中で検出された対象となる物体のリストを保持すること、d)歩行/走行/落下などの活動を見つけ出すためにa、bおよびcを使用すること、e)シーンの高レベルなセマンティクスを見つけ出すために(例えば、シーンの退場/入場エリアを見つけ出すことなど)、物体検出の出力を使用し、検出の信頼度を高めるために高レベルなセマンティクスを使用すること(例えば物体がシーンを離れるか、または遮蔽されている可能性を理解するために、退場/入場エリアを使用することなど)、およびf)信頼できる分散型監視システムを提供することを目的として、可能な物体のトラッキングについて隣のカメラに通知を行うために、高レベルなセマンティクスを使用することに基づいて、個々の対象となる物体およびそれらの活動を見つけ出すための手段も含むことができる。
【0066】
本発明の実施形態による例示的な方法
本発明の実施形態は、
1)a)改良された背景モデルの適合のために高度な時間セマンティクスを使用すること(例えば持続時間の統計値(すなわち信頼度を備えた平均、分散)、およびカラー・モデルが異なるモデル分布の混合に対応する反復パターンなど)、b)改良された背景モデル適合のために高度なシーン・セマンティクスを使用すること(例えば、物体に基づくシーンの変化対視野に基づくシーンの変化についての統計値など)、c)監視エリアの分析のために、高度な時間セマンティクスとシーン・セマンティクスとを組み合わせること、およびd)前景物体のないシーン・モデルを必要とせずに、最初の背景分析の堅固性を改良するために時間セマンティクスを使用することに基づいて、圧縮されていない領域および圧縮された領域で、カラー・モデルを使用して、背景を除去し、前景の区域を見つけ出すステップと、
2)a)カメラ補正およびシーン中の物体のサイズの分析に基づいて、ブロックに分割された対象となる区域を抽出すること、b)(例えばDCTを使用して)ブロックの低周波および高周波の構成要素のためにテンプレートを計算すること、c)テンプレートをラベル付けされたテンプレート(例えば、一緒に起立している人々のグループの頭−肩エリアなど)に合致させるために調整を行うこと、およびd)対象となる物体の存在を見つけ出すために、入力画像テンプレートを調整されたテンプレートのものと比較することに基づいて、解像度が低く、オクルージョン・レベルが高いところで対象となる物体を見つけ出すステップと、
3)推定された密集レベルおよびオクルージョン・レベルに基づいて、適切な検出およびトラッキング・アルゴリズム(例えばグループ対個々の物体など)を選択するステップと、
4)a)フロー・ブロックを可能な対象となる物体でマーク付けされたエリアに対応させること、およびb)そのブロック中の個々のピクセルの方向およびブロック全体の方向の分散などの運動パラメータを使用して、これらの統計値に基づいてグループの運動についての信頼レベルを計算することに基づいて、解像度が低くオクルージョン・レベルが高いところで対象となるグループ物体をトラッキングするステップと、
5)a)解像度が低く、オクルージョン・レベルが高いところで対象となる物体を見つけ出す方法に基づいて、密集レベルを推定すること、b)光フロー計算の方法を使用することによって、対象となる物体のグループのフローを推定すること、およびc)活動およびイベントを見つけ出すためにa)およびb)の結果を組み合わせること(例えば増加する密集レベルをトラッキングし、起こりうる危険な状況などのイベント検出のために、密集レベルが高く、運動が少ないエリアを区別すること、列車/バス駅の自動分析など)に基づいて、解像度が低く、オクルージョン・レベルが高いところで活動を分析するステップと、
6)a)画像ブロックの加重された形状、色、運動パターンを使用して、オクルージョン問題を克服することを目的として、対象となる物体のテンプレートを合致させるためにブロックを結合/分割すること、b)分散/平均などの統計値に基づいた各パターンの信頼レベルを使用することによって、パターンの重みを変更すること、c)前景区域の個々のもの、および/または組合せに合致させるため、および検出された対象となる物体の組合せを前景区域に合致させるために、シーンの中で検出された対象となる物体のリストを保持すること、d)歩行/走行/落下などの活動を見つけ出すためにa、bおよびcを使用すること、e)シーンの高レベルなセマンティクスを見つけ出すために(例えば、シーンの退場/入場エリアを見つけ出すことなど)、物体検出の出力を使用し、検出の信頼度を高めるために高レベルなセマンティクスを使用すること(例えば物体がシーンを離れるか、または遮蔽されている可能性を理解するために、退場/入場エリアを使用することなど)、およびf)信頼できる分散型監視システムを提供することを目的として、可能な物体のトラッキングについて隣のカメラに通知を行うために、高レベルなセマンティクスを使用することに基づいて、個々の対象となる物体およびそれらの活動を見つけ出すステップとを含む、混雑した環境の中での物体のトラッキングおよび活動分析のための方法に関する。
【0067】
この例示的な実施形態は、単に本発明を解説するものであり、本発明の範囲から逸脱することなく、当業者によって上述の実施形態の多くの変形形態が考案されることが可能であるということを理解されたい。したがって、すべての前述のような変形形態は、冒頭の特許請求の範囲およびその等価物の範囲内に含まれるということが意図されている。
【図面の簡単な説明】
【0068】
【図1】本発明の実施形態によるイベント検出のための方法を示す流れ図である。
【図2】本発明の実施形態による背景モデルの初期化のための方法を示す流れ図である。
【図3】本発明の実施形態による背景モデルの更新のための方法を示す流れ図である。
【図4】本発明の実施形態による、解像度が低く、オクルージョンのレベルが高い場合の物体検出のための方法を示す流れ図である。
【図5】本発明の実施形態による、対象となる物体(OOI)グループのフロー推定のための方法を示す流れ図である。
【図6】本発明の実施形態によるトラッキングのための方法を示す流れ図である。

【特許請求の範囲】
【請求項1】
監視エリアでの物体トラッキングのための方法であって、
圧縮された領域および圧縮されていない領域で、カラー・モデルを使用して、背景を除去し、前景領域を識別するステップと、
解像度が低く、オクルージョン・レベルが高いところで、1つまたは複数の対象となる物体(OOI)を識別するステップと、
推定された密集レベルおよび推定されたオクルージョン・レベルに基づいて、適切な検出およびトラッキング・アルゴリズムを選択するステップと、
グループのOOIを検出するステップと、
解像度が低く、オクルージョン・レベルが高いところで、前記グループのOOIをトラッキングするステップと、
解像度が低く、オクルージョン・レベルが高いところで、前記監視エリアを分析するステップと、
1つまたは複数の個々のOOIを識別するステップとを含む方法。
【請求項2】
圧縮された領域および圧縮されていない領域で、カラー・モデルを使用して、背景を除去し、前景領域を識別する前記ステップが、
高レベルな時間セマンティクスを使用して、背景モデルを適合するステップと、
高レベルなシーン・セマンティクスを使用して、前記背景モデルを適合するステップと、
高レベルな時間セマンティクスと高レベルなシーン・セマンティクスとの組合せを使用して、前記監視エリアを分析するステップと
時間セマンティクスを用いて、前記背景モデルの堅固性を改良するステップとを含む請求項1に記載の方法。
【請求項3】
解像度が低く、オクルージョン・レベルが高いところで、1つまたは複数の対象となる物体(OOI)を識別する前記ステップが、
使用されるカメラの補正、および前記エリア中の物体のサイズの分析に基づいて、ブロックに分割された対象となる区域を抽出するステップと、
前記ブロックの低周波および高周波の構成要素のためにテンプレートを計算するステップと、
前記計算されたテンプレートを、以前に記憶されたラベル付けされたテンプレートに合致させるために調整を行うステップと
OOIを識別するために、前記計算されたテンプレートを、以前に記憶されたラベル付けされたテンプレートと比較するステップとを含む請求項1に記載の方法。
【請求項4】
推定された密集レベルおよび推定されたオクルージョン・レベルに基づいて、適切な検出およびトラッキング・アルゴリズムを選択する前記ステップが、1つまたは複数のグループ物体のトラッキング・アルゴリズムおよび個々の物体のトラッキング・アルゴリズムを選択することを含む請求項1に記載の方法。
【請求項5】
解像度が低く、オクルージョン・レベルが高いところで、グループのOOIをトラッキングする前記ステップが、
フロー・ブロックを潜在的OOIとしてマーク付けされたエリアに対応させるステップと、
運動パラメータに基づいて、グループの運動についての信頼レベルを計算するステップとを含む請求項1に記載の方法。
【請求項6】
解像度が低く、オクルージョン・レベルが高いところで、前記監視エリアを分析する前記ステップが、
密集レベルを推定するステップと、
グループのOOIのフローを推定するステップと、
前記推定された密集レベルおよびフローに基づいて、起こりうるイベントを検出するステップとを含む請求項1に記載の方法。
【請求項7】
1つまたは複数の個々のOOIを識別する前記ステップが、
1つまたは複数のデータ要素を得る画像ブロックの加重された形状、色または運動パターンを組み合わせることによって、画像ブロックをOOIのテンプレートに合致させるステップと、
前記パターンの前記信頼レベルを使用することによって、前記パターンの重みを変更するステップと、
異なる前景区域に合致させるために、前記監視エリアで検出されたOOIのリストを形成するステップと、
前記OOIの運動のパターンを判定するステップと、
前記監視エリアの高レベルなセマンティクスを判定するステップとを含む請求項1に記載の方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate


【公表番号】特表2009−508450(P2009−508450A)
【公表日】平成21年2月26日(2009.2.26)
【国際特許分類】
【出願番号】特願2008−531305(P2008−531305)
【出願日】平成18年9月13日(2006.9.13)
【国際出願番号】PCT/US2006/035749
【国際公開番号】WO2007/033286
【国際公開日】平成19年3月22日(2007.3.22)
【出願人】(508078008)ヴェリフィコン コーポレーション (1)
【Fターム(参考)】