画像を評価するための方法および装置
【課題】本発明は画像を評価するための改良された方法および装置を提供する。
【解決手段】画像を評価する方法であって、画像を表す画像データ(40;80)を検索することと、画像の画像面(71)に対する、その一部が該画像データ(40;80)によって表される物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を検索することと、距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成することであって、画像データ(40;80)のリサンプリングされる部分(43、45、46;81、85)は、物体(43、45、46;68、70)の少なくとも一部を表す、こととを包含する、方法。
【解決手段】画像を評価する方法であって、画像を表す画像データ(40;80)を検索することと、画像の画像面(71)に対する、その一部が該画像データ(40;80)によって表される物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を検索することと、距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成することであって、画像データ(40;80)のリサンプリングされる部分(43、45、46;81、85)は、物体(43、45、46;68、70)の少なくとも一部を表す、こととを包含する、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像を評価するための方法および装置に関する。特に、本発明は、車両に搭載の運転手支援システム、または監視システムなどの様々な環境における物体認識のために利用され得る、画像を評価するための方法および装置に関する。
【背景技術】
【0002】
今日、車両を制御する際に運転手を支援するために、および/または運転の安全性を向上させるために、車両は複数の運転手支援機能を提供する。かかる運転手支援機能の例は、駐車補助と、衝突予測機能と、制御論理に従って作動され得るエアバッグまたはシートベルトリトラクタを含む安全機構とを含む。これらの運転手支援機能のうちの一部は、例えば、接近する障害物を検知するために自動的に評価される画像データの形式の、車両の周囲に関する情報に依存したり、少なくとも、その情報を活用したりし得る。一部の運転手支援機能において、車両付近の物体の存在だけでなく、物体の「タイプ」または物体の「種類」、例えば車両または歩行者なども、決定された物体の種類に基づいて適切な行動を取るために自動的に決定され得る。これは、例えば、基準データと比較され得る画像データによって表される、物体の特徴的な幾何形状特徴およびサイズに基づいて、車両の周囲の一部分に対応する視野を有する画像を捕捉し、そして、その画像を表す画像データを評価することにより、物体を検知し、そして、それぞれの物体の種類を決定することよって達成され得る。かかる画像評価に対する従来の手法は、多くの場合に、画像評価と関連付けられる欠点を有する。例えば、画像データが基準データと直接的に比較されるときには、物体の分類の信頼度は、運転手支援機能が設置されている車両に対する物体の距離に依存し得る。例えば、車両から遠く離れた距離の貨物自動車は、貨物自動車の大きな横方向の寸法が原因となって、車両からより近い距離の自動車として誤って識別され得、またはその逆もあり得る。
【0003】
同様の課題が、画像内の物体の自動識別が望ましい他の状況、例えば、公共の場または私有地に設置される監視カメラシステムに存在する。
【発明の開示】
【発明が解決しようとする課題】
【0004】
従って、画像を評価するための、改良された方法および装置に対する必要性が、当該分野に存在する。特に、評価される画像を捕捉するカメラに対する物体の距離の変動によってもたらされる誤差をあまり起こさない結果を提供する、画像を評価するための改良された方法および装置に対する必要性がある。
【課題を解決するための手段】
【0005】
例えば、本発明は以下のものを提供する。
【0006】
(項目1)
画像を評価する方法であって、
該画像を表す画像データ(40;80)を検索するステップと、
該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を検索するステップであって、該物体(43〜46;68〜70)の少なくとも一部は、該画像データ(40;80)によって表される、ステップと、
該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するステップであって、該画像データ(40;80)の該リサンプリングされる部分(43、45、46;81、85)は、該物体(43、45、46;68、70)の少なくとも一部を表す、ステップと
を包含する、方法。
【0007】
(項目2)
上記画像データ(40;80)の上記一部分は、上記物体(43、45、46;68、70)の上記距離(dA、dB、dC)と上記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によってリサンプリングされる、項目1に記載の方法。
【0008】
(項目3)
上記物体(45、46;70)の上記距離(dC)が、上記基準距離(dref)以上である所定の閾値を超過したときには、上記画像データ(40;80)の上記一部分は、アップサンプリングされる、項目1または項目2に記載の方法。
【0009】
(項目4)
上記物体(43;68)の上記距離(dA)が、上記基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、上記画像データ(40;80)の上記一部分は、ダウンサンプリングされる、項目1〜項目3のうちのいずれか1項に記載の方法。
【0010】
(項目5)
上記リサンプリングされた画像データ(53、55、56;131、135)の画素は、上記画像面(71)から上記基準距離(dref)で位置決めされた物体(44;69)の上記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応している、項目1〜項目4のうちのいずれか1項に記載の方法。
【0011】
(項目6)
さらなる画像データ(110)を獲得するステップであって、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、上記画像の視野と重複する、ステップ
を包含する、項目1〜項目5のうちのいずれか1項に記載の方法。
【0012】
(項目7)
上記深度情報に基づいて、上記物体(68〜70)の少なくとも一部を表す、上記さらなる画像データ(110)の一部分(111、113、115)を識別するステップ
を包含する、項目6に記載の方法。
【0013】
(項目8)
上記さらなる画像データ(110)の上記識別された一部分(111、113、115)に基づいて、上記画像データ(40;80)の上記リサンプリングされる部分(43、45、46;81、85)を選択するステップ
を包含する、項目7に記載の方法。
【0014】
(項目9)
上記画像データ(40;80)の上記一部分(43、45、46;81、85)を選択する上記ステップは、該画像データ(40;80)の少なくとも1つの画素を識別することを包含し、該画像データ(40;80)の少なくとも1つの画素は、上記さらなる画像データ(110)の上記一部分(111、113、115)によって含まれる、該さらなる画像データ(110)の画素に対応する、項目8に記載の方法。
【0015】
(項目10)
上記さらなる画像データ(110)に基づいて上記距離情報を決定するステップを包含する、項目6〜項目9のうちのいずれか1項に記載の方法。
【0016】
(項目11)
PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を利用して、上記3次元画像を捕捉するステップを包含する、項目6〜項目10のうちのいずれか1項に記載の方法。
【0017】
(項目12)
2Dカメラ(6;177、178)を利用して上記画像を捕捉するステップを包含する、項目1〜項目11のうちのいずれか1項に記載の方法。
【0018】
(項目13)
複数の物体のタイプを表す複数の基準物体に関する基準データを検索するステップと、
該基準データに基づいて上記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、上記物体を該複数の物体のタイプに分類するステップと
を包含する、項目1〜項目12のうちのいずれか1項に記載の方法。
【0019】
(項目14)
上記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、項目13に記載の方法。
【0020】
(項目15)
上記基準データは、上記基準距離(dref)にほぼ等しい、上記画像面(71)からの距離における、上記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、項目13または項目14に記載の方法。
【0021】
(項目16)
上記距離情報を検索するステップと、上記リサンプリングするステップと、上記分析するステップとはそれぞれ、上記画像データ(40;80)によって表された複数の物体(43、45、46;68、70)のそれぞれに対して行われる、項目13〜項目15のうちのいずれか1項に記載の方法。
【0022】
(項目17)
上記分析の結果を運転手支援デバイス(12)に提供するステップを包含する、項目13〜項目16のうちのいずれか1項に記載の方法。
【0023】
(項目18)
その中に格納された命令を有するデータ格納媒体であって、該命令は、電子演算デバイス(2;172)のプロセッサ(3;173)によって実行されたときには、該演算デバイス(2;172)に、項目1〜項目17のいずれか1項に記載の方法を行うように指示する、データ格納媒体。
【0024】
(項目19)
画像を評価する装置であって、
該画像を表す画像データ(40;80)を受信する入力(4;174)と、該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を受信するさらなる入力(5;175)とを有する処理デバイス(3;173)であって、該物体(43〜46;68〜70)の少なくとも一部は、該画像によって表される、処理デバイス(3;173)
を備え、
該処理デバイス(3;173)は、該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するように構成されており、該画像データ(40;80)の該リサンプリングされた一部分は、該物体(43、45、46;68、70)の少なくとも一部を表す、装置。
【0025】
(項目20)
上記さらなる入力に結合された3Dカメラデバイス(7;176)であって、該3Dカメラデバイス(7;176)は、さらなる画像データ(110)を捕捉するように構成され、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、上記画像の視野と重複する、3Dカメラデバイス(7;176)
を備えている、項目19に記載の装置。
【0026】
(項目21)
上記3Dカメラデバイス(7;176)は、PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を備えている、項目20に記載の装置。
【0027】
(項目22)
上記3Dカメラデバイス(7;176)は、物体識別デバイス(9;179)を備え、該物体識別デバイス(9;179)は、上記さらなる画像データ(110)に基づいて、物体(43〜46;68〜70)と、該物体(43〜46;68〜70)のそれぞれの距離(dA、dB、dC)とを識別するように構成されている、項目20または項目21に記載の装置。
【0028】
(項目23)
上記物体識別デバイス(9;179)は、上記さらなる画像データ(110)に基づいて上記距離情報を決定し、そして、該距離情報を上記処理デバイス(3;173)に提供するように構成されている、項目22に記載の装置。
【0029】
(項目24)
上記3Dカメラデバイス(7;176)は、上記物体の少なくとも一部を表す上記さらなる画像データ(110)の一部分(111、113、115)に関する情報を上記処理デバイス(3;173)に提供するように構成されている、項目20〜項目23のうちのいずれか1項に記載の装置。
【0030】
(項目25)
上記処理デバイス(3;173)は、上記さらなる画像データ(110)の上記一部分(111、113、115)に関する上記情報に基づいて、上記画像データ(40;80)の上記一部分(43、45、46;81、85)を選択するように構成されている、項目24に記載の装置。
【0031】
(項目26)
上記処理デバイス(3;173)の上記入力に結合され、かつ、上記画像を捕捉するように構成されている2Dカメラ(6;177、178)を備えている、項目19〜項目25のうちのいずれか1項の記載の装置。
【0032】
(項目27)
上記2Dカメラ(6)は、CCDカメラまたはCMOSカメラを含む、項目26に記載の装置。
【0033】
(項目28)
上記処理デバイス(3;173)は、上記物体の上記距離(dA、dB、dC)と上記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によって、上記画像データ(40;80)の上記一部分(43、45、46;81、85)をリサンプリングするように構成されている、項目19〜項目27のうちのいずれか1項に記載の装置。
【0034】
(項目29)
上記処理デバイス(3;173)は、上記物体(45、46;70)の上記距離(dC)が、上記基準距離(dref)以上である所定の閾値を超過したときには、上記画像データ(40;80)の上記一部分(45、46;85)をアップサンプリングするように構成され、かつ、上記物体(43;68)の上記距離(dA)が、該基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、該画像データ(40;80)の上記一部分(46;81)をダウンサンプリングするように構成されている、項目19〜項目28のうちのいずれか1項に記載の装置。
【0035】
(項目30)
上記処理デバイス(3;173)は、上記リサンプリングされた画像データ(53、55、56;131、135)の画素が、上記画像面(71)から上記基準距離(dref)で位置決めされた物体(44;69)の上記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応するように、上記画像データ(40;80)の上記一部分(43、45、46;81、85)をリサンプリングするように構成されている、項目19〜項目29のうちのいずれか1項に記載の装置。
【0036】
(項目31)
その中に格納された、複数の物体のタイプを表す複数の基準物体に関する基準データを有する格納デバイス(10;180)であって、上記処理デバイス(3;173)は、該基準データを検索するために該格納デバイス(10;180)に結合されており、そして、該基準データに基づいて上記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、該物体(43〜46;68〜70)を該複数の物体のタイプのうちの1つに分類するように構成されている、項目19〜項目30のうちのいずれか1項に記載の装置。
【0037】
(項目32)
上記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、項目31に記載の装置。
【0038】
(項目33)
上記基準データは、上記基準距離(dref)にほぼ等しい、上記画像面(71)からの距離における、上記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、項目31または項目32のうちのいずれか1項に記載の装置。
【0039】
(項目34)
項目19〜項目33のうちのいずれか1項に記載の装置(2;172)を含む運転手支援システム。
【0040】
(項目35)
上記装置(2;172)によって行なわれる画像評価の結果に基づいて、光学出力信号、音響出力信号、または触覚出力信号のうちの少なくとも1つを提供する出力ユニット(14)を備えている、項目34に記載の運転手支援システム。
【0041】
(項目36)
乗員および/または歩行者保護システム(15)であって、該乗員および/または歩行者保護システム(15)は、上記装置(2;172)に結合されており、かつ、該装置(2;172)によって行なわれた画像評価の結果に基づいて作動されるように構成されている、乗員および/または歩行者保護システム(15)を備えている、項目34または項目35に記載の運転手支援システム。
【0042】
(項目37)
画像を評価する方法であって、
該画像を捕捉することと、
深度情報を含む3次元画像を捕捉することであって、該3次元画像の視野は、該画像の視野と重複する、ことと、
該3次元画像に基づいて、該画像の少なくとも一部分をリサンプリングすることと
を包含する、方法。
【0043】
(項目38)
上記3次元画像はPMD(フォトニックミキサデバイス)カメラを利用して捕捉される、項目37に記載の方法。
【0044】
(項目39)
画像を評価する装置であって、
該画像を捕捉するように構成されたカメラデバイスと、
深度情報を含む3次元画像を捕捉するように構成された3Dカメラデバイスであって、該3次元画像の視野は、該画像の視野と重複する、3Dカメラデバイスと、
処理デバイスであって、該処理デバイスは、該カメラデバイスから該画像を表す画像データを受信するために該カメラデバイスに結合され、かつ、該3Dカメラデバイスから該3次元画像を表すさらなる画像データを受信するために該3Dカメラデバイス結合されており、該処理デバイスは、該さらなる画像データに基づいて該画像データの少なくとも一部分をリサンプリングするように構成されている、処理デバイスと
を備えている、装置。
【0045】
(項目40)
上記3Dカメラデバイスは、PMD(フォトニックミキサデバイス)カメラを含む、項目39に記載の装置。
【0046】
(開示の概要)
画像を評価する方法および装置が提供される。該装置は、処理デバイス(3)を備えており、該処理デバイス(3)は、画像を表す画像データを受信する入力(4)と、画像の画像面に対する、物体の距離に関する距離情報を受信するさらなる入力(5)とを有する。距離情報は、3Dカメラデバイス(7)を利用して捕捉された深度情報を含む3次元画像に基づいて決定され得る。処理デバイス(3)は、距離情報と所定の基準距離との両方に基づいて画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成するように構成されている。画像データのリサンプリングされる部分は物体の少なくとも一部を表す。
【0047】
(概要)
本発明に従って、この必要性は、独立請求項に定義されるような方法および装置によって対処される。従属請求項は、好適な実施形態または有利な実施形態を定義する。
【0048】
本発明の一局面に従って、画像を評価する方法が提供され、該方法は、画像を表す画像データを検索するステップと、画像の画像面に対する物体の距離に関する距離情報を検索するステップであって、物体の少なくとも一部は、画像データによって表される、ステップと、距離情報と所定の基準距離との両方に基づいて、画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成するステップであって、画像データのリサンプリングされた部分は、物体の少なくとも一部を表す、ステップとを包含する。本明細書において使用される場合、用語「画像面」は、評価される画像が、画像を捕捉する光学システムによってマッピングされる(通常は仮想の)面を呼ぶ。この方法に従って、関心のある物体を表す、画像データの一部分が、画像面に対する物体の距離と、所定の基準距離とに基づいてリサンプリングされる。従って、続く、リサンプリングされたデータの分析は、画像面に対するリサンプリングされた画像データの距離によってはあまり影響されない。なぜならば、本方法は、距離に関する影響が画像データの一部分をリサンプリングすることによって少なくとも部分的に考慮に入れられることを可能にするからである。
【0049】
一実施形態において、リサンプリング係数が、物体の距離と基準距離との比較に基づいて決定され得、該リサンプリング係数によって、画像データの一部分がリサンプリングされ得る。例えば、物体の距離が、基準距離以上である所定の閾値を超過したときには、画像データの一部分は、アップサンプリングされ得、および/または物体の距離が、基準距離以下であるさらなる所定の閾値を下回ったときには、画像データの一部分は、ダウンサンプリングされ得る。所定の閾値とさらなる所定の閾値とは、両方とも、基準距離にほぼ等しくなるように選択され得る。例えば、1つの例示的な実施形態において、物体の距離が基準距離を下回るときには、画像データの一部分は、物体の距離によって除算された基準距離とほぼ等しいダウンサンプリング係数によってダウンサンプリングされ得、物体の距離が基準距離を上回るときには、画像データの一部分は、基準距離によって除算された物体の距離とほぼ等しいアップサンプリング係数によってアップサンプリングされ得る。物体の距離と基準距離との比較に基づいてリサンプリング係数を選択することによって、物体を表す、画像データの一部分は、物体の画像のサイズの変動を物体の距離の関数として少なくとも部分的に受け入れるためにサイズを増加または減少させ得る。例えば、リサンプリングされた画像データの画素が、画像面から基準距離で位置決めされた物体の画像データにおける1画素当たりの幅にほぼ等しい、物体の幅に対応するように、画像データの一部分はリサンプリングされ得、それにより物体が基準距離において画像化されたときに、物体が有するサイズを概ね有するように、物体の画像は規模を縮小される。
【0050】
本方法は、さらなる画像データを獲得するステップをさらに包含し得、該さらなる画像データは、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、画像の視野と重複する。3次元画像を表すさらなる画像データを利用することによって、物体を表す、画像データの一部分が便利にも識別され得、画像面に対する物体の距離もまた、さらなる画像データから決定され得る。この方法で、画像が画像データとさらなる画像データとの両方を使用することによって評価され得、すなわち、2次元(2D)画像の情報と3次元(3D)画像の情報とを組み合わせることによって評価され得る。本明細書において使用される場合、用語「深度情報」は、3次元画像の画素によって表された複数の視点方向に沿って位置決めされた物体の距離に関する情報を指す。
【0051】
本方法は、深度情報に基づいて、物体の少なくとも一部を表す、さらなる画像データの一部分を識別することを包含し得る。例えば、ほぼ等しい深度値または少なくとも同様な深度値に対応するさらなる画像データの多数の画素が、物体の少なくとも一部を表す、さらなる画像データの一部分に割り当てられ得る。一実施形態において、複数の物体が、さらなる画像データにおいて、この方法で識別されることにより、様々な物体に対する位置情報および深度情報を含む物体リストを作成し得る。追加の論理機能が、例えば、類似した深度値を有する画素の形状および/または対称性を評価することによって、さらなる画像データ内の物体を識別するために利用され得る。車両が画像データにおいて識別されようとしている場合、例えば、正方形の形状または台形の形状を有する、さらなる画像データ内の画素の構造だけが、さらなる処理のために選択され得る。この方法で、画像データを評価することが、画像データの関連部分に制限され、それにより処理速度を向上させる。
【0052】
さらなる画像データの一部分が、画像データのリサンプリングされる部分を選択する際に利用され得る。すなわち、画像データのリサンプリングされる部分が、さらなる画像データ内で識別された物体に基づいて選択され得る。これは、物体の一部を表す、さらなる画像データの一部分によって、すなわち、さらなる画像データから画像データまで画素のマッピングを行うことによって構成されるさらなる画像データの画素に対応する画像データの画素を識別することを含み得る。
【0053】
3次元画像が、光パルスの伝達時間に基づいた技術を利用して捕捉され、例えば、PMD(フォトニックミキサデバイス)カメラを利用して捕捉され得る。3次元画像がまたステレオカメラを利用して捕捉され得る。画像は、2Dカメラ、例えば、CMOSカメラまたはCCDカメラを利用して捕捉され得る。
【0054】
リサンプリングされた画像データは、物体を分類するためにさらに分析され得る。本明細書において使用される場合、物体の「分類」という用語は、物体が、多数の所与の物体のタイプまたは多数の所与の物体の種類、例えば、自動車、貨物自動車、オートバイ、信号、および/または歩行者などのうちの1つに属するかが決定されるプロセスを指すために使用される。本方法は、複数の物体のタイプを表す複数の基準物体に関する基準データを検索するステップと、基準データに基づいてリサンプリングされた画像データを分析することにより、物体を分類するステップとを包含する。基準データは様々な形式を有し得、対応するように、分析することは、様々な方法で実装され得る。例えば、所謂学習アルゴリズムが、リサンプリングされた画像データを分析するために利用され得、該学習アルゴリズムは、所与の物体のタイプの多数の有効な物体または妥当な物体に関して教育されることにより、次に、この物体のタイプの物体を識別する。この場合、基準データは、学習アルゴリズムを教育することによって獲得されたリサンプリングされた画像データを分析するためのパラメータを含み得る。基準データは、特定の物体のタイプに対して特徴的な形状および/または色に関する情報も含み得、リサンプリングされた画像データは、かかる特徴的な形状および/または色を識別することによって分析されることにより、物体を物体のタイプに適合させる。基準データは、所与の物体のタイプのうちの1つの物体またはいくつかの物体に対する画像データ、例えば、いくつかの異なる自動車またはいくつかの異なる貨物自動車を表す画像データも含み得、リサンプリングされた画像データがこの基準データと比較されることにより物体を物体のタイプに適合させ得る。
【0055】
分析するステップの特定の実装に関わらず、基準データが基準距離とほぼ等しい画像面からある程度の距離で位置決めされた基準物体のうちの少なくとも1つの画像に基づいて生成され得る。次に、分析するステップは、リサンプリングされた画像データに基づいて物体を分類するように充分に適応されており、該リサンプリングされた画像データは、距離依存のリサンプリングによって獲得されたものである。
【0056】
本方法は、画像データによって表されたいくつかの物体を分類するために利用され得る。例えば、複数の物体と、それらの距離とを含む物体リストが、3次元画像を表すさらなる画像データに基づいて生成され得、距離情報を検索するステップと、リサンプリングするステップと、分析するステップとがそれぞれ、複数の物体のそれぞれに対して行われ得る。
【0057】
分析するステップの結果は、運転手支援システムに出力され得る。例えば、接近する物体に関する物体のタイプ、例えば、歩行者、自動車、または貨物自動車に関する情報が、運転手支援システムに出力され得、該運転手補助システムは、安全デバイスを作動させ、および/または物体のタイプに関する情報に基づいて警告信号を出力する。
【0058】
本発明の別の局面に従って、命令を格納したデータ格納媒体が提供され、該命令は、電子演算デバイスのプロセッサによって実行されたときには、演算デバイスに、本発明の任意の一実施形態に従った方法を行わせる。電子演算デバイスは、画像データおよびさらなる画像データを受信する入力を有する汎用プロセッサとして構成され得る。電子演算デバイスはまた、プロセッサと、CMOSカメラまたはCCDカメラと、PMDカメラとを備え得、該プロセッサは、画像データをCMOSカメラまたはCCDカメラから検索し、さらなる画像データをPMDカメラから検索する。
【0059】
本発明の別の局面に従って、画像を評価する装置が提供され、該画像を評価する装置は、画像を表す画像データを受信する入力と、画像の画像面に対する物体の距離に関する距離情報を受信するさらなる入力とを有する処理デバイスを備え、物体の少なくとも一部が、画像によって表される。処理デバイスは、距離情報と所定の基準距離との両方に基づいて、画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成するように構成されており、画像データのリサンプリングされた部分は、物体の少なくとも一部を表す。画像面に対する物体の距離と、所定の基準距離との両方に基づいて、関心のある物体を表す、画像データの一部分をリサンプリングすることによって、この装置においては、リサンプリングされた画像データを分析する前、例えば、物体の分類を分析する前に、距離関連の影響が、少なくとも部分的に考慮され得る。
【0060】
装置は、さらなる入力に結合された3Dカメラデバイスを備え得、該3Dカメラデバイスは、さらなる画像データを捕捉するように構成され、該さらなる画像データは、3次元画像を表し、かつ、深度情報を含み、3次元画像の視野は、画像の視野と重複する。3Dカメラデバイスは、PMD(フォトニックミキサデバイス)カメラまたはステレオカメラを含み得る。3Dカメラデバイスは、さらに、物体識別デバイスを含み得、該物体識別デバイスは、さらなる画像データに基づいて、物体と、物体それぞれの距離とを識別するように構成されている。物体識別デバイスは、さらに、さらなる画像データに基づいて距離情報を決定し、かつ、距離情報を処理デバイスに提供するように構成されている。3Dカメラデバイスがこの構成を有すると、物体の存在と、画像面に対する物体のそれぞれの距離とが、さらなる画像データに基づいて識別され得る。例えば、3Dカメラデバイスは、物体の位置および距離に関する情報を含む物体リストを処理デバイスに提供し得る。
【0061】
3Dカメラデバイスは、物体の少なくとも一部を表す、さらなる画像データの一部分に関する情報を処理デバイスに提供するように構成され得、次に、該処理デバイスは、さらなる画像データの一部分に関する情報に基づいて、画像データの一部分を選択するように構成され得る。この方法で、リサンプリングされる画像データの一部分が、さらなる画像データから獲得された、物体の一部分に関する情報に基づいて選択され得る。
【0062】
装置は、さらに、処理デバイスの入力に結合され、かつ、画像を捕捉するように構成されている2Dカメラを備え得る。2Dカメラは、CCDカメラまたはCMOSカメラを含み得る。
【0063】
処理デバイスは、物体の距離と基準距離との比較に基づいて決定されたリサンプリング係数によって、画像データの一部分をリサンプリングするように構成され得る。物体の距離と基準距離との比較に基づいて、リサンプリングは、アップサンプリングまたはダウンサンプリングを含み得る。特に、処理デバイスは、リサンプリングされた画像データの画素が、画像面から基準距離で位置決めされた物体の画像データにおける1画素当たりの幅にほぼ等しい物体の幅に対応するように、画像データの一部分をリサンプリングするように構成され得る。この方法で、画像内の物体の表示は、画像のさらなる評価を容易にするように規模を縮小され得る。
【0064】
装置は、複数の物体のタイプを表す複数の基準物体に関する基準データを格納している格納デバイスも備え得る。次に、処理デバイスは、基準データを検索するために格納デバイスに結合され得、そして、基準データに基づいてリサンプリングされた画像データを分析することにより、物体を複数の物体のタイプに分類するように構成され得る。基準データは、基準距離にほぼ等しい、画像面からの距離における、前記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成され得る。画像データの一部分が、基準データを利用してリサンプリングされた画像データを分析することによって、物体の距離と基準距離との両方に基づいてリサンプリングされるので、画像化された物体における距離依存の変動によって誘起される影響が低減され得る。
【0065】
装置は、運転手支援システムによって含まれ得る。運転手支援システムはさらに、装置によって行なわれる画像評価の結果に基づいて、光学出力信号、音響出力信号、または触覚出力信号のうちの少なくとも1つを提供する出力ユニットを備え得る。運転手支援システムは、例えば、画像評価の結果に基づいて警告信号を出力し得る。追加的に、または代替的に、運転手支援システムは、乗員および/または歩行者保護システムを備え得、該乗員および/または歩行者保護システムは、装置に結合されており、かつ、装置によって行なわれた画像評価の結果に基づいて作動されるように構成されている。例えば、保護システムは、画像評価の結果に基づいて、車両との衝突が生じることを予測されたときに作動される乗客のエアバッグと、歩行者との衝突が生じることを予測されたときに作動される歩行者エアバッグとを備え得る。
【0066】
本発明の適用範囲の1つは、車両に搭載の運転手支援システムにおけるものであるということが想定される。しかしながら、本発明の様々な実施形態は、この特定の用途に限定されず、多種多様な分野における用途を見出し得、例えば、公共の場の監視などの安全保障関連の用途において捕捉された画像を評価することにおける用途を見出し得る。
【0067】
本発明の追加の特徴および追加の利点は、添付の図面を参照して、好適な実施形態または有利な実施形態に関する以下の詳細な記述からさらに容易に理解される。
【発明を実施するための最良の形態】
【0068】
以下で、本発明の例示的な実施形態が図面を参照して述べられる。以下の記述は、本発明をより良く述べる目的のためだけに与えられており、限定する意味に取られるべきではないということが理解される。特に断りがない場合には、以下で記述される様々な実施形態の特徴は、互いに組み合わされ得るということがまた理解される。
【0069】
図1は、運転手支援システム1の概略的ブロック図の表示であり、該運転手支援システム1は、一実施形態に従った、画像を評価する装置2と、支援デバイス12とを含む。装置2は、処理デバイス3を含み、該処理デバイス3は、評価される画像を表す画像データを受信する入力4と、画像面に対する物体の距離に関する距離情報を受信するさらなる入力5とを有する。処理デバイス3は、さらに、格納デバイス10に結合されており、該格納デバイス10は、物体の分類のための基準データを格納している。
【0070】
処理デバイス3の入力4は、2Dカメラ6に結合され、該2Dカメラ6は、画像を捕捉し、画像を表す画像データを処理デバイス3に提供する。2Dカメラ6は、例えば、CMOSカメラまたはCCDカメラとして構成され得、画像データを処理デバイス3に出力する前に画像データを処理する追加の回路網を含み得る。例えば、処理デバイス3に出力される前に、画像データはフィルタリングされたり、適切に符号化されたりし得る。
【0071】
処理デバイス3のさらなる入力5は、3Dカメラデバイス7に結合され、該3Dカメラデバイス7は、3Dカメラ8と物体識別デバイス9とを含み、該物体識別デバイス9は、3Dカメラ8に結合されている。3Dカメラ8は、さらなる画像データを捕捉し、該さらなる画像データは、複数の視点に対する深度情報、すなわち、複数の視点方向のうちの1つにおける視線に沿って位置決めされたもっとも近い障害物の距離に関する情報を含む3次元画像を表す。物体識別デバイス9は、3Dカメラ8から3次元画像を表すさらなる画像データを受信し、深度情報に基づいて、3Dカメラ8の視野の範囲内の物体の横方向の位置と、障害物それぞれの距離とを決定する。物体識別デバイス9は、セグメント化アルゴリズムを行うように構成され得、該セグメント化アルゴリズムにおいては、3Dカメラからかなりの距離を有する隣接する画素が、1つの物体に属するように割り当てられる。追加の論理機能が、物体識別デバイス9に組み込まれ得る。例えば、車両だけが画像データにおいて識別される場合には、車両に対して一般的に見出される形状を有していない物体が、画像データを評価するときには考慮されないように、長方形の形状または台形の形状に似た形状を有するさらなる画像データにおける画素の範囲だけが識別され得る。物体識別デバイス9が、さらなる画像データにおける関心のある全ての物体の横方向の位置を識別し得、すなわち、物体が位置決めされた領域の座標を識別し得、そして、3Dカメラ8に対するそれぞれの物体の距離を決定し得る。次に、以下において「物体リスト」とも呼ばれるこのデータが、処理デバイス3に提供される。
【0072】
2Dカメラ6の視野が3Dカメラ8の視野と重複するように、3Dカメラデバイス7の2Dカメラ6と3Dカメラ8とは配置および構成される。一実施形態において、視野は実質的に一致する。簡素化するために、2Dカメラ6と3Dカメラ8とが互いに充分近くに配置されることにより、3Dカメラによって捕捉された深度情報が、2Dカメラ6の画像面からのそれぞれの物体の距離に対する充分な概算も提供するということが想定される。一実施形態において、2Dカメラ6と3Dカメラ8とはまた、互いに離れて配置され得、その場合、2Dカメラ6に対する3Dカメラ8の位置が既知であるときには、2Dカメラ6の画像面に対する物体の距離が、3Dカメラ8によって捕捉された深度情報から導き出され得るということが想定される。
【0073】
処理デバイス3は、3Dカメラデバイス7から物体リストを受信し、該物体リストは、少なくとも1つの物体の距離情報、通常は、複数の物体の距離情報を含み、該距離情報は、2Dカメラ6によって捕捉された画像で表示される。以下で、図2および図3を参照してさらに詳細に述べられるように、処理デバイス3は、画像データによって表された物体の距離情報と所定の基準距離とに基づいて、画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成し、次に、該リサンプリングされた画像データがさらに評価される。
【0074】
装置2が、バス11を介して支援デバイス12に結合されることにより、画像評価の結果を支援デバイス12に提供する。支援デバイス12は、制御デバイス13と、警告デバイス14と、乗員および/または歩行者保護デバイス15とを含み、該乗員および/または歩行者保護デバイス15は、制御デバイス13に結合されている。バス11を介して装置2から受信された信号に基づいて、制御デバイス13は、警告デバイス14と乗員および/または歩行者保護デバイス15とのうちの1つまたは両方を作動させる。
【0075】
図2は、方法20の流れ図の表示であり、該方法20は、装置2の処理デバイス3によって行われ得る。21において、画像を表す画像データが検索される。画像データは、カメラ、例えば、2Dカメラ6から直接的に検索され得るか、または格納媒体から直接的に検索され得る。22において、画像面からの物体の距離に関する距離情報が検索される。距離情報は、単一の数値であり得るが、その他任意の適切な形式で提供もされ得、例えば、1つの物体または複数の物体の横方向の位置および距離に関する情報を含む物体リストの形式でも提供され得る。23において、リサンプリングされる画像データの一部分が選択される。リサンプリングされる画像データの一部分は、様々な方法で選択され得る。距離情報が3D画像を表すさらなる画像データから獲得された場合には、ステップ23は、物体の少なくとも一部を表す、さらなる(3D)画像データの一部分に対応する画像データの部分を識別し、それにより画像データとさらなる画像データとを適合させることを含み得る。24において、23において選択された部分が、距離情報と所定の基準距離との両方に基づいてリサンプリングされる。一実施形態において、リサンプリング係数が、距離情報と基準距離との両方に基づいて選択される。以下で図4を参照してさらに詳細に述べられるように、リサンプリングされた画像データにおいて、物体が画像面から基準距離で位置決めされたときに画像化された物体に対する1画素当たりの幅にほぼ等しい画像化された物体の幅に対応するように、リサンプリング係数は選択され得る。この方法で、画像面に対する距離変動によってもたらされる、物体のサイズの変動が、少なくとも部分的に考慮される。25において、リサンプリングされた画像データがさらに分析され得る。
【0076】
簡素化の目的で、方法20が、関心のある1つの物体だけが画像データによって表されている場合を参照して上で述べられてきた。関心のある複数の物体が画像内で見ることができるときには、ステップ22〜ステップ25が、物体のそれぞれに対して行われ得るか、または、例えば、概略的に長方形の境界または台形の境界を有していない物体を切り捨てることによって関心のある物体のタイプに従って選択され得る物体のサブセットに対して行われ得る。22において検索された距離情報は、異なる物体に対しては変動し得るということと、それに応じて、24において行われたリサンプリングは、画像面に対する異なる距離に従って変動し得るということとが理解される。画像データがいくつかの物体を表すときには、ステップ22〜ステップ25が、全ての物体に対して連続的に行われ得るか、またはステップ22が、最初に、物体のそれぞれに対して行われ得、続けて、ステップ23が物体のそれぞれに対して行われるなどである。
【0077】
ステップ25における、リサンプリングされた画像データのさらなる分析は、例えば、リサンプリングされた画像データを基準データと比較することにより、物体を分類することを含み得る。リサンプリングされたデータのさらなる分析はまた、リサンプリングされた画像データを利用することにより、例えば、画像化された物体のデータベースを構築したり、画像認識アルゴリズムを教育したりなどすることを含む。
【0078】
一実施形態において、ステップ25における分析は、物体を分類することを含み、すなわち、複数の物体のタイプまたは複数の物体の種類のうちの1つに物体を割り当てることを含む。図1を参照すると、装置2は格納デバイス10を含むことにより、物体を分類するために検索される基準データを格納する。基準データは、複数の異なる物体のタイプに関する情報を含み、該複数の異なる物体のタイプは、自動車、貨物自動車、オートバイ、歩行者、信号などを含む群から選択される。これらの物体のタイプの任意のものに対して、この物体のタイプが、所定の基準距離にほぼ等しい、2Dカメラ6の画像面からの距離で位置決めされている間に、基準データが、例えば、自動車などの、この物体のタイプを有する物体の画像を捕捉することによって生成される。この方法で、画像面から所定の基準距離で位置決めされた基準物体の画像とほぼ同じサイズを有する物体の画像を認識するように、基準データが調節される。
【0079】
格納デバイス10に格納された基準データは、ステップ25における分析の特定の実装に依存した様々な形式を有し得る。例えば、25における分析は、特定の物体のタイプを認識するように教育された学習アルゴリズムに基づき得る。この場合、基準データは、一組のパラメータであり得、該一組のパラメータは、学習アルゴリズムの動作を制御し、かつ、画像面から基準距離で位置決めされた基準物体の画像を使用して教育されている。別の実施形態において、25における分析は、リサンプリングされた画像データによって表された物体が、特定の幾何形状特徴、特定の色、特定の色のパターン、または特定のサイズを有するか否かを決定することを含み、これらは、基準データによって特定され得る。別の実施形態において、25における分析は、基準物体が画像面からほぼ基準距離で位置決めされたときに取られた様々な物体のタイプの基準物体の複数の画像と、リサンプリングされた画像データとのビットに関する比較を含む。
【0080】
22において検索された距離情報は、任意の適切な方法で獲得され得、該距離情報に基づいて、画像の一部分が、24においてリサンプリングされる。図1の装置において、距離情報は、深度情報を含む3D画像を捕捉し評価することによって獲得される。従って、装置2は、2Dカメラ6と3Dカメラデバイス7とのセンサ融合に基づいて、2Dカメラ6によって捕捉された画像を評価する。
【0081】
図3は、方法30の流れ図の表示であり、該方法30は、装置2によって行われ得る。31において、2D画像が捕捉され、該2D画像は画像データによって表される。32において、3D画像が捕捉され、該3D画像は、さらなる画像データによって表される。33において、さらなる画像データが評価されることにより、画像をそれぞれ表すさらなる画像データの一部分、すなわち、3D画像内の範囲を識別し、それにより物体リストを生成し、該物体リストはそれぞれ、物体の距離に関する距離情報を含む。物体リストは、深度情報に基づいてセグメント化アルゴリズムを利用して生成され得、一方、追加の論理機能が、任意的に利用され得、該追加の論理機能は、物体の対称性またはサイズに基づいて利用され得る。距離情報は、3D画像の深度情報から推測され得る。31における、2D画像の捕捉と、32における、3D画像の捕捉とは、同時に行われ得るか、または2D画像において画像化された物体と3D画像において画像化された物体との動きが小さいままであるように充分に短い、2D画像の捕捉と3D画像の捕捉との間の時間遅延を伴って連続的に行われ得る。
【0082】
34において、画像データの一部分が、さらなる画像データに基づいて選択される。33において生成された物体リストは、物体を表すさらなる画像データにおける画素または画素範囲に関する情報を含む。画像データの一部分が、物体リストによって特定された、さらなる画像データにおける画素または画素範囲に対応する画像データにおける画素を識別することによって選択される。2D画像と3D画像とが、同一の解像度と同一な視野とを有する場合には、画像データにおける画素と、さらなる画像データにおける画素との間には一対一の対応関係が存在する。しかしながら、3D画像が2D画像よりも低い解像度を有する場合には、画像データのいくつかの画素がさらなる画像データの1つの画素に対応する。
【0083】
35において、23において選択された画像データの一部分が、物体リストに含まれる距離情報と、所定の基準距離とに基づいてリサンプリングされることにより、方法20のステップ24を参照して上述されたように、リサンプリングされた画像データを生成する。36において、リサンプリングされた画像データが分析されることにより、リサンプリングされた画像データの一部分によって表された物体を分類する。
【0084】
画像面から様々な距離を有するいくつかの物体が、さらなる画像データにおいて識別されたときには、物体のうちの1つを表す画像データの一部分のそれぞれが、それぞれの距離情報と所定の基準距離とに基づいてリサンプリングされる。
【0085】
図4を参照して述べられるように、次に、物体のうちの1つを表す画像データの一部分をリサンプリングすることによって、距離の変動によってもたらされる、物体の画像のサイズの変動が、画像を評価する際に少なくとも部分的に考慮され得る。図4(a)は、道路41を表す2D画像40を概略的に例示する。地平線が概略的に42で示されている。4つの物体43〜46、例えば、車両が、画像面から4つの異なる距離で、道路上で位置決めされ、それに対応して物体の画像のサイズは変動する。画像面から物体44とほぼ同じ距離で位置決めされた、基準距離を定める基準物体に関して教育された学習アルゴリズムは、物体44の物体分類においては、よい結果を提供するが、距離誘発のサイズの差が原因となり、物体43、物体45、および物体46の分類においては不充分な結果をもたらし得る。
【0086】
図4(b)に概略的に例示されているように、物体43を表す、画像40の一部分をダウンサンプリングすることによって、リサンプリングされた画像データ53が生成され、該リサンプリングされた画像データ53は、物体44を表す、画像40の一部分とサイズが同様であり、該物体44はまた、54として、図4(b)に概略的に例示される。同様に、物体45および物体46を表す、画像40の一部分をアップサンプリングすることによって、リサンプリングされた画像データ55およびリサンプリングされた画像データ56が生成され、該リサンプリングされた画像データ55および該リサンプリングされた画像データ56は、物体44を表す、画像40の一部分とサイズが同様である。従って、画像面に対する物体の距離と基準距離とに基づいて、画像データの一部分を適切にダウンサンプリングまたはアップサンプリングすることによって、リサンプリングされた画像データが生成され得、該リサンプリングされた画像データにおいては、物体が画像面から所定の基準距離において位置決めされたときには、1つの画素が元々の画像データによって表された物体のうちの1つとほぼ等しい物体の幅に対応する。従って、画像面からの距離が、物体が元々の画像データのうちの数画素だけで表されるほど大きくない場合には、物体が画像面から様々な距離で画像化されたときであっても、画素で測定されると、物体は、リサンプリングされた画像データにおいては、ほぼ等しいサイズを有する。従って、図4(b)に概略的に示されているように、物体は、事実上、同じ画像面にもたらされ得、図4(b)においては、全ての物体53〜物体56が、事実上、画像面から基準距離で位置決めされている。リサンプリングされた画像データは、新たな画像を形成するために画像データの残りの部分と組み合わされる必要はなく、別々に評価され得るので、図4(b)は、単なる概略であるということが理解される。
【0087】
3D画像に基づいて、物体を表す、画像データの一部分のリサンプリングが、次に、図5〜図8を参照してさらに詳細に述べられる。
【0088】
図5は、3つの車線61〜車線63を有する道路の概略的上面図60であり、該3つの車線61〜車線63は、車線マーカ64と車線マーカ65とによって境界を定められている。車両66は、中央車線62に位置決めされており、該中央車線に、装置67は設置され、該装置67は、図1に示された装置2として構成され得る。装置67は、少なくとも、画像面71を有する2Dカメラと3Dカメラとを含む。3台の他の車両68〜車両70は、車両66から3つの異なる距離dA、dB、およびdCでそれぞれ、車両66の後方に位置決めされている。距離dA、dB、およびdCはそれぞれ、画像面71と、車両68〜車両70の最前部に対応する物体面72〜物体面74との間の距離として画定される。画像面71と、車両69に関連付けられる物体面73との間の距離dBは、基準距離drefと等しく、すなわち、車両69は、基準距離と等しい画像面からの距離で位置決めされている。
【0089】
図6は、装置67の2Dカメラを使用して捕捉された画像データ80の概略的表示である。画像データは、車両68の画像82を表す部分81と、車両69の画像84を表す部分83と、車両70の画像86を表す部分85とを有する。2Dカメラの有限の画素解像度が原因となり、画像データの画素は概略的に示されている。車両68〜車両70を表す画像82と画像84と画像86とのサイズは、画像面からの車両の距離の増加に伴い減少する。画像面からの距離に伴う、車両の画像のサイズの変動は、装置67の2Dカメラの特定の光学特性に依存する。例示のために、車両の画像82と車両の画像84と車両の画像86とのサイズは、画像面71からの距離dA、dB、およびdCそれぞれにほぼ反比例するということが想定される。例示的な画像データにおいて、段差のある外形91、ヘッドライト92、ナンバープレート93、およびタイヤ94などの、車両69の特徴的な形が、画像面から基準距離で位置決めされた車両69の画像84において識別され得る。全てのこれらの特徴が、車両68を表す画像82においても見ることができる。しかしながら、画像86のより小さいサイズと、画像データ80の有限の画素解像度が原因となり、これらの特徴の全てが、車両70を表す画像86においては、識別されないことがあり得る。例えば、段差のある外形とナンバープレートとが、画像86によっては表されていない。ヘッドライト95およびタイヤ96などの他の特徴は、有限の画素解像度が原因となり、歪ませられている。
【0090】
図7は、装置67の3Dカメラを使用して捕捉されたさらなる画像データ110の概略的表示である。画像データは、車両68の画像112を表す一部分111と、車両69の画像114を表す一部分113と、車両70の画像116を表す一部分115とを有する。3Dカメラの有限の画素解像度による画像データの画素が、概略的に示されている。例示された例において、3Dカメラの画素解像度は2Dカメラの画素解像度よりも低く、3D画像の1つの画素は、2D画像の4x4画素に対応する。さらに、例示された例において、2Dカメラの視野は、3Dカメラの視野と同一である。さらなる画像データは、さらなる画像データは、深度情報を含み、すなわち、複数の視点方向に沿って位置決めされた障害物の距離に関する情報を含む。異なる深度が、図7における異なるパターンによって概略的に示されている。車両68の画像112において、車両68の客室およびタイヤを表す部分121および122はそれぞれ、車両68のボンネットを表す部分123のうちの1つよりも大きい3Dカメラに対する距離を有する。車両68の画像111全体の距離の値のこれらの変動に関わらず、距離の変動が、車両の特徴的な長さの尺度の範囲内にある限り、セグメント化アルゴリズムは、さらなる画像データの一部分111を1台の車両に割り当てることが可能である。同様に、客室およびボンネットを表す部分124および部分125それぞれが、車両69の画像114における画像面から異なる距離を有する間に、さらなる画像データの一部分113が、再び、1台の車両に割り当てられる。画像112と比較すると、画像114の異なるパターンによって概略的に示されるように、さらなる画像データの深度情報は、車両69が車両68よりも遠く離れて位置決めされるということを示す。同様に、部分116に対する画素の値は、画像116によって表された車両70が車両69よりも遠く離れて位置決めされているということを示す。
【0091】
さらなる画像データ110に基づいて、セグメント化アルゴリズムは、一部分111と一部分113と一部分115とを識別し、一部分111と一部分113と一部分115とを物体リストの異なる物体に割り当てる。物体のそれぞれに対して、距離の値が、例えば、画像112、画像114、および画像116のそれぞれのうちの1つにおける最低の距離の値として決定されるか、またはそれぞれの画像における距離の値の重み付けられた平均として決定される。
【0092】
明確にするために、図7には示されていないが、さらなる画像データは、車両68〜車両70以外の物体も同様に示す深度情報を含み、例えば、車両が位置決めされる道路、道路脇の樹木などを示す深度情報を含むということが理解される。かかる背景信号は、例えば、樹木の特徴的な形状に基づいて、または車両は、多くの場合に、隣接する数画素に渡って同等の距離の値だけ突出する垂直方向に延びる部分を含むという事実に基づいて、車両を示す信号から区別され得る。
【0093】
さらなる画像データ110における一部分111と一部分113と一部分115との横方向の位置に基づいて、次に、図6の画像データ80における対応する部分がリサンプリングされる。リサンプリングは、さらなる画像データの一部分111と一部分113と一部分115とにおける画素のそれぞれに対して、画像データ80における対応する画素を識別することを含み、それにより画像データ80のリサンプリングされる部分を決定する。例示された例において、画像データのこれらの部分は、一部分81と一部分83と一部分85とのそれぞれに対応する。画像データのこれらの部分のそれぞれに対して、その部分がリサンプリングされるか否かが決定される。その部分がリサンプリングされる場合には、リサンプリング係数が、それぞれの物体の距離と所定の基準距離とに基づいて決定される。
【0094】
一実施形態において、物体が、所定の基準距離drefを上回る画像面からの距離dで位置決めされたときには、物体を表す画像データの一部分がアップサンプリングされ、アップサンプリング係数は、
sfup=d/dref (1)
となり、物体が、所定の基準距離drefを下回る画像面からの距離dで位置決めされたときには、画像データの一部分がダウンサンプリングされ、ダウンサンプリング係数は、
sfdown=dref/d (2)
となる。
【0095】
一実施形態において、アップサンプリング係数またはダウンサンプリング係数を決定するために、方程式(1)および方程式(2)の右側の分数が、分子と分母とのそれぞれにおいてあまりにも大きな数値を有していない有理数によって概算されるか、または右側は、整数によって概算され得る。
【0096】
他の実施形態において、アップサンプリング係数sfupおよびダウンサンプリング係数sfdownはそれぞれ、他の方法で決定され得る。例えば、2Dカメラの焦点長が、物体の距離に伴う画像サイズの変動をモデリングするために考慮され得、リサンプリング係数は、画像面から基準距離で位置決めされた物体に対して獲得された画素における画像サイズを、実際の物体の距離に対して獲得された、画素における画像のサイズによって除算することによって決定され得る。
【0097】
図5〜図7の例に戻ると、画像データ80の一部分81が、係数sfdown=dref/dA=2によってダウンサンプリングされるが、一方、画像データ80の一部分85は、係数sfup=dC/dref=2によってアップサンプリングされる。整数のアップサンプリング係数nによって画像データの一部分をアップサンプリングすることは、最初に、中間の画像を生成するために、その部分におけるあらゆる行をn−1回複写し、次に、中間の画像のあらゆる列をn−1回複写することによって実装され得る。同様に、整数のダウンサンプリング係数nによってダウンサンプリングすることは、中間画像を生成するために、その部分をn行毎に保持し、次に、リサンプリングされた画像データを生成するために、中間画像のn列毎に保持することによって実装され得る。pおよびqが整数である、分数のサンプリング係数sf=p/qによってアップサンプリングすることは、サンプリング係数pによってアップサンプリングし、次に、サンプリング係数qによってダウンサンプリングすることによって実装され得る。分数のサンプリング係数によってダウンサンプリングすることは、対応する方法で実装され得る。
【0098】
図8は、画像データ80の一部分81と一部分85とをリサンプリングすることによって獲得されたリサンプリングされた画像データを概略的に例示する。図8(a)は、sfdown=2によって画像データの部分81をダウンサンプリングすることによって獲得されたリサンプリングされた画像データ131を示す。結果として生じる画像132は、基準距離で位置決めされた車両69の画像84とほぼ同じレベルの詳細およびほぼ同じサイズを有する車両68を示す。上で述べられたように、リサンプリングされた画像データ131は、部分81から1行おきに画素の行を取り除き、かつ、一部分81から1列おきに画素の列を取り除くことによって獲得される。例えば、画像データ131の列141は、列内で1画素おきに画素を取り除かれると、部分81の列101に対応する。
【0099】
図8(c)は、sfup=2によって画像データの部分85をアップサンプリングすることによって獲得されたリサンプリングされた画像データ135を示す。アップサンプリングされた画像データにおいて、部分85のあらゆる画素が2x2画素へ複写される。例えば、リサンプリングされた画像データ135の列142は、実質的に隣接する画素に一部分85の列の105のあらゆる画素を複写することによって生成され、列143は列142の複写である。同様に、リサンプリングされた画像データの列144と列145とは、一部分85の列106から獲得される。車両70の結果として生じる画像136は、元々の画像データにおける画像86と比較すると、追加の詳細を含まず、車両画像136のサイズ全体と、ヘッドライト146およびタイヤ147などの特定の特徴のサイズ全体とが、画像面に対して基準距離で位置決めされた車両69の画像84のうちの1つと同様になる。
【0100】
図8(b)は、車両69の画像84を示す。一部分83は、リサンプリングされる必要はない。なぜならば、車両69は基準距離で位置決めされるからである。
【0101】
図8(a)および図8(c)から見られ得るように、画像データの一部分をリサンプリングすることによって、車両68の画像132と車両70の画像136とが尺度を合わされて、車両が、事実上、画像面から基準距離にもたらされる。車両が基準距離で位置決めされたときに捕捉された基準データに依存する画像データのさらなる分析または評価が、リサンプリングによって容易にされる。例えば、画像認識のための学習アルゴリズムが、車両の画像84に関して教育されたときには、学習アルゴリズムが画像データ内の画像82および画像86を正確に識別することは、困難であり得るが、一方、リサンプリングされた画像データにおける画像132および画像136は、車両としてより容易に分類され得る。
【0102】
画像データの一部分のアップサンプリングとダウンサンプリングとは、上に記述された方法以外の方法でも行われ得る。例えば、ダウンサンプリングにおいて、フィルタが利用され得、該フィルタは、車両が画像面からさらに離れて位置決めされたときの解像度の変化をモデリングする。それによりリサンプリングされた画像データにおいてまだ認識され得る詳細のレベルが、さらに正確に制御され得る。アップサンプリングすることは、例えば、より多くの画素を追加するときに画素の色の値を補間する補間関数を使用することによっても行われ得る。アップサンプリングすることは、アップサンプリングされる部分が位置決めされた視野の新たな画像を捕捉することによっても行われ得、すなわち、新たなより解像度の高い画像を捕捉するために2Dカメラを使用して、この視野に近づくことによっても行われ得る。
【0103】
図9は、方法150の流れ図の表示であり、該方法150は、図1の装置2または図5の装置67によって行われ得る。方法150において、151における2D画像の捕捉と、152における3D画像の捕捉と、153における、3D画像に基づいた物体リストの生成とが行われる。これらのステップは、上で図3を参照して述べられたように実装され得る。
【0104】
154において、物体が物体リストから選択され、画像面に対する物体の距離が検索される。155において、物体の少なくとも一部を含む、2D画像を表す画像データの一部分が決定される。155における決定は、ここでもやはり、例えば、3D画像の画素を2D画像の対応する画素に写像することによって、2D画像を3D画像に適合させることを含み得る。
【0105】
156において、物体リストから検索された距離dは、基準距離drefと比較される。dがdref以下である場合には、157において、画像データの一部分がサンプリング係数sfupによってアップサンプリングされ、該サンプリング係数sfupは、例えば、上で方程式(1)を参照して述べられたように決定され得る。dがdrefを上回る場合には、156において、画像データの一部分がダウンサンプリング係数sfdownによってダウンサンプリングされ、該ダウンサンプリング係数sfdownは、例えば、上で方程式(2)を参照して述べられたように決定され得る。
【0106】
159において、次に、物体が、リサンプリングされた画像データに基づいて分類される。物体の分類は、図3においてステップ36を参照して述べられたように行われ得る。
【0107】
160において、新たな物体が、物体リストから選択され、物体の距離情報が検索され、ステップ155〜ステップ159が繰り返される。
【0108】
方法150は、規則的な時間間隔で繰り返され得る。例えば、装置2が車両に搭載して設置されたときに、方法150は、準継続的な方法で車両の周囲をモニタリングするために、毎秒数回繰り返され得る。
【0109】
図1に示された画像を評価する装置2の構成は、単なる例示であるということと、様々な他の構成が他の実施形態においては実装され得るということとが理解される。
【0110】
図10は、運転手支援システム171の概略的ブロック図の表示であり、該運転手支援システム171は、別の実施形態に従った、画像を評価する装置172と、支援デバイス12とを含む。バス181を介して装置172に結合された支援デバイス12は、上で図1を参照して記述されたように構成され得る。
【0111】
装置172は、処理デバイス173を含み、該処理デバイス173は、評価される画像を表す画像データを受信する入力174と、画像面に対する画像によって表される物体の距離に関する距離情報を受信するさらなる入力175とを有する。処理デバイス173は、さらに、格納デバイス180に結合され、該格納デバイス180は、物体の分類のための基準データを格納している。
【0112】
装置172は、さらに、3Dカメラデバイス176を備え、該3Dカメラデバイス176は、例えば、ステレオカメラなどの3Dカメラ177と、物体識別デバイス179と、画像プロセッサ178とを含む。物体識別デバイス179は、3Dカメラ177に結合されることにより、3Dカメラ177によって取られた3D画像における物体、例えば、ステレオカメラによって取られた2つの画像における物体と、3Dカメラ177の画像面に対する物体の位置とを識別し、かつ、この情報を入力175において処理デバイス173に提供する。画像プロセッサ178は、3Dカメラ177に結合されることにより、3Dカメラ177によって取られた3D画像に基づいて、2D画像を表す画像データを生成する。例えば、3Dカメラがステレオカメラである場合には、画像プロセッサ178は、ステレオカメラによって捕捉された2つの画像からデータを融合することによって2D画像を生成し得るか、または2D画像が、ステレオカメラによって捕捉された2つの画像のうちの1つと同一になるように設定され得る。2D画像を表す画像データが、入力174において処理デバイス173に提供される。
【0113】
処理デバイス173は、入力175において距離情報を受信し、入力174において画像データを受信し、そして、距離情報と所定の基準距離とに基づいて画像データの一部分をリサンプリングする。処理デバイス173は、上で図2〜図9を参照して述べられた方法のうちの任意のものに従って動作し得る。
【0114】
図11は、方法190の流れ図の表示であり、該方法190は、図10の装置171によって行われ得る。191において、3D画像が捕捉され、該3D画像は3D画像データによって表されている。192において、画像によって表された物体の距離情報を含む物体リストは、3D画像データに基づいて生成される。193において、2D画像を表す画像データが3D画像に基づいて生成される。194において、画像データの一部分が物体リストに基づいて選択され、すなわち、3D画像データの分析に基づいて選択される。195において、画像データの少なくとも一部分が、距離情報と所定の基準距離とに基づいてリサンプリングされ、それによりリサンプリングされた画像データを生成する。196において、リサンプリングされた画像データが、例えば、物体の分類を行うことによって評価される。
【0115】
実施形態の上記の記述は、限定ではなく例示であるということと、様々な改変が他の実施形態において実装され得るということとが理解される。例えば、装置2の物体識別デバイス9と装置172の物体識別デバイス179とは、3Dカメラデバイス7および3Dカメラデバイス176それぞれによって構成されるように示されているが、物体識別デバイスはまた、処理デバイス3および処理デバイス173それぞれと一体で形成され得る。すなわち、物体リストが処理デバイスによって生成され得る。
【0116】
様々な物理的実体、例えば、装置の2Dカメラ、3Dカメラ、処理デバイス、物体識別デバイスおよび格納デバイスが、任意の適切なハードウェア、ソフトウェアまたはそれらの組み合わせによって実装され得るということも理解される。例えば、2Dカメラは、CMOSカメラ、CCDカメラ、もしくはその他任意のカメラ、または画像データを提供する光学的コンポーネントの組み合わせであり得る。同様に、3Dカメラは、PMDカメラ、ステレオカメラ、または深度情報を捕捉するのに適したその他任意のデバイスとして構成され得る。処理デバイスは、適切にプログラミングされた専用目的の回路または汎用目的のプロセッサであり得る。
【0117】
さらに、図1および図10、または上に述べられたその他任意の実施形態において示された装置の様々なコンポーネントは、一体で形成され得るか、またはまとめられ得ることにより、予定した用途に適したようなデバイスを形成する。例えば、1つの例示的な実施形態において、図1の処理デバイス3と格納デバイス10とが運転手支援システム12によって構成されたり、図10の処理デバイス173と格納デバイス180とが運転手支援システム12によって構成されたりし得る。またさらに、物体識別デバイス9もまた、運転手支援システム12によって構成され得る。処理デバイス3および処理デバイス173は、制御ユニット13と一体で形成され得、または運転手支援デバイス12のプロセッサ、すなわち、運転手支援デバイス12内に提供される1つのプロセッサが、警告デバイス14および/または保護デバイス15の両方の制御を行い得、その他任意の実施形態に従った画像を評価する方法を行い得る。またさらに、運転手支援システムの物体識別デバイス、処理デバイスおよび制御デバイスが一体に形成され得る。他の改変が他の実施形態において実装され得、該他の実施形態においては、様々なコンポーネントがその他任意の適切な方法で配置および相互接続されるということが理解される。
【0118】
本発明の実施形態が運転手支援システムにおける用途を参照して記述されてきたが、本発明は、この用途に限定されず、画像が評価される任意の用途に対して容易に使用され得る。例えば、本発明の実施形態は、公共の場の監視、または生物学的用途、医学的用途もしくは他の科学的用途に対する画像分析においても利用され得る。
【図面の簡単な説明】
【0119】
【図1】図1は、本発明の実施形態に従った、画像を評価する装置を含む運転手支援システムの概略的ブロック図を示す。
【図2】図2は、本発明の実施形態に従った方法の流れ図の表示である。
【図3】図3は、本発明の別の実施形態に従った方法の流れ図の表示である。
【図4a】図4(a)は、2D画像の概略的表示である。
【図4b】図4(b)は、図4(a)の画像の一部分のリサンプリングを概略的に例示する。
【図5】図5は、道路セグメントを示す概略的上面図であり、該道路セグメントに関して、本発明の実施形態に従った方法が述べられる。
【図6】図6は、図5の道路セグメントの2D画像を概略的に示す。
【図7】図7は、図5の道路セグメントの3D画像を概略的に示す。
【図8】図8は、図6の2D画像のリサンプリングされた部分を概略的に示す。
【図9】図9は、本発明の別の実施形態に従った方法の流れ図の表示である。
【図10】図10は、本発明の別の実施形態に従った、画像を評価する装置を含む運転手支援システムの概略的ブロック図を示す。
【図11】図11は、本発明の別の実施形態に従った方法の流れ図の表示である。
【技術分野】
【0001】
本発明は、画像を評価するための方法および装置に関する。特に、本発明は、車両に搭載の運転手支援システム、または監視システムなどの様々な環境における物体認識のために利用され得る、画像を評価するための方法および装置に関する。
【背景技術】
【0002】
今日、車両を制御する際に運転手を支援するために、および/または運転の安全性を向上させるために、車両は複数の運転手支援機能を提供する。かかる運転手支援機能の例は、駐車補助と、衝突予測機能と、制御論理に従って作動され得るエアバッグまたはシートベルトリトラクタを含む安全機構とを含む。これらの運転手支援機能のうちの一部は、例えば、接近する障害物を検知するために自動的に評価される画像データの形式の、車両の周囲に関する情報に依存したり、少なくとも、その情報を活用したりし得る。一部の運転手支援機能において、車両付近の物体の存在だけでなく、物体の「タイプ」または物体の「種類」、例えば車両または歩行者なども、決定された物体の種類に基づいて適切な行動を取るために自動的に決定され得る。これは、例えば、基準データと比較され得る画像データによって表される、物体の特徴的な幾何形状特徴およびサイズに基づいて、車両の周囲の一部分に対応する視野を有する画像を捕捉し、そして、その画像を表す画像データを評価することにより、物体を検知し、そして、それぞれの物体の種類を決定することよって達成され得る。かかる画像評価に対する従来の手法は、多くの場合に、画像評価と関連付けられる欠点を有する。例えば、画像データが基準データと直接的に比較されるときには、物体の分類の信頼度は、運転手支援機能が設置されている車両に対する物体の距離に依存し得る。例えば、車両から遠く離れた距離の貨物自動車は、貨物自動車の大きな横方向の寸法が原因となって、車両からより近い距離の自動車として誤って識別され得、またはその逆もあり得る。
【0003】
同様の課題が、画像内の物体の自動識別が望ましい他の状況、例えば、公共の場または私有地に設置される監視カメラシステムに存在する。
【発明の開示】
【発明が解決しようとする課題】
【0004】
従って、画像を評価するための、改良された方法および装置に対する必要性が、当該分野に存在する。特に、評価される画像を捕捉するカメラに対する物体の距離の変動によってもたらされる誤差をあまり起こさない結果を提供する、画像を評価するための改良された方法および装置に対する必要性がある。
【課題を解決するための手段】
【0005】
例えば、本発明は以下のものを提供する。
【0006】
(項目1)
画像を評価する方法であって、
該画像を表す画像データ(40;80)を検索するステップと、
該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を検索するステップであって、該物体(43〜46;68〜70)の少なくとも一部は、該画像データ(40;80)によって表される、ステップと、
該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するステップであって、該画像データ(40;80)の該リサンプリングされる部分(43、45、46;81、85)は、該物体(43、45、46;68、70)の少なくとも一部を表す、ステップと
を包含する、方法。
【0007】
(項目2)
上記画像データ(40;80)の上記一部分は、上記物体(43、45、46;68、70)の上記距離(dA、dB、dC)と上記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によってリサンプリングされる、項目1に記載の方法。
【0008】
(項目3)
上記物体(45、46;70)の上記距離(dC)が、上記基準距離(dref)以上である所定の閾値を超過したときには、上記画像データ(40;80)の上記一部分は、アップサンプリングされる、項目1または項目2に記載の方法。
【0009】
(項目4)
上記物体(43;68)の上記距離(dA)が、上記基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、上記画像データ(40;80)の上記一部分は、ダウンサンプリングされる、項目1〜項目3のうちのいずれか1項に記載の方法。
【0010】
(項目5)
上記リサンプリングされた画像データ(53、55、56;131、135)の画素は、上記画像面(71)から上記基準距離(dref)で位置決めされた物体(44;69)の上記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応している、項目1〜項目4のうちのいずれか1項に記載の方法。
【0011】
(項目6)
さらなる画像データ(110)を獲得するステップであって、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、上記画像の視野と重複する、ステップ
を包含する、項目1〜項目5のうちのいずれか1項に記載の方法。
【0012】
(項目7)
上記深度情報に基づいて、上記物体(68〜70)の少なくとも一部を表す、上記さらなる画像データ(110)の一部分(111、113、115)を識別するステップ
を包含する、項目6に記載の方法。
【0013】
(項目8)
上記さらなる画像データ(110)の上記識別された一部分(111、113、115)に基づいて、上記画像データ(40;80)の上記リサンプリングされる部分(43、45、46;81、85)を選択するステップ
を包含する、項目7に記載の方法。
【0014】
(項目9)
上記画像データ(40;80)の上記一部分(43、45、46;81、85)を選択する上記ステップは、該画像データ(40;80)の少なくとも1つの画素を識別することを包含し、該画像データ(40;80)の少なくとも1つの画素は、上記さらなる画像データ(110)の上記一部分(111、113、115)によって含まれる、該さらなる画像データ(110)の画素に対応する、項目8に記載の方法。
【0015】
(項目10)
上記さらなる画像データ(110)に基づいて上記距離情報を決定するステップを包含する、項目6〜項目9のうちのいずれか1項に記載の方法。
【0016】
(項目11)
PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を利用して、上記3次元画像を捕捉するステップを包含する、項目6〜項目10のうちのいずれか1項に記載の方法。
【0017】
(項目12)
2Dカメラ(6;177、178)を利用して上記画像を捕捉するステップを包含する、項目1〜項目11のうちのいずれか1項に記載の方法。
【0018】
(項目13)
複数の物体のタイプを表す複数の基準物体に関する基準データを検索するステップと、
該基準データに基づいて上記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、上記物体を該複数の物体のタイプに分類するステップと
を包含する、項目1〜項目12のうちのいずれか1項に記載の方法。
【0019】
(項目14)
上記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、項目13に記載の方法。
【0020】
(項目15)
上記基準データは、上記基準距離(dref)にほぼ等しい、上記画像面(71)からの距離における、上記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、項目13または項目14に記載の方法。
【0021】
(項目16)
上記距離情報を検索するステップと、上記リサンプリングするステップと、上記分析するステップとはそれぞれ、上記画像データ(40;80)によって表された複数の物体(43、45、46;68、70)のそれぞれに対して行われる、項目13〜項目15のうちのいずれか1項に記載の方法。
【0022】
(項目17)
上記分析の結果を運転手支援デバイス(12)に提供するステップを包含する、項目13〜項目16のうちのいずれか1項に記載の方法。
【0023】
(項目18)
その中に格納された命令を有するデータ格納媒体であって、該命令は、電子演算デバイス(2;172)のプロセッサ(3;173)によって実行されたときには、該演算デバイス(2;172)に、項目1〜項目17のいずれか1項に記載の方法を行うように指示する、データ格納媒体。
【0024】
(項目19)
画像を評価する装置であって、
該画像を表す画像データ(40;80)を受信する入力(4;174)と、該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を受信するさらなる入力(5;175)とを有する処理デバイス(3;173)であって、該物体(43〜46;68〜70)の少なくとも一部は、該画像によって表される、処理デバイス(3;173)
を備え、
該処理デバイス(3;173)は、該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するように構成されており、該画像データ(40;80)の該リサンプリングされた一部分は、該物体(43、45、46;68、70)の少なくとも一部を表す、装置。
【0025】
(項目20)
上記さらなる入力に結合された3Dカメラデバイス(7;176)であって、該3Dカメラデバイス(7;176)は、さらなる画像データ(110)を捕捉するように構成され、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、上記画像の視野と重複する、3Dカメラデバイス(7;176)
を備えている、項目19に記載の装置。
【0026】
(項目21)
上記3Dカメラデバイス(7;176)は、PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を備えている、項目20に記載の装置。
【0027】
(項目22)
上記3Dカメラデバイス(7;176)は、物体識別デバイス(9;179)を備え、該物体識別デバイス(9;179)は、上記さらなる画像データ(110)に基づいて、物体(43〜46;68〜70)と、該物体(43〜46;68〜70)のそれぞれの距離(dA、dB、dC)とを識別するように構成されている、項目20または項目21に記載の装置。
【0028】
(項目23)
上記物体識別デバイス(9;179)は、上記さらなる画像データ(110)に基づいて上記距離情報を決定し、そして、該距離情報を上記処理デバイス(3;173)に提供するように構成されている、項目22に記載の装置。
【0029】
(項目24)
上記3Dカメラデバイス(7;176)は、上記物体の少なくとも一部を表す上記さらなる画像データ(110)の一部分(111、113、115)に関する情報を上記処理デバイス(3;173)に提供するように構成されている、項目20〜項目23のうちのいずれか1項に記載の装置。
【0030】
(項目25)
上記処理デバイス(3;173)は、上記さらなる画像データ(110)の上記一部分(111、113、115)に関する上記情報に基づいて、上記画像データ(40;80)の上記一部分(43、45、46;81、85)を選択するように構成されている、項目24に記載の装置。
【0031】
(項目26)
上記処理デバイス(3;173)の上記入力に結合され、かつ、上記画像を捕捉するように構成されている2Dカメラ(6;177、178)を備えている、項目19〜項目25のうちのいずれか1項の記載の装置。
【0032】
(項目27)
上記2Dカメラ(6)は、CCDカメラまたはCMOSカメラを含む、項目26に記載の装置。
【0033】
(項目28)
上記処理デバイス(3;173)は、上記物体の上記距離(dA、dB、dC)と上記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によって、上記画像データ(40;80)の上記一部分(43、45、46;81、85)をリサンプリングするように構成されている、項目19〜項目27のうちのいずれか1項に記載の装置。
【0034】
(項目29)
上記処理デバイス(3;173)は、上記物体(45、46;70)の上記距離(dC)が、上記基準距離(dref)以上である所定の閾値を超過したときには、上記画像データ(40;80)の上記一部分(45、46;85)をアップサンプリングするように構成され、かつ、上記物体(43;68)の上記距離(dA)が、該基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、該画像データ(40;80)の上記一部分(46;81)をダウンサンプリングするように構成されている、項目19〜項目28のうちのいずれか1項に記載の装置。
【0035】
(項目30)
上記処理デバイス(3;173)は、上記リサンプリングされた画像データ(53、55、56;131、135)の画素が、上記画像面(71)から上記基準距離(dref)で位置決めされた物体(44;69)の上記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応するように、上記画像データ(40;80)の上記一部分(43、45、46;81、85)をリサンプリングするように構成されている、項目19〜項目29のうちのいずれか1項に記載の装置。
【0036】
(項目31)
その中に格納された、複数の物体のタイプを表す複数の基準物体に関する基準データを有する格納デバイス(10;180)であって、上記処理デバイス(3;173)は、該基準データを検索するために該格納デバイス(10;180)に結合されており、そして、該基準データに基づいて上記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、該物体(43〜46;68〜70)を該複数の物体のタイプのうちの1つに分類するように構成されている、項目19〜項目30のうちのいずれか1項に記載の装置。
【0037】
(項目32)
上記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、項目31に記載の装置。
【0038】
(項目33)
上記基準データは、上記基準距離(dref)にほぼ等しい、上記画像面(71)からの距離における、上記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、項目31または項目32のうちのいずれか1項に記載の装置。
【0039】
(項目34)
項目19〜項目33のうちのいずれか1項に記載の装置(2;172)を含む運転手支援システム。
【0040】
(項目35)
上記装置(2;172)によって行なわれる画像評価の結果に基づいて、光学出力信号、音響出力信号、または触覚出力信号のうちの少なくとも1つを提供する出力ユニット(14)を備えている、項目34に記載の運転手支援システム。
【0041】
(項目36)
乗員および/または歩行者保護システム(15)であって、該乗員および/または歩行者保護システム(15)は、上記装置(2;172)に結合されており、かつ、該装置(2;172)によって行なわれた画像評価の結果に基づいて作動されるように構成されている、乗員および/または歩行者保護システム(15)を備えている、項目34または項目35に記載の運転手支援システム。
【0042】
(項目37)
画像を評価する方法であって、
該画像を捕捉することと、
深度情報を含む3次元画像を捕捉することであって、該3次元画像の視野は、該画像の視野と重複する、ことと、
該3次元画像に基づいて、該画像の少なくとも一部分をリサンプリングすることと
を包含する、方法。
【0043】
(項目38)
上記3次元画像はPMD(フォトニックミキサデバイス)カメラを利用して捕捉される、項目37に記載の方法。
【0044】
(項目39)
画像を評価する装置であって、
該画像を捕捉するように構成されたカメラデバイスと、
深度情報を含む3次元画像を捕捉するように構成された3Dカメラデバイスであって、該3次元画像の視野は、該画像の視野と重複する、3Dカメラデバイスと、
処理デバイスであって、該処理デバイスは、該カメラデバイスから該画像を表す画像データを受信するために該カメラデバイスに結合され、かつ、該3Dカメラデバイスから該3次元画像を表すさらなる画像データを受信するために該3Dカメラデバイス結合されており、該処理デバイスは、該さらなる画像データに基づいて該画像データの少なくとも一部分をリサンプリングするように構成されている、処理デバイスと
を備えている、装置。
【0045】
(項目40)
上記3Dカメラデバイスは、PMD(フォトニックミキサデバイス)カメラを含む、項目39に記載の装置。
【0046】
(開示の概要)
画像を評価する方法および装置が提供される。該装置は、処理デバイス(3)を備えており、該処理デバイス(3)は、画像を表す画像データを受信する入力(4)と、画像の画像面に対する、物体の距離に関する距離情報を受信するさらなる入力(5)とを有する。距離情報は、3Dカメラデバイス(7)を利用して捕捉された深度情報を含む3次元画像に基づいて決定され得る。処理デバイス(3)は、距離情報と所定の基準距離との両方に基づいて画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成するように構成されている。画像データのリサンプリングされる部分は物体の少なくとも一部を表す。
【0047】
(概要)
本発明に従って、この必要性は、独立請求項に定義されるような方法および装置によって対処される。従属請求項は、好適な実施形態または有利な実施形態を定義する。
【0048】
本発明の一局面に従って、画像を評価する方法が提供され、該方法は、画像を表す画像データを検索するステップと、画像の画像面に対する物体の距離に関する距離情報を検索するステップであって、物体の少なくとも一部は、画像データによって表される、ステップと、距離情報と所定の基準距離との両方に基づいて、画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成するステップであって、画像データのリサンプリングされた部分は、物体の少なくとも一部を表す、ステップとを包含する。本明細書において使用される場合、用語「画像面」は、評価される画像が、画像を捕捉する光学システムによってマッピングされる(通常は仮想の)面を呼ぶ。この方法に従って、関心のある物体を表す、画像データの一部分が、画像面に対する物体の距離と、所定の基準距離とに基づいてリサンプリングされる。従って、続く、リサンプリングされたデータの分析は、画像面に対するリサンプリングされた画像データの距離によってはあまり影響されない。なぜならば、本方法は、距離に関する影響が画像データの一部分をリサンプリングすることによって少なくとも部分的に考慮に入れられることを可能にするからである。
【0049】
一実施形態において、リサンプリング係数が、物体の距離と基準距離との比較に基づいて決定され得、該リサンプリング係数によって、画像データの一部分がリサンプリングされ得る。例えば、物体の距離が、基準距離以上である所定の閾値を超過したときには、画像データの一部分は、アップサンプリングされ得、および/または物体の距離が、基準距離以下であるさらなる所定の閾値を下回ったときには、画像データの一部分は、ダウンサンプリングされ得る。所定の閾値とさらなる所定の閾値とは、両方とも、基準距離にほぼ等しくなるように選択され得る。例えば、1つの例示的な実施形態において、物体の距離が基準距離を下回るときには、画像データの一部分は、物体の距離によって除算された基準距離とほぼ等しいダウンサンプリング係数によってダウンサンプリングされ得、物体の距離が基準距離を上回るときには、画像データの一部分は、基準距離によって除算された物体の距離とほぼ等しいアップサンプリング係数によってアップサンプリングされ得る。物体の距離と基準距離との比較に基づいてリサンプリング係数を選択することによって、物体を表す、画像データの一部分は、物体の画像のサイズの変動を物体の距離の関数として少なくとも部分的に受け入れるためにサイズを増加または減少させ得る。例えば、リサンプリングされた画像データの画素が、画像面から基準距離で位置決めされた物体の画像データにおける1画素当たりの幅にほぼ等しい、物体の幅に対応するように、画像データの一部分はリサンプリングされ得、それにより物体が基準距離において画像化されたときに、物体が有するサイズを概ね有するように、物体の画像は規模を縮小される。
【0050】
本方法は、さらなる画像データを獲得するステップをさらに包含し得、該さらなる画像データは、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、画像の視野と重複する。3次元画像を表すさらなる画像データを利用することによって、物体を表す、画像データの一部分が便利にも識別され得、画像面に対する物体の距離もまた、さらなる画像データから決定され得る。この方法で、画像が画像データとさらなる画像データとの両方を使用することによって評価され得、すなわち、2次元(2D)画像の情報と3次元(3D)画像の情報とを組み合わせることによって評価され得る。本明細書において使用される場合、用語「深度情報」は、3次元画像の画素によって表された複数の視点方向に沿って位置決めされた物体の距離に関する情報を指す。
【0051】
本方法は、深度情報に基づいて、物体の少なくとも一部を表す、さらなる画像データの一部分を識別することを包含し得る。例えば、ほぼ等しい深度値または少なくとも同様な深度値に対応するさらなる画像データの多数の画素が、物体の少なくとも一部を表す、さらなる画像データの一部分に割り当てられ得る。一実施形態において、複数の物体が、さらなる画像データにおいて、この方法で識別されることにより、様々な物体に対する位置情報および深度情報を含む物体リストを作成し得る。追加の論理機能が、例えば、類似した深度値を有する画素の形状および/または対称性を評価することによって、さらなる画像データ内の物体を識別するために利用され得る。車両が画像データにおいて識別されようとしている場合、例えば、正方形の形状または台形の形状を有する、さらなる画像データ内の画素の構造だけが、さらなる処理のために選択され得る。この方法で、画像データを評価することが、画像データの関連部分に制限され、それにより処理速度を向上させる。
【0052】
さらなる画像データの一部分が、画像データのリサンプリングされる部分を選択する際に利用され得る。すなわち、画像データのリサンプリングされる部分が、さらなる画像データ内で識別された物体に基づいて選択され得る。これは、物体の一部を表す、さらなる画像データの一部分によって、すなわち、さらなる画像データから画像データまで画素のマッピングを行うことによって構成されるさらなる画像データの画素に対応する画像データの画素を識別することを含み得る。
【0053】
3次元画像が、光パルスの伝達時間に基づいた技術を利用して捕捉され、例えば、PMD(フォトニックミキサデバイス)カメラを利用して捕捉され得る。3次元画像がまたステレオカメラを利用して捕捉され得る。画像は、2Dカメラ、例えば、CMOSカメラまたはCCDカメラを利用して捕捉され得る。
【0054】
リサンプリングされた画像データは、物体を分類するためにさらに分析され得る。本明細書において使用される場合、物体の「分類」という用語は、物体が、多数の所与の物体のタイプまたは多数の所与の物体の種類、例えば、自動車、貨物自動車、オートバイ、信号、および/または歩行者などのうちの1つに属するかが決定されるプロセスを指すために使用される。本方法は、複数の物体のタイプを表す複数の基準物体に関する基準データを検索するステップと、基準データに基づいてリサンプリングされた画像データを分析することにより、物体を分類するステップとを包含する。基準データは様々な形式を有し得、対応するように、分析することは、様々な方法で実装され得る。例えば、所謂学習アルゴリズムが、リサンプリングされた画像データを分析するために利用され得、該学習アルゴリズムは、所与の物体のタイプの多数の有効な物体または妥当な物体に関して教育されることにより、次に、この物体のタイプの物体を識別する。この場合、基準データは、学習アルゴリズムを教育することによって獲得されたリサンプリングされた画像データを分析するためのパラメータを含み得る。基準データは、特定の物体のタイプに対して特徴的な形状および/または色に関する情報も含み得、リサンプリングされた画像データは、かかる特徴的な形状および/または色を識別することによって分析されることにより、物体を物体のタイプに適合させる。基準データは、所与の物体のタイプのうちの1つの物体またはいくつかの物体に対する画像データ、例えば、いくつかの異なる自動車またはいくつかの異なる貨物自動車を表す画像データも含み得、リサンプリングされた画像データがこの基準データと比較されることにより物体を物体のタイプに適合させ得る。
【0055】
分析するステップの特定の実装に関わらず、基準データが基準距離とほぼ等しい画像面からある程度の距離で位置決めされた基準物体のうちの少なくとも1つの画像に基づいて生成され得る。次に、分析するステップは、リサンプリングされた画像データに基づいて物体を分類するように充分に適応されており、該リサンプリングされた画像データは、距離依存のリサンプリングによって獲得されたものである。
【0056】
本方法は、画像データによって表されたいくつかの物体を分類するために利用され得る。例えば、複数の物体と、それらの距離とを含む物体リストが、3次元画像を表すさらなる画像データに基づいて生成され得、距離情報を検索するステップと、リサンプリングするステップと、分析するステップとがそれぞれ、複数の物体のそれぞれに対して行われ得る。
【0057】
分析するステップの結果は、運転手支援システムに出力され得る。例えば、接近する物体に関する物体のタイプ、例えば、歩行者、自動車、または貨物自動車に関する情報が、運転手支援システムに出力され得、該運転手補助システムは、安全デバイスを作動させ、および/または物体のタイプに関する情報に基づいて警告信号を出力する。
【0058】
本発明の別の局面に従って、命令を格納したデータ格納媒体が提供され、該命令は、電子演算デバイスのプロセッサによって実行されたときには、演算デバイスに、本発明の任意の一実施形態に従った方法を行わせる。電子演算デバイスは、画像データおよびさらなる画像データを受信する入力を有する汎用プロセッサとして構成され得る。電子演算デバイスはまた、プロセッサと、CMOSカメラまたはCCDカメラと、PMDカメラとを備え得、該プロセッサは、画像データをCMOSカメラまたはCCDカメラから検索し、さらなる画像データをPMDカメラから検索する。
【0059】
本発明の別の局面に従って、画像を評価する装置が提供され、該画像を評価する装置は、画像を表す画像データを受信する入力と、画像の画像面に対する物体の距離に関する距離情報を受信するさらなる入力とを有する処理デバイスを備え、物体の少なくとも一部が、画像によって表される。処理デバイスは、距離情報と所定の基準距離との両方に基づいて、画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成するように構成されており、画像データのリサンプリングされた部分は、物体の少なくとも一部を表す。画像面に対する物体の距離と、所定の基準距離との両方に基づいて、関心のある物体を表す、画像データの一部分をリサンプリングすることによって、この装置においては、リサンプリングされた画像データを分析する前、例えば、物体の分類を分析する前に、距離関連の影響が、少なくとも部分的に考慮され得る。
【0060】
装置は、さらなる入力に結合された3Dカメラデバイスを備え得、該3Dカメラデバイスは、さらなる画像データを捕捉するように構成され、該さらなる画像データは、3次元画像を表し、かつ、深度情報を含み、3次元画像の視野は、画像の視野と重複する。3Dカメラデバイスは、PMD(フォトニックミキサデバイス)カメラまたはステレオカメラを含み得る。3Dカメラデバイスは、さらに、物体識別デバイスを含み得、該物体識別デバイスは、さらなる画像データに基づいて、物体と、物体それぞれの距離とを識別するように構成されている。物体識別デバイスは、さらに、さらなる画像データに基づいて距離情報を決定し、かつ、距離情報を処理デバイスに提供するように構成されている。3Dカメラデバイスがこの構成を有すると、物体の存在と、画像面に対する物体のそれぞれの距離とが、さらなる画像データに基づいて識別され得る。例えば、3Dカメラデバイスは、物体の位置および距離に関する情報を含む物体リストを処理デバイスに提供し得る。
【0061】
3Dカメラデバイスは、物体の少なくとも一部を表す、さらなる画像データの一部分に関する情報を処理デバイスに提供するように構成され得、次に、該処理デバイスは、さらなる画像データの一部分に関する情報に基づいて、画像データの一部分を選択するように構成され得る。この方法で、リサンプリングされる画像データの一部分が、さらなる画像データから獲得された、物体の一部分に関する情報に基づいて選択され得る。
【0062】
装置は、さらに、処理デバイスの入力に結合され、かつ、画像を捕捉するように構成されている2Dカメラを備え得る。2Dカメラは、CCDカメラまたはCMOSカメラを含み得る。
【0063】
処理デバイスは、物体の距離と基準距離との比較に基づいて決定されたリサンプリング係数によって、画像データの一部分をリサンプリングするように構成され得る。物体の距離と基準距離との比較に基づいて、リサンプリングは、アップサンプリングまたはダウンサンプリングを含み得る。特に、処理デバイスは、リサンプリングされた画像データの画素が、画像面から基準距離で位置決めされた物体の画像データにおける1画素当たりの幅にほぼ等しい物体の幅に対応するように、画像データの一部分をリサンプリングするように構成され得る。この方法で、画像内の物体の表示は、画像のさらなる評価を容易にするように規模を縮小され得る。
【0064】
装置は、複数の物体のタイプを表す複数の基準物体に関する基準データを格納している格納デバイスも備え得る。次に、処理デバイスは、基準データを検索するために格納デバイスに結合され得、そして、基準データに基づいてリサンプリングされた画像データを分析することにより、物体を複数の物体のタイプに分類するように構成され得る。基準データは、基準距離にほぼ等しい、画像面からの距離における、前記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成され得る。画像データの一部分が、基準データを利用してリサンプリングされた画像データを分析することによって、物体の距離と基準距離との両方に基づいてリサンプリングされるので、画像化された物体における距離依存の変動によって誘起される影響が低減され得る。
【0065】
装置は、運転手支援システムによって含まれ得る。運転手支援システムはさらに、装置によって行なわれる画像評価の結果に基づいて、光学出力信号、音響出力信号、または触覚出力信号のうちの少なくとも1つを提供する出力ユニットを備え得る。運転手支援システムは、例えば、画像評価の結果に基づいて警告信号を出力し得る。追加的に、または代替的に、運転手支援システムは、乗員および/または歩行者保護システムを備え得、該乗員および/または歩行者保護システムは、装置に結合されており、かつ、装置によって行なわれた画像評価の結果に基づいて作動されるように構成されている。例えば、保護システムは、画像評価の結果に基づいて、車両との衝突が生じることを予測されたときに作動される乗客のエアバッグと、歩行者との衝突が生じることを予測されたときに作動される歩行者エアバッグとを備え得る。
【0066】
本発明の適用範囲の1つは、車両に搭載の運転手支援システムにおけるものであるということが想定される。しかしながら、本発明の様々な実施形態は、この特定の用途に限定されず、多種多様な分野における用途を見出し得、例えば、公共の場の監視などの安全保障関連の用途において捕捉された画像を評価することにおける用途を見出し得る。
【0067】
本発明の追加の特徴および追加の利点は、添付の図面を参照して、好適な実施形態または有利な実施形態に関する以下の詳細な記述からさらに容易に理解される。
【発明を実施するための最良の形態】
【0068】
以下で、本発明の例示的な実施形態が図面を参照して述べられる。以下の記述は、本発明をより良く述べる目的のためだけに与えられており、限定する意味に取られるべきではないということが理解される。特に断りがない場合には、以下で記述される様々な実施形態の特徴は、互いに組み合わされ得るということがまた理解される。
【0069】
図1は、運転手支援システム1の概略的ブロック図の表示であり、該運転手支援システム1は、一実施形態に従った、画像を評価する装置2と、支援デバイス12とを含む。装置2は、処理デバイス3を含み、該処理デバイス3は、評価される画像を表す画像データを受信する入力4と、画像面に対する物体の距離に関する距離情報を受信するさらなる入力5とを有する。処理デバイス3は、さらに、格納デバイス10に結合されており、該格納デバイス10は、物体の分類のための基準データを格納している。
【0070】
処理デバイス3の入力4は、2Dカメラ6に結合され、該2Dカメラ6は、画像を捕捉し、画像を表す画像データを処理デバイス3に提供する。2Dカメラ6は、例えば、CMOSカメラまたはCCDカメラとして構成され得、画像データを処理デバイス3に出力する前に画像データを処理する追加の回路網を含み得る。例えば、処理デバイス3に出力される前に、画像データはフィルタリングされたり、適切に符号化されたりし得る。
【0071】
処理デバイス3のさらなる入力5は、3Dカメラデバイス7に結合され、該3Dカメラデバイス7は、3Dカメラ8と物体識別デバイス9とを含み、該物体識別デバイス9は、3Dカメラ8に結合されている。3Dカメラ8は、さらなる画像データを捕捉し、該さらなる画像データは、複数の視点に対する深度情報、すなわち、複数の視点方向のうちの1つにおける視線に沿って位置決めされたもっとも近い障害物の距離に関する情報を含む3次元画像を表す。物体識別デバイス9は、3Dカメラ8から3次元画像を表すさらなる画像データを受信し、深度情報に基づいて、3Dカメラ8の視野の範囲内の物体の横方向の位置と、障害物それぞれの距離とを決定する。物体識別デバイス9は、セグメント化アルゴリズムを行うように構成され得、該セグメント化アルゴリズムにおいては、3Dカメラからかなりの距離を有する隣接する画素が、1つの物体に属するように割り当てられる。追加の論理機能が、物体識別デバイス9に組み込まれ得る。例えば、車両だけが画像データにおいて識別される場合には、車両に対して一般的に見出される形状を有していない物体が、画像データを評価するときには考慮されないように、長方形の形状または台形の形状に似た形状を有するさらなる画像データにおける画素の範囲だけが識別され得る。物体識別デバイス9が、さらなる画像データにおける関心のある全ての物体の横方向の位置を識別し得、すなわち、物体が位置決めされた領域の座標を識別し得、そして、3Dカメラ8に対するそれぞれの物体の距離を決定し得る。次に、以下において「物体リスト」とも呼ばれるこのデータが、処理デバイス3に提供される。
【0072】
2Dカメラ6の視野が3Dカメラ8の視野と重複するように、3Dカメラデバイス7の2Dカメラ6と3Dカメラ8とは配置および構成される。一実施形態において、視野は実質的に一致する。簡素化するために、2Dカメラ6と3Dカメラ8とが互いに充分近くに配置されることにより、3Dカメラによって捕捉された深度情報が、2Dカメラ6の画像面からのそれぞれの物体の距離に対する充分な概算も提供するということが想定される。一実施形態において、2Dカメラ6と3Dカメラ8とはまた、互いに離れて配置され得、その場合、2Dカメラ6に対する3Dカメラ8の位置が既知であるときには、2Dカメラ6の画像面に対する物体の距離が、3Dカメラ8によって捕捉された深度情報から導き出され得るということが想定される。
【0073】
処理デバイス3は、3Dカメラデバイス7から物体リストを受信し、該物体リストは、少なくとも1つの物体の距離情報、通常は、複数の物体の距離情報を含み、該距離情報は、2Dカメラ6によって捕捉された画像で表示される。以下で、図2および図3を参照してさらに詳細に述べられるように、処理デバイス3は、画像データによって表された物体の距離情報と所定の基準距離とに基づいて、画像データの少なくとも一部分をリサンプリングすることにより、リサンプリングされた画像データを生成し、次に、該リサンプリングされた画像データがさらに評価される。
【0074】
装置2が、バス11を介して支援デバイス12に結合されることにより、画像評価の結果を支援デバイス12に提供する。支援デバイス12は、制御デバイス13と、警告デバイス14と、乗員および/または歩行者保護デバイス15とを含み、該乗員および/または歩行者保護デバイス15は、制御デバイス13に結合されている。バス11を介して装置2から受信された信号に基づいて、制御デバイス13は、警告デバイス14と乗員および/または歩行者保護デバイス15とのうちの1つまたは両方を作動させる。
【0075】
図2は、方法20の流れ図の表示であり、該方法20は、装置2の処理デバイス3によって行われ得る。21において、画像を表す画像データが検索される。画像データは、カメラ、例えば、2Dカメラ6から直接的に検索され得るか、または格納媒体から直接的に検索され得る。22において、画像面からの物体の距離に関する距離情報が検索される。距離情報は、単一の数値であり得るが、その他任意の適切な形式で提供もされ得、例えば、1つの物体または複数の物体の横方向の位置および距離に関する情報を含む物体リストの形式でも提供され得る。23において、リサンプリングされる画像データの一部分が選択される。リサンプリングされる画像データの一部分は、様々な方法で選択され得る。距離情報が3D画像を表すさらなる画像データから獲得された場合には、ステップ23は、物体の少なくとも一部を表す、さらなる(3D)画像データの一部分に対応する画像データの部分を識別し、それにより画像データとさらなる画像データとを適合させることを含み得る。24において、23において選択された部分が、距離情報と所定の基準距離との両方に基づいてリサンプリングされる。一実施形態において、リサンプリング係数が、距離情報と基準距離との両方に基づいて選択される。以下で図4を参照してさらに詳細に述べられるように、リサンプリングされた画像データにおいて、物体が画像面から基準距離で位置決めされたときに画像化された物体に対する1画素当たりの幅にほぼ等しい画像化された物体の幅に対応するように、リサンプリング係数は選択され得る。この方法で、画像面に対する距離変動によってもたらされる、物体のサイズの変動が、少なくとも部分的に考慮される。25において、リサンプリングされた画像データがさらに分析され得る。
【0076】
簡素化の目的で、方法20が、関心のある1つの物体だけが画像データによって表されている場合を参照して上で述べられてきた。関心のある複数の物体が画像内で見ることができるときには、ステップ22〜ステップ25が、物体のそれぞれに対して行われ得るか、または、例えば、概略的に長方形の境界または台形の境界を有していない物体を切り捨てることによって関心のある物体のタイプに従って選択され得る物体のサブセットに対して行われ得る。22において検索された距離情報は、異なる物体に対しては変動し得るということと、それに応じて、24において行われたリサンプリングは、画像面に対する異なる距離に従って変動し得るということとが理解される。画像データがいくつかの物体を表すときには、ステップ22〜ステップ25が、全ての物体に対して連続的に行われ得るか、またはステップ22が、最初に、物体のそれぞれに対して行われ得、続けて、ステップ23が物体のそれぞれに対して行われるなどである。
【0077】
ステップ25における、リサンプリングされた画像データのさらなる分析は、例えば、リサンプリングされた画像データを基準データと比較することにより、物体を分類することを含み得る。リサンプリングされたデータのさらなる分析はまた、リサンプリングされた画像データを利用することにより、例えば、画像化された物体のデータベースを構築したり、画像認識アルゴリズムを教育したりなどすることを含む。
【0078】
一実施形態において、ステップ25における分析は、物体を分類することを含み、すなわち、複数の物体のタイプまたは複数の物体の種類のうちの1つに物体を割り当てることを含む。図1を参照すると、装置2は格納デバイス10を含むことにより、物体を分類するために検索される基準データを格納する。基準データは、複数の異なる物体のタイプに関する情報を含み、該複数の異なる物体のタイプは、自動車、貨物自動車、オートバイ、歩行者、信号などを含む群から選択される。これらの物体のタイプの任意のものに対して、この物体のタイプが、所定の基準距離にほぼ等しい、2Dカメラ6の画像面からの距離で位置決めされている間に、基準データが、例えば、自動車などの、この物体のタイプを有する物体の画像を捕捉することによって生成される。この方法で、画像面から所定の基準距離で位置決めされた基準物体の画像とほぼ同じサイズを有する物体の画像を認識するように、基準データが調節される。
【0079】
格納デバイス10に格納された基準データは、ステップ25における分析の特定の実装に依存した様々な形式を有し得る。例えば、25における分析は、特定の物体のタイプを認識するように教育された学習アルゴリズムに基づき得る。この場合、基準データは、一組のパラメータであり得、該一組のパラメータは、学習アルゴリズムの動作を制御し、かつ、画像面から基準距離で位置決めされた基準物体の画像を使用して教育されている。別の実施形態において、25における分析は、リサンプリングされた画像データによって表された物体が、特定の幾何形状特徴、特定の色、特定の色のパターン、または特定のサイズを有するか否かを決定することを含み、これらは、基準データによって特定され得る。別の実施形態において、25における分析は、基準物体が画像面からほぼ基準距離で位置決めされたときに取られた様々な物体のタイプの基準物体の複数の画像と、リサンプリングされた画像データとのビットに関する比較を含む。
【0080】
22において検索された距離情報は、任意の適切な方法で獲得され得、該距離情報に基づいて、画像の一部分が、24においてリサンプリングされる。図1の装置において、距離情報は、深度情報を含む3D画像を捕捉し評価することによって獲得される。従って、装置2は、2Dカメラ6と3Dカメラデバイス7とのセンサ融合に基づいて、2Dカメラ6によって捕捉された画像を評価する。
【0081】
図3は、方法30の流れ図の表示であり、該方法30は、装置2によって行われ得る。31において、2D画像が捕捉され、該2D画像は画像データによって表される。32において、3D画像が捕捉され、該3D画像は、さらなる画像データによって表される。33において、さらなる画像データが評価されることにより、画像をそれぞれ表すさらなる画像データの一部分、すなわち、3D画像内の範囲を識別し、それにより物体リストを生成し、該物体リストはそれぞれ、物体の距離に関する距離情報を含む。物体リストは、深度情報に基づいてセグメント化アルゴリズムを利用して生成され得、一方、追加の論理機能が、任意的に利用され得、該追加の論理機能は、物体の対称性またはサイズに基づいて利用され得る。距離情報は、3D画像の深度情報から推測され得る。31における、2D画像の捕捉と、32における、3D画像の捕捉とは、同時に行われ得るか、または2D画像において画像化された物体と3D画像において画像化された物体との動きが小さいままであるように充分に短い、2D画像の捕捉と3D画像の捕捉との間の時間遅延を伴って連続的に行われ得る。
【0082】
34において、画像データの一部分が、さらなる画像データに基づいて選択される。33において生成された物体リストは、物体を表すさらなる画像データにおける画素または画素範囲に関する情報を含む。画像データの一部分が、物体リストによって特定された、さらなる画像データにおける画素または画素範囲に対応する画像データにおける画素を識別することによって選択される。2D画像と3D画像とが、同一の解像度と同一な視野とを有する場合には、画像データにおける画素と、さらなる画像データにおける画素との間には一対一の対応関係が存在する。しかしながら、3D画像が2D画像よりも低い解像度を有する場合には、画像データのいくつかの画素がさらなる画像データの1つの画素に対応する。
【0083】
35において、23において選択された画像データの一部分が、物体リストに含まれる距離情報と、所定の基準距離とに基づいてリサンプリングされることにより、方法20のステップ24を参照して上述されたように、リサンプリングされた画像データを生成する。36において、リサンプリングされた画像データが分析されることにより、リサンプリングされた画像データの一部分によって表された物体を分類する。
【0084】
画像面から様々な距離を有するいくつかの物体が、さらなる画像データにおいて識別されたときには、物体のうちの1つを表す画像データの一部分のそれぞれが、それぞれの距離情報と所定の基準距離とに基づいてリサンプリングされる。
【0085】
図4を参照して述べられるように、次に、物体のうちの1つを表す画像データの一部分をリサンプリングすることによって、距離の変動によってもたらされる、物体の画像のサイズの変動が、画像を評価する際に少なくとも部分的に考慮され得る。図4(a)は、道路41を表す2D画像40を概略的に例示する。地平線が概略的に42で示されている。4つの物体43〜46、例えば、車両が、画像面から4つの異なる距離で、道路上で位置決めされ、それに対応して物体の画像のサイズは変動する。画像面から物体44とほぼ同じ距離で位置決めされた、基準距離を定める基準物体に関して教育された学習アルゴリズムは、物体44の物体分類においては、よい結果を提供するが、距離誘発のサイズの差が原因となり、物体43、物体45、および物体46の分類においては不充分な結果をもたらし得る。
【0086】
図4(b)に概略的に例示されているように、物体43を表す、画像40の一部分をダウンサンプリングすることによって、リサンプリングされた画像データ53が生成され、該リサンプリングされた画像データ53は、物体44を表す、画像40の一部分とサイズが同様であり、該物体44はまた、54として、図4(b)に概略的に例示される。同様に、物体45および物体46を表す、画像40の一部分をアップサンプリングすることによって、リサンプリングされた画像データ55およびリサンプリングされた画像データ56が生成され、該リサンプリングされた画像データ55および該リサンプリングされた画像データ56は、物体44を表す、画像40の一部分とサイズが同様である。従って、画像面に対する物体の距離と基準距離とに基づいて、画像データの一部分を適切にダウンサンプリングまたはアップサンプリングすることによって、リサンプリングされた画像データが生成され得、該リサンプリングされた画像データにおいては、物体が画像面から所定の基準距離において位置決めされたときには、1つの画素が元々の画像データによって表された物体のうちの1つとほぼ等しい物体の幅に対応する。従って、画像面からの距離が、物体が元々の画像データのうちの数画素だけで表されるほど大きくない場合には、物体が画像面から様々な距離で画像化されたときであっても、画素で測定されると、物体は、リサンプリングされた画像データにおいては、ほぼ等しいサイズを有する。従って、図4(b)に概略的に示されているように、物体は、事実上、同じ画像面にもたらされ得、図4(b)においては、全ての物体53〜物体56が、事実上、画像面から基準距離で位置決めされている。リサンプリングされた画像データは、新たな画像を形成するために画像データの残りの部分と組み合わされる必要はなく、別々に評価され得るので、図4(b)は、単なる概略であるということが理解される。
【0087】
3D画像に基づいて、物体を表す、画像データの一部分のリサンプリングが、次に、図5〜図8を参照してさらに詳細に述べられる。
【0088】
図5は、3つの車線61〜車線63を有する道路の概略的上面図60であり、該3つの車線61〜車線63は、車線マーカ64と車線マーカ65とによって境界を定められている。車両66は、中央車線62に位置決めされており、該中央車線に、装置67は設置され、該装置67は、図1に示された装置2として構成され得る。装置67は、少なくとも、画像面71を有する2Dカメラと3Dカメラとを含む。3台の他の車両68〜車両70は、車両66から3つの異なる距離dA、dB、およびdCでそれぞれ、車両66の後方に位置決めされている。距離dA、dB、およびdCはそれぞれ、画像面71と、車両68〜車両70の最前部に対応する物体面72〜物体面74との間の距離として画定される。画像面71と、車両69に関連付けられる物体面73との間の距離dBは、基準距離drefと等しく、すなわち、車両69は、基準距離と等しい画像面からの距離で位置決めされている。
【0089】
図6は、装置67の2Dカメラを使用して捕捉された画像データ80の概略的表示である。画像データは、車両68の画像82を表す部分81と、車両69の画像84を表す部分83と、車両70の画像86を表す部分85とを有する。2Dカメラの有限の画素解像度が原因となり、画像データの画素は概略的に示されている。車両68〜車両70を表す画像82と画像84と画像86とのサイズは、画像面からの車両の距離の増加に伴い減少する。画像面からの距離に伴う、車両の画像のサイズの変動は、装置67の2Dカメラの特定の光学特性に依存する。例示のために、車両の画像82と車両の画像84と車両の画像86とのサイズは、画像面71からの距離dA、dB、およびdCそれぞれにほぼ反比例するということが想定される。例示的な画像データにおいて、段差のある外形91、ヘッドライト92、ナンバープレート93、およびタイヤ94などの、車両69の特徴的な形が、画像面から基準距離で位置決めされた車両69の画像84において識別され得る。全てのこれらの特徴が、車両68を表す画像82においても見ることができる。しかしながら、画像86のより小さいサイズと、画像データ80の有限の画素解像度が原因となり、これらの特徴の全てが、車両70を表す画像86においては、識別されないことがあり得る。例えば、段差のある外形とナンバープレートとが、画像86によっては表されていない。ヘッドライト95およびタイヤ96などの他の特徴は、有限の画素解像度が原因となり、歪ませられている。
【0090】
図7は、装置67の3Dカメラを使用して捕捉されたさらなる画像データ110の概略的表示である。画像データは、車両68の画像112を表す一部分111と、車両69の画像114を表す一部分113と、車両70の画像116を表す一部分115とを有する。3Dカメラの有限の画素解像度による画像データの画素が、概略的に示されている。例示された例において、3Dカメラの画素解像度は2Dカメラの画素解像度よりも低く、3D画像の1つの画素は、2D画像の4x4画素に対応する。さらに、例示された例において、2Dカメラの視野は、3Dカメラの視野と同一である。さらなる画像データは、さらなる画像データは、深度情報を含み、すなわち、複数の視点方向に沿って位置決めされた障害物の距離に関する情報を含む。異なる深度が、図7における異なるパターンによって概略的に示されている。車両68の画像112において、車両68の客室およびタイヤを表す部分121および122はそれぞれ、車両68のボンネットを表す部分123のうちの1つよりも大きい3Dカメラに対する距離を有する。車両68の画像111全体の距離の値のこれらの変動に関わらず、距離の変動が、車両の特徴的な長さの尺度の範囲内にある限り、セグメント化アルゴリズムは、さらなる画像データの一部分111を1台の車両に割り当てることが可能である。同様に、客室およびボンネットを表す部分124および部分125それぞれが、車両69の画像114における画像面から異なる距離を有する間に、さらなる画像データの一部分113が、再び、1台の車両に割り当てられる。画像112と比較すると、画像114の異なるパターンによって概略的に示されるように、さらなる画像データの深度情報は、車両69が車両68よりも遠く離れて位置決めされるということを示す。同様に、部分116に対する画素の値は、画像116によって表された車両70が車両69よりも遠く離れて位置決めされているということを示す。
【0091】
さらなる画像データ110に基づいて、セグメント化アルゴリズムは、一部分111と一部分113と一部分115とを識別し、一部分111と一部分113と一部分115とを物体リストの異なる物体に割り当てる。物体のそれぞれに対して、距離の値が、例えば、画像112、画像114、および画像116のそれぞれのうちの1つにおける最低の距離の値として決定されるか、またはそれぞれの画像における距離の値の重み付けられた平均として決定される。
【0092】
明確にするために、図7には示されていないが、さらなる画像データは、車両68〜車両70以外の物体も同様に示す深度情報を含み、例えば、車両が位置決めされる道路、道路脇の樹木などを示す深度情報を含むということが理解される。かかる背景信号は、例えば、樹木の特徴的な形状に基づいて、または車両は、多くの場合に、隣接する数画素に渡って同等の距離の値だけ突出する垂直方向に延びる部分を含むという事実に基づいて、車両を示す信号から区別され得る。
【0093】
さらなる画像データ110における一部分111と一部分113と一部分115との横方向の位置に基づいて、次に、図6の画像データ80における対応する部分がリサンプリングされる。リサンプリングは、さらなる画像データの一部分111と一部分113と一部分115とにおける画素のそれぞれに対して、画像データ80における対応する画素を識別することを含み、それにより画像データ80のリサンプリングされる部分を決定する。例示された例において、画像データのこれらの部分は、一部分81と一部分83と一部分85とのそれぞれに対応する。画像データのこれらの部分のそれぞれに対して、その部分がリサンプリングされるか否かが決定される。その部分がリサンプリングされる場合には、リサンプリング係数が、それぞれの物体の距離と所定の基準距離とに基づいて決定される。
【0094】
一実施形態において、物体が、所定の基準距離drefを上回る画像面からの距離dで位置決めされたときには、物体を表す画像データの一部分がアップサンプリングされ、アップサンプリング係数は、
sfup=d/dref (1)
となり、物体が、所定の基準距離drefを下回る画像面からの距離dで位置決めされたときには、画像データの一部分がダウンサンプリングされ、ダウンサンプリング係数は、
sfdown=dref/d (2)
となる。
【0095】
一実施形態において、アップサンプリング係数またはダウンサンプリング係数を決定するために、方程式(1)および方程式(2)の右側の分数が、分子と分母とのそれぞれにおいてあまりにも大きな数値を有していない有理数によって概算されるか、または右側は、整数によって概算され得る。
【0096】
他の実施形態において、アップサンプリング係数sfupおよびダウンサンプリング係数sfdownはそれぞれ、他の方法で決定され得る。例えば、2Dカメラの焦点長が、物体の距離に伴う画像サイズの変動をモデリングするために考慮され得、リサンプリング係数は、画像面から基準距離で位置決めされた物体に対して獲得された画素における画像サイズを、実際の物体の距離に対して獲得された、画素における画像のサイズによって除算することによって決定され得る。
【0097】
図5〜図7の例に戻ると、画像データ80の一部分81が、係数sfdown=dref/dA=2によってダウンサンプリングされるが、一方、画像データ80の一部分85は、係数sfup=dC/dref=2によってアップサンプリングされる。整数のアップサンプリング係数nによって画像データの一部分をアップサンプリングすることは、最初に、中間の画像を生成するために、その部分におけるあらゆる行をn−1回複写し、次に、中間の画像のあらゆる列をn−1回複写することによって実装され得る。同様に、整数のダウンサンプリング係数nによってダウンサンプリングすることは、中間画像を生成するために、その部分をn行毎に保持し、次に、リサンプリングされた画像データを生成するために、中間画像のn列毎に保持することによって実装され得る。pおよびqが整数である、分数のサンプリング係数sf=p/qによってアップサンプリングすることは、サンプリング係数pによってアップサンプリングし、次に、サンプリング係数qによってダウンサンプリングすることによって実装され得る。分数のサンプリング係数によってダウンサンプリングすることは、対応する方法で実装され得る。
【0098】
図8は、画像データ80の一部分81と一部分85とをリサンプリングすることによって獲得されたリサンプリングされた画像データを概略的に例示する。図8(a)は、sfdown=2によって画像データの部分81をダウンサンプリングすることによって獲得されたリサンプリングされた画像データ131を示す。結果として生じる画像132は、基準距離で位置決めされた車両69の画像84とほぼ同じレベルの詳細およびほぼ同じサイズを有する車両68を示す。上で述べられたように、リサンプリングされた画像データ131は、部分81から1行おきに画素の行を取り除き、かつ、一部分81から1列おきに画素の列を取り除くことによって獲得される。例えば、画像データ131の列141は、列内で1画素おきに画素を取り除かれると、部分81の列101に対応する。
【0099】
図8(c)は、sfup=2によって画像データの部分85をアップサンプリングすることによって獲得されたリサンプリングされた画像データ135を示す。アップサンプリングされた画像データにおいて、部分85のあらゆる画素が2x2画素へ複写される。例えば、リサンプリングされた画像データ135の列142は、実質的に隣接する画素に一部分85の列の105のあらゆる画素を複写することによって生成され、列143は列142の複写である。同様に、リサンプリングされた画像データの列144と列145とは、一部分85の列106から獲得される。車両70の結果として生じる画像136は、元々の画像データにおける画像86と比較すると、追加の詳細を含まず、車両画像136のサイズ全体と、ヘッドライト146およびタイヤ147などの特定の特徴のサイズ全体とが、画像面に対して基準距離で位置決めされた車両69の画像84のうちの1つと同様になる。
【0100】
図8(b)は、車両69の画像84を示す。一部分83は、リサンプリングされる必要はない。なぜならば、車両69は基準距離で位置決めされるからである。
【0101】
図8(a)および図8(c)から見られ得るように、画像データの一部分をリサンプリングすることによって、車両68の画像132と車両70の画像136とが尺度を合わされて、車両が、事実上、画像面から基準距離にもたらされる。車両が基準距離で位置決めされたときに捕捉された基準データに依存する画像データのさらなる分析または評価が、リサンプリングによって容易にされる。例えば、画像認識のための学習アルゴリズムが、車両の画像84に関して教育されたときには、学習アルゴリズムが画像データ内の画像82および画像86を正確に識別することは、困難であり得るが、一方、リサンプリングされた画像データにおける画像132および画像136は、車両としてより容易に分類され得る。
【0102】
画像データの一部分のアップサンプリングとダウンサンプリングとは、上に記述された方法以外の方法でも行われ得る。例えば、ダウンサンプリングにおいて、フィルタが利用され得、該フィルタは、車両が画像面からさらに離れて位置決めされたときの解像度の変化をモデリングする。それによりリサンプリングされた画像データにおいてまだ認識され得る詳細のレベルが、さらに正確に制御され得る。アップサンプリングすることは、例えば、より多くの画素を追加するときに画素の色の値を補間する補間関数を使用することによっても行われ得る。アップサンプリングすることは、アップサンプリングされる部分が位置決めされた視野の新たな画像を捕捉することによっても行われ得、すなわち、新たなより解像度の高い画像を捕捉するために2Dカメラを使用して、この視野に近づくことによっても行われ得る。
【0103】
図9は、方法150の流れ図の表示であり、該方法150は、図1の装置2または図5の装置67によって行われ得る。方法150において、151における2D画像の捕捉と、152における3D画像の捕捉と、153における、3D画像に基づいた物体リストの生成とが行われる。これらのステップは、上で図3を参照して述べられたように実装され得る。
【0104】
154において、物体が物体リストから選択され、画像面に対する物体の距離が検索される。155において、物体の少なくとも一部を含む、2D画像を表す画像データの一部分が決定される。155における決定は、ここでもやはり、例えば、3D画像の画素を2D画像の対応する画素に写像することによって、2D画像を3D画像に適合させることを含み得る。
【0105】
156において、物体リストから検索された距離dは、基準距離drefと比較される。dがdref以下である場合には、157において、画像データの一部分がサンプリング係数sfupによってアップサンプリングされ、該サンプリング係数sfupは、例えば、上で方程式(1)を参照して述べられたように決定され得る。dがdrefを上回る場合には、156において、画像データの一部分がダウンサンプリング係数sfdownによってダウンサンプリングされ、該ダウンサンプリング係数sfdownは、例えば、上で方程式(2)を参照して述べられたように決定され得る。
【0106】
159において、次に、物体が、リサンプリングされた画像データに基づいて分類される。物体の分類は、図3においてステップ36を参照して述べられたように行われ得る。
【0107】
160において、新たな物体が、物体リストから選択され、物体の距離情報が検索され、ステップ155〜ステップ159が繰り返される。
【0108】
方法150は、規則的な時間間隔で繰り返され得る。例えば、装置2が車両に搭載して設置されたときに、方法150は、準継続的な方法で車両の周囲をモニタリングするために、毎秒数回繰り返され得る。
【0109】
図1に示された画像を評価する装置2の構成は、単なる例示であるということと、様々な他の構成が他の実施形態においては実装され得るということとが理解される。
【0110】
図10は、運転手支援システム171の概略的ブロック図の表示であり、該運転手支援システム171は、別の実施形態に従った、画像を評価する装置172と、支援デバイス12とを含む。バス181を介して装置172に結合された支援デバイス12は、上で図1を参照して記述されたように構成され得る。
【0111】
装置172は、処理デバイス173を含み、該処理デバイス173は、評価される画像を表す画像データを受信する入力174と、画像面に対する画像によって表される物体の距離に関する距離情報を受信するさらなる入力175とを有する。処理デバイス173は、さらに、格納デバイス180に結合され、該格納デバイス180は、物体の分類のための基準データを格納している。
【0112】
装置172は、さらに、3Dカメラデバイス176を備え、該3Dカメラデバイス176は、例えば、ステレオカメラなどの3Dカメラ177と、物体識別デバイス179と、画像プロセッサ178とを含む。物体識別デバイス179は、3Dカメラ177に結合されることにより、3Dカメラ177によって取られた3D画像における物体、例えば、ステレオカメラによって取られた2つの画像における物体と、3Dカメラ177の画像面に対する物体の位置とを識別し、かつ、この情報を入力175において処理デバイス173に提供する。画像プロセッサ178は、3Dカメラ177に結合されることにより、3Dカメラ177によって取られた3D画像に基づいて、2D画像を表す画像データを生成する。例えば、3Dカメラがステレオカメラである場合には、画像プロセッサ178は、ステレオカメラによって捕捉された2つの画像からデータを融合することによって2D画像を生成し得るか、または2D画像が、ステレオカメラによって捕捉された2つの画像のうちの1つと同一になるように設定され得る。2D画像を表す画像データが、入力174において処理デバイス173に提供される。
【0113】
処理デバイス173は、入力175において距離情報を受信し、入力174において画像データを受信し、そして、距離情報と所定の基準距離とに基づいて画像データの一部分をリサンプリングする。処理デバイス173は、上で図2〜図9を参照して述べられた方法のうちの任意のものに従って動作し得る。
【0114】
図11は、方法190の流れ図の表示であり、該方法190は、図10の装置171によって行われ得る。191において、3D画像が捕捉され、該3D画像は3D画像データによって表されている。192において、画像によって表された物体の距離情報を含む物体リストは、3D画像データに基づいて生成される。193において、2D画像を表す画像データが3D画像に基づいて生成される。194において、画像データの一部分が物体リストに基づいて選択され、すなわち、3D画像データの分析に基づいて選択される。195において、画像データの少なくとも一部分が、距離情報と所定の基準距離とに基づいてリサンプリングされ、それによりリサンプリングされた画像データを生成する。196において、リサンプリングされた画像データが、例えば、物体の分類を行うことによって評価される。
【0115】
実施形態の上記の記述は、限定ではなく例示であるということと、様々な改変が他の実施形態において実装され得るということとが理解される。例えば、装置2の物体識別デバイス9と装置172の物体識別デバイス179とは、3Dカメラデバイス7および3Dカメラデバイス176それぞれによって構成されるように示されているが、物体識別デバイスはまた、処理デバイス3および処理デバイス173それぞれと一体で形成され得る。すなわち、物体リストが処理デバイスによって生成され得る。
【0116】
様々な物理的実体、例えば、装置の2Dカメラ、3Dカメラ、処理デバイス、物体識別デバイスおよび格納デバイスが、任意の適切なハードウェア、ソフトウェアまたはそれらの組み合わせによって実装され得るということも理解される。例えば、2Dカメラは、CMOSカメラ、CCDカメラ、もしくはその他任意のカメラ、または画像データを提供する光学的コンポーネントの組み合わせであり得る。同様に、3Dカメラは、PMDカメラ、ステレオカメラ、または深度情報を捕捉するのに適したその他任意のデバイスとして構成され得る。処理デバイスは、適切にプログラミングされた専用目的の回路または汎用目的のプロセッサであり得る。
【0117】
さらに、図1および図10、または上に述べられたその他任意の実施形態において示された装置の様々なコンポーネントは、一体で形成され得るか、またはまとめられ得ることにより、予定した用途に適したようなデバイスを形成する。例えば、1つの例示的な実施形態において、図1の処理デバイス3と格納デバイス10とが運転手支援システム12によって構成されたり、図10の処理デバイス173と格納デバイス180とが運転手支援システム12によって構成されたりし得る。またさらに、物体識別デバイス9もまた、運転手支援システム12によって構成され得る。処理デバイス3および処理デバイス173は、制御ユニット13と一体で形成され得、または運転手支援デバイス12のプロセッサ、すなわち、運転手支援デバイス12内に提供される1つのプロセッサが、警告デバイス14および/または保護デバイス15の両方の制御を行い得、その他任意の実施形態に従った画像を評価する方法を行い得る。またさらに、運転手支援システムの物体識別デバイス、処理デバイスおよび制御デバイスが一体に形成され得る。他の改変が他の実施形態において実装され得、該他の実施形態においては、様々なコンポーネントがその他任意の適切な方法で配置および相互接続されるということが理解される。
【0118】
本発明の実施形態が運転手支援システムにおける用途を参照して記述されてきたが、本発明は、この用途に限定されず、画像が評価される任意の用途に対して容易に使用され得る。例えば、本発明の実施形態は、公共の場の監視、または生物学的用途、医学的用途もしくは他の科学的用途に対する画像分析においても利用され得る。
【図面の簡単な説明】
【0119】
【図1】図1は、本発明の実施形態に従った、画像を評価する装置を含む運転手支援システムの概略的ブロック図を示す。
【図2】図2は、本発明の実施形態に従った方法の流れ図の表示である。
【図3】図3は、本発明の別の実施形態に従った方法の流れ図の表示である。
【図4a】図4(a)は、2D画像の概略的表示である。
【図4b】図4(b)は、図4(a)の画像の一部分のリサンプリングを概略的に例示する。
【図5】図5は、道路セグメントを示す概略的上面図であり、該道路セグメントに関して、本発明の実施形態に従った方法が述べられる。
【図6】図6は、図5の道路セグメントの2D画像を概略的に示す。
【図7】図7は、図5の道路セグメントの3D画像を概略的に示す。
【図8】図8は、図6の2D画像のリサンプリングされた部分を概略的に示す。
【図9】図9は、本発明の別の実施形態に従った方法の流れ図の表示である。
【図10】図10は、本発明の別の実施形態に従った、画像を評価する装置を含む運転手支援システムの概略的ブロック図を示す。
【図11】図11は、本発明の別の実施形態に従った方法の流れ図の表示である。
【特許請求の範囲】
【請求項1】
画像を評価する方法であって、
該画像を表す画像データ(40;80)を検索するステップと、
該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を検索するステップであって、該物体(43〜46;68〜70)の少なくとも一部は、該画像データ(40;80)によって表される、ステップと、
該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するステップであって、該画像データ(40;80)の該リサンプリングされる部分(43、45、46;81、85)は、該物体(43、45、46;68、70)の少なくとも一部を表す、ステップと
を包含する、方法。
【請求項2】
前記画像データ(40;80)の前記一部分は、前記物体(43、45、46;68、70)の前記距離(dA、dB、dC)と前記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によってリサンプリングされる、請求項1に記載の方法。
【請求項3】
前記物体(45、46;70)の前記距離(dC)が、前記基準距離(dref)以上である所定の閾値を超過したときには、前記画像データ(40;80)の前記一部分は、アップサンプリングされる、請求項1または請求項2に記載の方法。
【請求項4】
前記物体(43;68)の前記距離(dA)が、前記基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、前記画像データ(40;80)の前記一部分は、ダウンサンプリングされる、請求項1〜請求項3のうちのいずれか1項に記載の方法。
【請求項5】
前記リサンプリングされた画像データ(53、55、56;131、135)の画素は、前記画像面(71)から前記基準距離(dref)で位置決めされた物体(44;69)の前記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応している、請求項1〜請求項4のうちのいずれか1項に記載の方法。
【請求項6】
さらなる画像データ(110)を獲得するステップであって、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、前記画像の視野と重複する、ステップ
を包含する、請求項1〜請求項5のうちのいずれか1項に記載の方法。
【請求項7】
前記深度情報に基づいて、前記物体(68〜70)の少なくとも一部を表す、前記さらなる画像データ(110)の一部分(111、113、115)を識別するステップ
を包含する、請求項6に記載の方法。
【請求項8】
前記さらなる画像データ(110)の前記識別された一部分(111、113、115)に基づいて、前記画像データ(40;80)の前記リサンプリングされる部分(43、45、46;81、85)を選択するステップ
を包含する、請求項7に記載の方法。
【請求項9】
前記画像データ(40;80)の前記一部分(43、45、46;81、85)を選択する前記ステップは、該画像データ(40;80)の少なくとも1つの画素を識別することを包含し、該画像データ(40;80)の少なくとも1つの画素は、前記さらなる画像データ(110)の前記一部分(111、113、115)によって含まれる、該さらなる画像データ(110)の画素に対応する、請求項8に記載の方法。
【請求項10】
前記さらなる画像データ(110)に基づいて前記距離情報を決定するステップを包含する、請求項6〜請求項9のうちのいずれか1項に記載の方法。
【請求項11】
PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を利用して、前記3次元画像を捕捉するステップを包含する、請求項6〜請求項10のうちのいずれか1項に記載の方法。
【請求項12】
2Dカメラ(6;177、178)を利用して前記画像を捕捉するステップを包含する、請求項1〜請求項11のうちのいずれか1項に記載の方法。
【請求項13】
複数の物体のタイプを表す複数の基準物体に関する基準データを検索するステップと、
該基準データに基づいて前記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、前記物体を該複数の物体のタイプに分類するステップと
を包含する、請求項1〜請求項12のうちのいずれか1項に記載の方法。
【請求項14】
前記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、請求項13に記載の方法。
【請求項15】
前記基準データは、前記基準距離(dref)にほぼ等しい、前記画像面(71)からの距離における、前記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、請求項13または請求項14に記載の方法。
【請求項16】
前記距離情報を検索するステップと、前記リサンプリングするステップと、前記分析するステップとはそれぞれ、前記画像データ(40;80)によって表された複数の物体(43、45、46;68、70)のそれぞれに対して行われる、請求項13〜請求項15のうちのいずれか1項に記載の方法。
【請求項17】
前記分析の結果を運転手支援デバイス(12)に提供するステップを包含する、請求項13〜請求項16のうちのいずれか1項に記載の方法。
【請求項18】
その中に格納された命令を有するデータ格納媒体であって、該命令は、電子演算デバイス(2;172)のプロセッサ(3;173)によって実行されたときには、該演算デバイス(2;172)に、請求項1〜請求項17のいずれか1項に記載の方法を行うように指示する、データ格納媒体。
【請求項19】
画像を評価する装置であって、
該画像を表す画像データ(40;80)を受信する入力(4;174)と、該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を受信するさらなる入力(5;175)とを有する処理デバイス(3;173)であって、該物体(43〜46;68〜70)の少なくとも一部は、該画像によって表される、処理デバイス(3;173)
を備え、
該処理デバイス(3;173)は、該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するように構成されており、該画像データ(40;80)の該リサンプリングされた一部分は、該物体(43、45、46;68、70)の少なくとも一部を表す、装置。
【請求項20】
前記さらなる入力に結合された3Dカメラデバイス(7;176)であって、該3Dカメラデバイス(7;176)は、さらなる画像データ(110)を捕捉するように構成され、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、前記画像の視野と重複する、3Dカメラデバイス(7;176)
を備えている、請求項19に記載の装置。
【請求項21】
前記3Dカメラデバイス(7;176)は、PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を備えている、請求項20に記載の装置。
【請求項22】
前記3Dカメラデバイス(7;176)は、物体識別デバイス(9;179)を備え、該物体識別デバイス(9;179)は、前記さらなる画像データ(110)に基づいて、物体(43〜46;68〜70)と、該物体(43〜46;68〜70)のそれぞれの距離(dA、dB、dC)とを識別するように構成されている、請求項20または請求項21に記載の装置。
【請求項23】
前記物体識別デバイス(9;179)は、前記さらなる画像データ(110)に基づいて前記距離情報を決定し、そして、該距離情報を前記処理デバイス(3;173)に提供するように構成されている、請求項22に記載の装置。
【請求項24】
前記3Dカメラデバイス(7;176)は、前記物体の少なくとも一部を表す前記さらなる画像データ(110)の一部分(111、113、115)に関する情報を前記処理デバイス(3;173)に提供するように構成されている、請求項20〜請求項23のうちのいずれか1項に記載の装置。
【請求項25】
前記処理デバイス(3;173)は、前記さらなる画像データ(110)の前記一部分(111、113、115)に関する前記情報に基づいて、前記画像データ(40;80)の前記一部分(43、45、46;81、85)を選択するように構成されている、請求項24に記載の装置。
【請求項26】
前記処理デバイス(3;173)の前記入力に結合され、かつ、前記画像を捕捉するように構成されている2Dカメラ(6;177、178)を備えている、請求項19〜請求項25のうちのいずれか1項の記載の装置。
【請求項27】
前記2Dカメラ(6)は、CCDカメラまたはCMOSカメラを含む、請求項26に記載の装置。
【請求項28】
前記処理デバイス(3;173)は、前記物体の前記距離(dA、dB、dC)と前記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によって、前記画像データ(40;80)の前記一部分(43、45、46;81、85)をリサンプリングするように構成されている、請求項19〜請求項27のうちのいずれか1項に記載の装置。
【請求項29】
前記処理デバイス(3;173)は、前記物体(45、46;70)の前記距離(dC)が、前記基準距離(dref)以上である所定の閾値を超過したときには、前記画像データ(40;80)の前記一部分(45、46;85)をアップサンプリングするように構成され、かつ、前記物体(43;68)の前記距離(dA)が、該基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、該画像データ(40;80)の前記一部分(46;81)をダウンサンプリングするように構成されている、請求項19〜請求項28のうちのいずれか1項に記載の装置。
【請求項30】
前記処理デバイス(3;173)は、前記リサンプリングされた画像データ(53、55、56;131、135)の画素が、前記画像面(71)から前記基準距離(dref)で位置決めされた物体(44;69)の前記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応するように、前記画像データ(40;80)の前記一部分(43、45、46;81、85)をリサンプリングするように構成されている、請求項19〜請求項29のうちのいずれか1項に記載の装置。
【請求項31】
その中に格納された、複数の物体のタイプを表す複数の基準物体に関する基準データを有する格納デバイス(10;180)であって、前記処理デバイス(3;173)は、該基準データを検索するために該格納デバイス(10;180)に結合されており、そして、該基準データに基づいて前記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、該物体(43〜46;68〜70)を該複数の物体のタイプのうちの1つに分類するように構成されている、請求項19〜請求項30のうちのいずれか1項に記載の装置。
【請求項32】
前記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、請求項31に記載の装置。
【請求項33】
前記基準データは、前記基準距離(dref)にほぼ等しい、前記画像面(71)からの距離における、前記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、請求項31または請求項32のうちのいずれか1項に記載の装置。
【請求項34】
請求項19〜請求項33のうちのいずれか1項に記載の装置(2;172)を含む運転手支援システム。
【請求項35】
前記装置(2;172)によって行なわれる画像評価の結果に基づいて、光学出力信号、音響出力信号、または触覚出力信号のうちの少なくとも1つを提供する出力ユニット(14)を備えている、請求項34に記載の運転手支援システム。
【請求項36】
乗員および/または歩行者保護システム(15)であって、該乗員および/または歩行者保護システム(15)は、前記装置(2;172)に結合されており、かつ、該装置(2;172)によって行なわれた画像評価の結果に基づいて作動されるように構成されている、乗員および/または歩行者保護システム(15)を備えている、請求項34または請求項35に記載の運転手支援システム。
【請求項37】
画像を評価する方法であって、
該画像を捕捉することと、
深度情報を含む3次元画像を捕捉することであって、該3次元画像の視野は、該画像の視野と重複する、ことと、
該3次元画像に基づいて、該画像の少なくとも一部分をリサンプリングすることと
を包含する、方法。
【請求項38】
前記3次元画像はPMD(フォトニックミキサデバイス)カメラを利用して捕捉される、請求項37に記載の方法。
【請求項39】
画像を評価する装置であって、
該画像を捕捉するように構成されたカメラデバイスと、
深度情報を含む3次元画像を捕捉するように構成された3Dカメラデバイスであって、該3次元画像の視野は、該画像の視野と重複する、3Dカメラデバイスと、
処理デバイスであって、該処理デバイスは、該カメラデバイスから該画像を表す画像データを受信するために該カメラデバイスに結合され、かつ、該3Dカメラデバイスから該3次元画像を表すさらなる画像データを受信するために該3Dカメラデバイス結合されており、該処理デバイスは、該さらなる画像データに基づいて該画像データの少なくとも一部分をリサンプリングするように構成されている、処理デバイスと
を備えている、装置。
【請求項40】
前記3Dカメラデバイスは、PMD(フォトニックミキサデバイス)カメラを含む、請求項39に記載の装置。
【請求項1】
画像を評価する方法であって、
該画像を表す画像データ(40;80)を検索するステップと、
該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を検索するステップであって、該物体(43〜46;68〜70)の少なくとも一部は、該画像データ(40;80)によって表される、ステップと、
該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するステップであって、該画像データ(40;80)の該リサンプリングされる部分(43、45、46;81、85)は、該物体(43、45、46;68、70)の少なくとも一部を表す、ステップと
を包含する、方法。
【請求項2】
前記画像データ(40;80)の前記一部分は、前記物体(43、45、46;68、70)の前記距離(dA、dB、dC)と前記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によってリサンプリングされる、請求項1に記載の方法。
【請求項3】
前記物体(45、46;70)の前記距離(dC)が、前記基準距離(dref)以上である所定の閾値を超過したときには、前記画像データ(40;80)の前記一部分は、アップサンプリングされる、請求項1または請求項2に記載の方法。
【請求項4】
前記物体(43;68)の前記距離(dA)が、前記基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、前記画像データ(40;80)の前記一部分は、ダウンサンプリングされる、請求項1〜請求項3のうちのいずれか1項に記載の方法。
【請求項5】
前記リサンプリングされた画像データ(53、55、56;131、135)の画素は、前記画像面(71)から前記基準距離(dref)で位置決めされた物体(44;69)の前記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応している、請求項1〜請求項4のうちのいずれか1項に記載の方法。
【請求項6】
さらなる画像データ(110)を獲得するステップであって、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、前記画像の視野と重複する、ステップ
を包含する、請求項1〜請求項5のうちのいずれか1項に記載の方法。
【請求項7】
前記深度情報に基づいて、前記物体(68〜70)の少なくとも一部を表す、前記さらなる画像データ(110)の一部分(111、113、115)を識別するステップ
を包含する、請求項6に記載の方法。
【請求項8】
前記さらなる画像データ(110)の前記識別された一部分(111、113、115)に基づいて、前記画像データ(40;80)の前記リサンプリングされる部分(43、45、46;81、85)を選択するステップ
を包含する、請求項7に記載の方法。
【請求項9】
前記画像データ(40;80)の前記一部分(43、45、46;81、85)を選択する前記ステップは、該画像データ(40;80)の少なくとも1つの画素を識別することを包含し、該画像データ(40;80)の少なくとも1つの画素は、前記さらなる画像データ(110)の前記一部分(111、113、115)によって含まれる、該さらなる画像データ(110)の画素に対応する、請求項8に記載の方法。
【請求項10】
前記さらなる画像データ(110)に基づいて前記距離情報を決定するステップを包含する、請求項6〜請求項9のうちのいずれか1項に記載の方法。
【請求項11】
PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を利用して、前記3次元画像を捕捉するステップを包含する、請求項6〜請求項10のうちのいずれか1項に記載の方法。
【請求項12】
2Dカメラ(6;177、178)を利用して前記画像を捕捉するステップを包含する、請求項1〜請求項11のうちのいずれか1項に記載の方法。
【請求項13】
複数の物体のタイプを表す複数の基準物体に関する基準データを検索するステップと、
該基準データに基づいて前記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、前記物体を該複数の物体のタイプに分類するステップと
を包含する、請求項1〜請求項12のうちのいずれか1項に記載の方法。
【請求項14】
前記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、請求項13に記載の方法。
【請求項15】
前記基準データは、前記基準距離(dref)にほぼ等しい、前記画像面(71)からの距離における、前記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、請求項13または請求項14に記載の方法。
【請求項16】
前記距離情報を検索するステップと、前記リサンプリングするステップと、前記分析するステップとはそれぞれ、前記画像データ(40;80)によって表された複数の物体(43、45、46;68、70)のそれぞれに対して行われる、請求項13〜請求項15のうちのいずれか1項に記載の方法。
【請求項17】
前記分析の結果を運転手支援デバイス(12)に提供するステップを包含する、請求項13〜請求項16のうちのいずれか1項に記載の方法。
【請求項18】
その中に格納された命令を有するデータ格納媒体であって、該命令は、電子演算デバイス(2;172)のプロセッサ(3;173)によって実行されたときには、該演算デバイス(2;172)に、請求項1〜請求項17のいずれか1項に記載の方法を行うように指示する、データ格納媒体。
【請求項19】
画像を評価する装置であって、
該画像を表す画像データ(40;80)を受信する入力(4;174)と、該画像の画像面(71)に対する、物体(43〜46;68〜70)の距離(dA、dB、dC)に関する距離情報を受信するさらなる入力(5;175)とを有する処理デバイス(3;173)であって、該物体(43〜46;68〜70)の少なくとも一部は、該画像によって表される、処理デバイス(3;173)
を備え、
該処理デバイス(3;173)は、該距離情報と所定の基準距離(dref)との両方に基づいて、該画像データ(40;80)の少なくとも一部分(43、45、46;81、85)をリサンプリングすることにより、リサンプリングされた画像データ(53、55、56;131、135)を生成するように構成されており、該画像データ(40;80)の該リサンプリングされた一部分は、該物体(43、45、46;68、70)の少なくとも一部を表す、装置。
【請求項20】
前記さらなる入力に結合された3Dカメラデバイス(7;176)であって、該3Dカメラデバイス(7;176)は、さらなる画像データ(110)を捕捉するように構成され、該さらなる画像データ(110)は、3次元画像を表し、かつ、深度情報を含み、該3次元画像の視野は、前記画像の視野と重複する、3Dカメラデバイス(7;176)
を備えている、請求項19に記載の装置。
【請求項21】
前記3Dカメラデバイス(7;176)は、PMD(フォトニックミキサデバイス)カメラ(8)またはステレオカメラ(177)を備えている、請求項20に記載の装置。
【請求項22】
前記3Dカメラデバイス(7;176)は、物体識別デバイス(9;179)を備え、該物体識別デバイス(9;179)は、前記さらなる画像データ(110)に基づいて、物体(43〜46;68〜70)と、該物体(43〜46;68〜70)のそれぞれの距離(dA、dB、dC)とを識別するように構成されている、請求項20または請求項21に記載の装置。
【請求項23】
前記物体識別デバイス(9;179)は、前記さらなる画像データ(110)に基づいて前記距離情報を決定し、そして、該距離情報を前記処理デバイス(3;173)に提供するように構成されている、請求項22に記載の装置。
【請求項24】
前記3Dカメラデバイス(7;176)は、前記物体の少なくとも一部を表す前記さらなる画像データ(110)の一部分(111、113、115)に関する情報を前記処理デバイス(3;173)に提供するように構成されている、請求項20〜請求項23のうちのいずれか1項に記載の装置。
【請求項25】
前記処理デバイス(3;173)は、前記さらなる画像データ(110)の前記一部分(111、113、115)に関する前記情報に基づいて、前記画像データ(40;80)の前記一部分(43、45、46;81、85)を選択するように構成されている、請求項24に記載の装置。
【請求項26】
前記処理デバイス(3;173)の前記入力に結合され、かつ、前記画像を捕捉するように構成されている2Dカメラ(6;177、178)を備えている、請求項19〜請求項25のうちのいずれか1項の記載の装置。
【請求項27】
前記2Dカメラ(6)は、CCDカメラまたはCMOSカメラを含む、請求項26に記載の装置。
【請求項28】
前記処理デバイス(3;173)は、前記物体の前記距離(dA、dB、dC)と前記基準距離(dref)との比較に基づいて決定されたリサンプリング係数によって、前記画像データ(40;80)の前記一部分(43、45、46;81、85)をリサンプリングするように構成されている、請求項19〜請求項27のうちのいずれか1項に記載の装置。
【請求項29】
前記処理デバイス(3;173)は、前記物体(45、46;70)の前記距離(dC)が、前記基準距離(dref)以上である所定の閾値を超過したときには、前記画像データ(40;80)の前記一部分(45、46;85)をアップサンプリングするように構成され、かつ、前記物体(43;68)の前記距離(dA)が、該基準距離(dref)以下であるさらなる所定の閾値を下回ったときには、該画像データ(40;80)の前記一部分(46;81)をダウンサンプリングするように構成されている、請求項19〜請求項28のうちのいずれか1項に記載の装置。
【請求項30】
前記処理デバイス(3;173)は、前記リサンプリングされた画像データ(53、55、56;131、135)の画素が、前記画像面(71)から前記基準距離(dref)で位置決めされた物体(44;69)の前記画像データ(40;80)における1画素当たりの幅にほぼ等しい、物体の幅に対応するように、前記画像データ(40;80)の前記一部分(43、45、46;81、85)をリサンプリングするように構成されている、請求項19〜請求項29のうちのいずれか1項に記載の装置。
【請求項31】
その中に格納された、複数の物体のタイプを表す複数の基準物体に関する基準データを有する格納デバイス(10;180)であって、前記処理デバイス(3;173)は、該基準データを検索するために該格納デバイス(10;180)に結合されており、そして、該基準データに基づいて前記リサンプリングされた画像データ(53、55、56;131、135)を分析することにより、該物体(43〜46;68〜70)を該複数の物体のタイプのうちの1つに分類するように構成されている、請求項19〜請求項30のうちのいずれか1項に記載の装置。
【請求項32】
前記複数の物体のタイプは、自動車、貨物自動車、オートバイ、信号、および歩行者を含む群から選択される、請求項31に記載の装置。
【請求項33】
前記基準データは、前記基準距離(dref)にほぼ等しい、前記画像面(71)からの距離における、前記基準物体のうちの少なくとも1つの基準物体の画像に基づいて生成される、請求項31または請求項32のうちのいずれか1項に記載の装置。
【請求項34】
請求項19〜請求項33のうちのいずれか1項に記載の装置(2;172)を含む運転手支援システム。
【請求項35】
前記装置(2;172)によって行なわれる画像評価の結果に基づいて、光学出力信号、音響出力信号、または触覚出力信号のうちの少なくとも1つを提供する出力ユニット(14)を備えている、請求項34に記載の運転手支援システム。
【請求項36】
乗員および/または歩行者保護システム(15)であって、該乗員および/または歩行者保護システム(15)は、前記装置(2;172)に結合されており、かつ、該装置(2;172)によって行なわれた画像評価の結果に基づいて作動されるように構成されている、乗員および/または歩行者保護システム(15)を備えている、請求項34または請求項35に記載の運転手支援システム。
【請求項37】
画像を評価する方法であって、
該画像を捕捉することと、
深度情報を含む3次元画像を捕捉することであって、該3次元画像の視野は、該画像の視野と重複する、ことと、
該3次元画像に基づいて、該画像の少なくとも一部分をリサンプリングすることと
を包含する、方法。
【請求項38】
前記3次元画像はPMD(フォトニックミキサデバイス)カメラを利用して捕捉される、請求項37に記載の方法。
【請求項39】
画像を評価する装置であって、
該画像を捕捉するように構成されたカメラデバイスと、
深度情報を含む3次元画像を捕捉するように構成された3Dカメラデバイスであって、該3次元画像の視野は、該画像の視野と重複する、3Dカメラデバイスと、
処理デバイスであって、該処理デバイスは、該カメラデバイスから該画像を表す画像データを受信するために該カメラデバイスに結合され、かつ、該3Dカメラデバイスから該3次元画像を表すさらなる画像データを受信するために該3Dカメラデバイス結合されており、該処理デバイスは、該さらなる画像データに基づいて該画像データの少なくとも一部分をリサンプリングするように構成されている、処理デバイスと
を備えている、装置。
【請求項40】
前記3Dカメラデバイスは、PMD(フォトニックミキサデバイス)カメラを含む、請求項39に記載の装置。
【図1】
【図2】
【図3】
【図4a】
【図4b】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図2】
【図3】
【図4a】
【図4b】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2009−37622(P2009−37622A)
【公開日】平成21年2月19日(2009.2.19)
【国際特許分類】
【外国語出願】
【出願番号】特願2008−200256(P2008−200256)
【出願日】平成20年8月1日(2008.8.1)
【出願人】(504147933)ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー (165)
【Fターム(参考)】
【公開日】平成21年2月19日(2009.2.19)
【国際特許分類】
【出願番号】特願2008−200256(P2008−200256)
【出願日】平成20年8月1日(2008.8.1)
【出願人】(504147933)ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー (165)
【Fターム(参考)】
[ Back to top ]