2020年12月31日 (木)

センサフュージョン(44)

 次は「連合」型センサフュージョンの具体例になるが、年末となって切りが良いので、センサフュージョンはしばらく休憩する。新年からは当面の間、これまでとは違った文系の内容を解説する。

 2020年になった当初は、まさか世界的なパンデミックが広がるとは夢にも思わなかった。2月の時点では、その内収まるだろうと思っていたものが、あれよあれよという間に欧州ロックダウンの流れが日本にも来て、授業もオンラインとなってしまった。

 新型コロナウイルスは、サーズが変形して弱毒化した代わりに感染力が強力になったものである。今後も変形と弱毒化を繰り返して広がり、やがて当たり前のウイルスになるのだろう。日本ではインフルエンザ並みの指定ウイルスとなったとき、ニュース価値がなくなり、通常生活に戻るものと思われる。予想外の出来事にせよ、諸君が現代人としての教養で冷静に考えれば予想でき対処できることである。

 2021年は新型コロナが収まってもっと良くなると信じたいものの、もっと酷いウイルスが流行るかも知れない。どんなときも、諸君は冷静に考え対処して振る舞って欲しい。良いお年を。

 

| | コメント (0)

2020年12月30日 (水)

センサフュージョン(43)

 カメラを使ってパターン認識を行うときは、アクティブセンサの検出とは独立して画像処理だけでパターン分類が可能である。それは、近年ディプラーニングのコンボリューションニューラルネットワークCNNによるパターン認識が急速に発展したからである。

 CNNが使用し始めた当初は、従来のパターン分類同様、対象物体を切り出す作業が必要だった。その後、パターン認識を行うため2ステージ処理と呼ばれる。

 ところが、切り出し作業とパターン認識を一度の行う1ステージ処理の研究が進み、効率よくパターン認識が可能となった。1ステー所処理の基本的な考え方は、画像中で候補となる領域を一度に処理することである。従来のパターン分類手法より、1ステージ処理のCNNを使った方が性能が良さそうに思える。しかし、CNNの処理過程が基本的にブラックボックスで説明のつかない誤認識を起こすことがあるため、従来型のパターン分類も捨てがたいといえる。

 

| | コメント (0)

2020年12月29日 (火)

センサフュージョン(42)

 カメラを使ってパターン分類を行うときは、アクティブセンサの検出とは独立に画像処理だけでパターン分類を行い、その結果とアクティブセンサが検出した物体位置を合わせることが考えられる。

 画像処理でパターン分類を行う場合、対象物体の切り出し(領域分割)が難しい。そのため、アクティブセンサが検出した物体位置を利用する方が効率的である。

 すなわち、トラッキング同様にアクティブセンサが検出した物体領域を中心としてパターン分類を行うとよい。パターン分類の代表的手法は、HOGとアダブーストを用いた手法である。HOGによって画像を多次元化し、検出対象を多数のサンプル画像で学習した結果を小領域毎にSVMで分類し、それらの結果をアダブーストで統合して何に分類するかを決める。具体的には、一般交通で重要となる対象物体を大きく分けると自動車、二輪車、歩行者の3種類なので、これら3種類のサンプルと、それ以外のサンプルを多数集め、4種類の平均HOGパターンを求める。そして、切り出した領域の小領域が4種類のどれに分類されるかをSVMで決定し、最終的にアダブーストで結合して判定する。

 

| | コメント (0)

2020年12月28日 (月)

センサフュージョン(41)

 カラーカメラとアクティブセンサを組み合わせる場合、アクティブセンサーを補間するためにカラー情報を使う。したがって、RGBDのDは使わず、RGBだけでトラッキングすることになる。

 RGBで色情報を表すものの、R、G、Bの分布パターンは似ているため、明確な差が表れにくい。そのため、色情報をより際立たせるためには、HSV情報に変換するとよい。

 RGBそれぞれの値をRGB直交座標系とした成分とし、RGBベクトルと見なしてみよう。すると、第一象限内での相違をみることになる。ところが、HSVに変換し、Hに着目してみよう。Hは360°の円周上の値となるため、2次元ベクトルにはなるものの、相違はRGBより明確になる。

 

| | コメント (0)

2020年12月27日 (日)

センサフュージョン(40)

 カラーカメラを使うと、白黒カメラより計算コストが低いトラッキングが期待できる。白黒カメラの場合は、対象領域の明るさ分布パターンが特徴となるためテンプレートマッチングを使用する。ところが、カラーカメラを使うと、対象領域の明るさ分布だけでなく色分布パターンが使えるため、テンプレートマッチングを使わなくても色分布パターンの類似度を見ればよいからである。

 カラー情報はRGBデータが基本となる。画素毎にRGB値があり、これに距離情報があればRGBDと呼ばれ、環境センサの値としては理想的なものになる。

 

| | コメント (0)

2020年12月26日 (土)

センサフュージョン(39)

 テンプレートマッチングの欠点(拡大縮小回転と明るさの変化に弱い)が気になり、SIFTほど計算コストを上げたくないときは、対象領域をHOGに変換することが考えられる。HOGに変換することにより、特に明るさの変化に強くなる。

 前方走行車に追従している場合、大量領域の画像が急激に拡大縮小回転することは稀である。しかし、明るさが急激に変化する可能性はある。

 例えば、日中なら建造物等の影により画像の明るさパターンが変わり、夜間なら自車他車のライティングで明るさパターンが急変することがある。また、前方走行車がブレーキをかけブレーキランプが点灯したり、ターンシグナルランプが点滅すると明るさパターンが急変する。このようば場合、テンプレートマッチングでは同じモノを見ているにも関わらず、エラー値が高くなる可能性がある。このような明るさパターンの変化に対し、HOGではブロック毎の整合性を見るため、全体の明るさ変化だけでなく一部の明るさパターンが変化しても、同じモノを見ているという判定が可能となる。

 

| | コメント (0)

2020年12月25日 (金)

センサフュージョン(38)

 カメラ系の処理コストに余裕がある場合は、より高性能なマッチング手法の適用も考えることができる。例えば、テンプレートマッチングの欠点をなくしたSIFTの使用が挙げられる。

 テンプレートマッチングは、マッチングを取る2フレーム間で、画像の拡大縮小や回転、それに明るさの変化がある場合にマッチングエラーが生じやすい。これに対しSIFTは画像の拡大縮小回転、明るさの変化に強く、SIFTを使えばより正確に2フレーム間のマッチング精度を計算可能となる。

 前方走行車に追従している場合を考えよう。アクティブセンサーは通常100ミリ秒毎に前方車をスキャンするため、カメラが対象とする2フレーム間も100ミリ秒の間隔となる。100ミリ秒の間に、テンプレートマッチングができなくなるほど急激に前方走行車の画像が拡大縮小回転することは稀なことであり、変化点が気になるのであれば2フレームだけでなく、その前後の観測結果も合わせて判断すればよい。したがって、トラッキングのカメラ使用は、テンプレートマッチングかオプティカルフローで十分であり、SIFTまで使わなくてもよいと思われる。

 

| | コメント (0)

2020年12月24日 (木)

センサフュージョン(37)

 テンプレートマッチングの他、オプティカルフローもトラッキングに利用できる。テンプレートマッチングでは2フレームの画像が同じかどうかが評価対象で、オプティカルフローを使うと対象画像がどの方向にどの程度移動したかがわかる。

 つまり、オプティカルフローを使うと、アクティブセンサーが選択したポイント位置がフレーム間で変動があったとき、それが妥当かどうかを判定できるのである。一般的なアクティブセンサーは縦方向の位置は検出せず横方向だけの位置を検出するものが多いので、オプティカルフローで使う移動情報も横方向だけとなる。

 オプティカルフローの適用領域はテンプレートマッチングと同じで、アクティブセンサーが検出した対象物体位置を中心とした領域を画像処理の対象領域とする。この領域と、次フレームでアクティブセンサーが選定した対象物体位置の画像領域間でオプティカルフロー推定の計算を行う。オプティカルフロー計算にはテンプレートマッチングを使わず、時空間勾配法を使用する方がよい。なぜなら、オプティカルフロー推定にテンプレートマッチングを使うと計算コストがかかることと、先に説明したトラッキングにテンプレートマッチングを適用したこととの差別化が付かなくなるからである。また、時空間勾配を使うと、対象となる2フレーム間が同じ領域かどうかも判定できるため、テンプレートマッチングを使う方法より高度な判定を行うことができる。

 ただし、時空間勾配法は画像ノイズに敏感なため、屋外で使用する状況では注意が必要である。カメラ系の処理コストに余裕があれば、テンプレートマッチングとオプティカルフローの両方を使うとよい。

 

| | コメント (0)

2020年12月23日 (水)

センサフュージョン(36)

 トラッキングに使うカメラ画像処理のアルゴリズムで、もっとも簡便な方法はテンプレートマッチングを使用することである。マッチングに使用する画像は、対象時刻の画像と次フレーム画像である。

 対象となるテンプレートとマッチング先の領域は、アクティブセンサが検出した対象物体位置とする。すなわち、対象時刻のアクティブセンサが検出した位置をテンプレートとし、次フレームのアクティブセンサが検出した位置でマッチングを行うのである。

 すると、アクティブセンサが検出した対象物体位置が、次フレームでも同じ物体の場合、画像側で行ったテンプレートマッチングの結果は低いエラー値となる。ところが、アクティブセンサが検出した物体位置が次フレームで別の物体に変わってしまった場合、画像側のテンプレートマッチングの結果は高いエラー値となる。これによって、アクティブセンサがトラッキングに失敗したことを示すことができる。またこのとき、アクティブセンサが検出した他の物体位置をマッチング対象として計算し、低いエラー値となるものを探して物体位置の補正を行えばトラッキングを継続することができることになる。

 この方法では、画像側の計算は常に単純なテンプレートマッチングの計算を行うだけであり、パターン分類や認識のような高度な処理を行う必要はない。つまり、低コストな計算でアクティブセンサの欠点を補正することができる。

 

| | コメント (0)

2020年12月22日 (火)

センサフュージョン(35)

 カメラを使う融合型センサフュージョンでは、カメラ画像の処理方法が重要となる。すなわち、どの画像処理、画像認識、画像理解(コンピュータービジョン)手法を選ぶかで性能が変わる。

 どの手法を選ぶかは目的によって異なる。カメラを使う目的は、カメラが得意な性能との融合であり、カメラが得意な性能とは、トラッキング、パターン分類、パターン認識である。

 アクティブセンサだけでトラッキングに問題が生じるときとは、アクティブセンサで検出した対象物体が複数存在し、時間推移でそれらの物体位置が交差するような状況である。物体位置が交差しても、それら物体位置が同じ車両等のポイントなら問題ない。しかし、アクティブセンサの空間解像度と位置精度が低く、2つの物体のポイントが時間変化で交錯することがあり得る。また、カーブ路入り口のガードレールを検出し、先行車両が急停止したように見えてしまう場合もある。アクティブセンサよりトラッキング性能の良いカメラデータを利用することで、これら問題を解決することが可能となる。

 

| | コメント (0)

より以前の記事一覧