« センサフュージョン(3) | トップページ | センサフュージョン(5) »

2020年11月19日 (木)

センサフュージョン(4)

 違うセンサを複数使う場合は、同じセンサを使う場合よりさらに複雑になる。全く特性が異なるセンサから得られたデータは、そもそもデータの差異の比較するできないからである。

 例えば、単眼カメラから得られた画像データは画素毎の明るさデータの集まりであり、それにLiDARから得られた距離情報のポイントクラウドデータは単純に比較できるものではない。単眼カメラのデータは2Dデータであり、LiDARから得られたデータは3Dデータである。

 まずは、両者がどこを見ているかを明確にしなければならない。通常、違うセンサの場合はそれぞれのセンサの搭載位置が異なるため、両者の座標を校正し統合しなければならない。両者の座標を統合すれば、両者のデータは同じ対象物体の次元が異なる属性データと考えられるので、データを融合する意味と方法を考える意義が発生する。

 そのため、違うセンサを複数使う場合は、最重要項目は座標校正と座標統合といえる。もちろん、同じセンサを複数使う場合も座標校正は重要であり、ステレオカメラでは最重要項目である。

 

|

« センサフュージョン(3) | トップページ | センサフュージョン(5) »

コメント

コメントを書く



(ウェブ上には掲載しません)




« センサフュージョン(3) | トップページ | センサフュージョン(5) »