« 2019年3月 | トップページ | 2019年5月 »

2019年4月30日 (火)

自動運転のためのセンサシステム入門(30)

 これまで紹介したセンサに比べ、圧倒的にコストが安く小型のため、複数個の超音波センサ搭載が可能である。例えば、車両全周囲に超音波を配置すれば、数m内の障害物検知が可能となる。

 超音波センサは検知距離が短いことの他、低速走行時しか使えないことも注意が必要である。音波のため、通常走行時はノイズが大きくなり使えないからである。

 低速走行しか使えず、検知距離も短いという特性では、適用状況がないように思われる。しかし、駐車時は低速であり、障害物検知も最大数mで良いので、駐車支援に適していることになる。駐車時は車両周囲の近傍が全て見えなくてはならないこともあり、車両全周囲に配置できる超音波センサが使いやすい。天井に設置したLiDARでは、車両周囲の数mが見えない。電波レーダも近過ぎる距離は、処理が追い付かないため不感帯となる。カメラは近いところも見える。しかし、昼夜安定して見ることは難しく、やはり駐車支援用の近傍検知が超音波センサが一番適しているといえる。

| | コメント (0)

2019年4月29日 (月)

自動運転のためのセンサシステム入門(29)

 超音波センサは、LiDARと同じようにパルス状の超音波を送信し、その反射音を受信して物体までの距離をTOFで計測する。光が音波に変わると、測距原理は同じでも状況は非常に異なる。

 音波は空気を媒体として伝わる縦波(粗密波)のため、空気密度が低いため検知距離が非常に短くなる。最大検知距離は、一般的に数mである。

 超音波の送受信には、セラミック圧電素子を用いる。これはセラミックに電圧をかけると歪む性質を利用して超音波を発生させ、セラミックが歪むと電圧を発生する性質を利用して超音波の受信を行う。使用する音波は、人間の不可聴範囲の20000Hz以上(一般には40000Hz)を使用する。音波の周波数が高くなると指向性が鋭くなるため、ある程度狙った地点への送信が可能となる。それでもLiDARほど送信波を絞ることはできず、ある程度広がった形の範囲への送信となる。

| | コメント (0)

2019年4月28日 (日)

自動運転のためのセンサシステム入門(28)

 ディープラーニングには何種類かあり、画像処理で物体検出や認識を行うときは、畳み込みネットワークCNN(Convolutional Neural Network)を使用する。前述のネオコグニトロンから発展したものである。

 CNNの基本は、原画像を入力として、畳み込み層とプーリング層を繰り返し、最終的に目的とする物体か物体でないかを出力する。畳み込みとプーリングを繰り返すため、ネット層の深さは20以上に及ぶこともある。

 畳み込み層とは、画像フィルタのような働きをするところで、数画素×数画素に同サイズの行列の重みを畳み込む。続くプーリング層では、畳み込まれた画素の周囲数画素×数画素内の最大値を選んだり平均値を取ったりして、次元の縮退化を図る。プーリングを行うことにより、物体形状の大きさが違っていたり回転したりしているところを吸収するのである。これを繰り返した結果が、学習に用いたデータで行った結果と似ているか似ていないかを比べるのである。

 ディープラーニングはAIの一分野といわれるものの、CNNでやっていることは学習データと似ているかどうかだけである。知能とは呼べないものの、人間の眼の認識能力を超える場合がある。

| | コメント (0)

2019年4月27日 (土)

自動運転のためのセンサシステム入門(27)

 単眼カメラは、レンズとCCDCharge Coupled Device)イメージセンサーやCMOSComplementary Metal-Oxide Semiconductor)イメージセンサーとその周辺基板、及び処理ボードで構成される。小型化が可能で、車載用バックカメラやドライブレコーダで多用されている。

 単眼カメラ画像処理は、イメージセンサーで画像化されたデータから目的とする物体の形状を検出することが全てであり、各種処理方式がある。現在、世界で寡占状態にあるのがMobileeyeの処理方式であり、同社が提供するビジョンチップの中にあり詳細は非公開である。

 単眼カメラ画像処理で検出可能な物体は、車両、二輪(オートバイ、自転車)、歩行者、道路白線、信号、標識、ナンバープレート、ドライバの顔や姿勢等である。単眼カメラがこれらの物体が得意というよりも、これらの物体の検出が必要なため、それぞれに適した検出アルゴリズムが研究開発されたのである。電波レーダ、LiDAR、ステレオカメラ画像処理に共通する点は、物体までの距離計測を目的として、それぞれのセンサで共通な方式が適用されることである。ところが単眼カメラ画像処理では、物体の種類や属性によって検出方式を変えなければならないという特徴がある。したがって、Mobileeyeの車両形状の検出アルゴリズムがあり、しかもそれは車両の後ろから見た形状だけを検出可能なアルゴリズムなのである。車両を側面から見たときの検出アルゴリズムは、別のものを開発しなければならない。

 ところが、最近台頭してきたディブラーニングは、全ての物体に対して同じアルゴリズムが適用可能である。検出対象を変えるには、対象物体の学習データを変えるだけでよい。

| | コメント (0)

2019年4月26日 (金)

自動運転のためのセンサシステム入門(26)

 ステレオカメラ画像処理では、物体が画像としてカメラに映れば、どんな物体でも距離測定が可能である。電波レーダが電波の反射率に依存したり、LiDARがレーザ光の反射率に依存したりすることに対照的である。

 ところが、物体までの距離精度(解像度)が一定しないという課題がある。なぜなら、視差と距離が反比例するからである。

 物体までの距離が近いところでは、左右画像の視差は大きく距離精度も高い。しかし、物体までの距離が遠くなると、視差は小さくなり距離精度は低くなる。これはACCの車間距離制御にステレオカメラを使うと、車間距離が短いところでは車間距離の変化によく追従して速度制御できるものの、車間距離が長くなると速度制御が鈍感になって来るということである。ステレオカメラの原理は二眼動物の距離検知を真似たものであり、敵が近いときと遠いときで反応の鋭さが変わるという点も結果として似てしまうのである。

 距離による制御の敏感さを狙って開発したとは言い難く、自動運転では距離によらず精度は同じにしておきたい。

| | コメント (0)

2019年4月25日 (木)

自動運転のためのセンサシステム入門(25)

 ステレオカメラは、原理的に光軸を平行にした2つの単眼カメラで構成される。つまり、2つのカメラとこれらカメラから得られる画像から視差情報を計算する処理ボードを付加すれば良い。

 光軸が平行な場合、カメラの撮像面に映る物体の位置は、距離によって左右のカメラで異なる。これを視差(disparity)と呼び、距離が近い程視差は大きくなる。

 視差情報は物体までの距離情報そのものであり、両者は反比例の関係である。よって、視差情報の計算がステレオカメラの本質といえる。視差が距離情報を正確に表すためには、2つの単眼カメラの光軸は精度良く平行でないといけない。そのためステレオカメラは、特に光学系の位置決め精度が重要となる。例えば、アイサイトの光学系の位置精度は、ミクロン・オーダーを誇っている。

 次に重要になるのが、視差情報の処理ボードである。視差計算は計算量が膨大になるため、汎用CPUで計算せず視差計算専用のマイクロ・プロセッサを設定することが多い。

| | コメント (0)

2019年4月24日 (水)

自動運転のためのセンサシステム入門(24)

 デンソー製LiDARがポリゴンミラーを回転させて送信ビームをスキャニング化していたことに対し、Velodyne製LiDARは送射ビーム64本と受光素子64個ごと回転させた。そのため、Velodyne製LiDARは360°スキャンが可能になったのである。

 ミラーを回転させる方式のFOVが狭くなるかというとそうでもなく、IBEO製LiDARはミラー回転ながら広いFOVを達成していた。アウディA8に採用されたIBEO製 LiDARは、バンパー埋込タイプながら140°以上のFOVとなっている。

 IBEOのスキャニング機構は、送信ビームを4本とし、それを直角に反射する平面ミラーを回転させることによって広角FOVを実現させた。反射波もその反射ミラーを通して受光し、レンズ全面の雨滴によるビーム光路の歪みを抑えている。スキャニング機構は他にもあり、モータを使ってミラーを回転するようなメカ的に回転する機構のないメカレス方式が注目されている。メカレス方式としては、固定された送信角の異なる多数のビームを送信するフラッシュ方式、MEMS(Micro Electro Mechanical System)により微小ミラーを搖動させるMEMS方式、電波レーダのように各レーザ素子から放射されたレーザ光を空間で合成して放射指向性を得たフェーズド・アレイ方式等がある。

 これらスキャニング機構でファンビーム化されたLiDARにより、ポイントクラウドデータが得ることができる。フラッシュLiDARは機械的可動部がないもののポイントクラウドの密度を高めるのが難しいため、次世代方式としてはMEMS方式が有望と思われる。

| | コメント (0)

2019年4月23日 (火)

自動運転のためのセンサシステム入門(23)

 スキャン走査方式は、初期のものはモータでミラーを回転させ送信ビームをファンビーム化するものが多かった。そのため、送信用の窓と受信用の窓(レンズ)が別物になっていた。

 この方式では、LiDAR本体のサイズは大きくなってしまうものの、ミラーをポリゴン化したものを使用することが可能である。ポリゴンミラーを使用すると、単にモータによる回転の1次元スキャンでなく、高さ方向が6段階ある2次元スキャンが可能になる。

 1997年にデンソーが発表したものを具体的に紹介しよう。ポリゴンミラーによるスキャン構造は、6角柱の中心が同方向に回転し続けるものである。6面の反射面があるため、理論的には60°までスキャン方向の視野角(FOV:Field of View)を広げられる。現実的には面と面の境界を避けたり、投光ビームをレンズで形成後に別の反射ミラーでポリゴンミラーに投光するため、16°のFOVとしていた。ポリゴンミラーを使う最大のメリットは、ミラーの反射面毎に垂直方向の角度を変えることができることである。つまり、1番目の面から6番目の面まで垂直方向の角度を、例えば1°ずつ減らしていけば、縦方向のFOVを5°以上持つことができ、かつ縦方向に6の解像度を持つことができるのである。

 実際の縦方向のFOVは4.4°だったので、縦×横が4.4°×16°で6×105画素の深さ画像の取得が可能となっていた。この画像をスキャンサイクル10回/秒で生成したのである。

| | コメント (0)

2019年4月22日 (月)

自動運転のためのセンサシステム入門(22)

 LiDARは、レーザ光の送受信によって物体の検出と測距を行う。物体から戻ってくる光の反射方向も同時に検出することで、対象物体の空間構造も計測することができる。

 LiDARが検出できる光の反射角度範囲全体を視野、単一の光検出器が光学系を介して受け取る光の反射角度範囲を瞬時視野と呼ぶ。光の反射方向を検出する方法としては、ビーム偏向器を用いて瞬時視野方向をスキャン走査する方法と、光検出器アレイを用いて瞬時視野を配列化する方法がある。

 瞬時視野内に光を発射する方法も、ビーム偏向器を用いて照射方向をスキャン走査する方法と、高出力光源と投光光学系を用いて一括照明する方法がある。光の送受信を行う方向角を離散化したものがポイントクラウドの1ポイントとなる。スキャン走査方式では、送受信共にビーム偏向器が必要になるものの、安価な単素子の検出器と単一チャネルの受信器や信号処理回路が利用できる。また、走査軌跡上にポイントを自由に配置できるため、高密度化が可能である。一方、一括照射した配列方式では、アレイ検出器、並列処理回路、高出力フラッシュ光源が必要になる。しかし、ビーム偏向器が不要であるため、小型化に有利で、可動摺動部の機械的な劣化を懸念する必要もない。ただし、解像度はアレイ検出器の仕様によって決まり、スキャン走査方式ほど高密度は難しい。この構成はフラッシュLiDARと呼ばれ、近年急速に開発が進んでいる。

 レーザレーダと称され市場に登場した1990年代は、全てのLiDARがスキャン走査方式だった。このときのスキャンはモータでミラーを回すものが多く、今後はモータを使わないスキャン走査方式の登場が期待されている。

| | コメント (0)

2019年4月21日 (日)

自動運転のためのセンサシステム入門(21)

 LiDARは、レンズ、レーザ発信モジュール、受光モジュール、信号処理ボードの他、スキャン走査方式ではスキャン機構で構成される。レーザ光の送受信を行うため、電波レーダのような平面形状は難しく、奥行き方向にサイズのあるものが多い。

 Googleが自動運転を始めたときに使用していたVelodyne社製のLiDARは、本体そのものを360°モータで回転するスキャン方式のため、自動車のルーフ上に搭載していた。一般の乗用車では、ルーフ上に搭載するのは難しく、バンパーに埋め込んでも使えるようなものが望まれる。

 これまでレーザの波長は905nmの近赤外領域のものが多かった。これは、レーザ光を発信するシリコンベースのレーザダイオードの特性から来ている。今後は近赤外よりも長波長のものも検討されている。物体までの測距の原理は、レーザ光をパルス状に発射し、受信までの時間を計測する飛行時間計測(TOF:Time of Flight)方式が一般的である。光の速度を計測するため、かなり速い計測用のクロックが必要となる。現在のLiDARは一回の送受信で測距を行っているが、1990年代の初期のタイプは、速いクロックが使えなかったため送受信を何回も繰り返して行い、距離精度を高める工夫を行っていた。それでも、当時の距離精度は±1mであった。

| | コメント (0)

2019年4月20日 (土)

自動運転のためのセンサシステム入門(20)

 このビート信号をつかって物体認識を行う。基本はA/Dコンバータでビート信号をデジタル信号に変換し、更にその後,FFTにより周波数変換を行う。

 受信波の周波数軸上でピークを検出し、物体の存在を検出する。そして、横方向に複数並んだ周波数のFFTピークを検出し、物体の方位とする。

 一般的には、FFT結果から抽出した複数の周波数ペア(fbu,fbd)に対し、方位の検出結果と前回の計測結果および結果からの予測を使って適正なfbu,fbdのペアを判定する。この周波数ペアから距離と相対速度を計算する。

 電波レーダは、このように検出した物体の距離と相対速度、および方位を検出する。これらの処理は、通常、全て電波レーダ内で行われる。

| | コメント (0)

2019年4月19日 (金)

自動運転のためのセンサシステム入門(19)

 受信アンテナが一つだけでは、前方に物体があるということしかわからない。物体が水平方向のどこにあるかという角度情報を得るためには、送

受信アンテナを物理的に回転してスキャンする方式と、複数の受信アンテナを配置する電子スキャン方式がある。
 電子スキャン方式は可動部がないため、回転スキャン方式より小型化が可能である。また、可動摺動部の機械的な劣化を懸念する必要もない。

 電子スキャン方式は、複数の受信アンテナを設置し、それぞれの受信アンテナの受信信号をデジタル信号処理してアンテナビームを形成するDBF(Digital Beam Forming)レーダといえる。物体が電波レーダの正面にある場合、反射信号は複数の受信ビート周波数間の位相が揃うため、横並びの受信ビート信号間の遷移周波数は0である。ことろが、物体が斜めの位置にある場合、送信アンテナから受信アンテナまでの経路差分の位相差が、受信ビート周波数間に現れる。すなわち、横並びの受信ビート信号間に、この位相差に相当する遷移周波数が現れることになる。こうして、この受信ビート信号間に現れる周波数を計測することで、物体の水平方位角度が得られることになる。

 電子スキャン方式は、隣りの受信アンテナの受信信号の位相差を計測するため、位相差が2πを超えると同じ値を繰り返すことになり物体の角度を一意に決められなくなる。そのため、受信アンテナ間の距離を小さくして、受信位相差が2πを超えないよう設計する必要がある。

| | コメント (0)

2019年4月18日 (木)

自動運転のためのセンサシステム入門(18)

 次からは、電波レーダ、LiDAR、ステレオカメラ、単眼カメラ、超音波の具体的構造を概説する。

 電波レーダは、アンテナ、電波モジュール、信号処理ボードで構成される。これらのパーツはいずれも平面形状に設計され、積み重ねて構成することにより奥行き方向サイズを小さくすることができる。

 自動車に搭載するためには、車載可能なサイズであることが絶対条件である。レンズ等の光学部品が必要なLiDARに対し、奥行きサイズを小さくできる電波レーダの搭載性の有意差は大きい。

 受信アンテナは複数個あり、これらをスイッチで切換えながらビート信号を時分割受信する。時分割受信で得られた受信信号でビームを形成し、電子スキャンを構成する。レーダ方式には、一般的にFMCW方式を採用する。FMCW方式の概要はこのようになる。まず、送信電波の周波数を時間に対し直線的に上昇、下降させ送信する.すると、送信波は前方の物体で反射し、反射した電波はレーダと物標の距離Rに対し、往復分の距離2Rの時間遅れを伴い受信機に入力される。受信部で受信波と送信波をミキシングすることにより、距離Rに比例したビート周波数をもつ信号を抽出する。そして、ビート信号をFFT解析し、ピーク検出により周波数を抽出する。また、レーダと前方の物標との間に相対速度がある場合には、反射した電波はドップラー効果により周波数がシフトする。上昇区間のビート周波数fbuと下降区間のビート周波数fbdを組み合わせることで、距離に相当する周波数fbと相対速度に相当する周波数fdを次のように求めることができる。

fb =(|fbu|+|fbd|) / 2
fd=(|fbu|-|fbd|) / 2

| | コメント (0)

2019年4月17日 (水)

自動運転のためのセンサシステム入門(17)

 これまで、電波レーダ、LiDAR、車載カメラ、超音波センサの車載の経緯を紹介した。これら自律センサだけで自動運転ができるかというと、自律センサだけでは自動化の限界が低くインフラに設置されたセンサ情報も必要となる。

 例えば、自律センサはセンサが見える範囲しか機能しない。見通しが効かないカーブの先の障害物は検知できないのである。

 そのため、更に高度な自動運転を行うため、インフラにも異常を検知するセンサを設置し、そのセンサ情報を車両に送信する仕組みが必要になる。自律センサが見ることができない物陰の障害物だけでなく、自律センサの検知距離よりも先の情報も役に立つ。また、車両間や歩行者と位置情報が双方向で受信できる方式も重要である。交通参加者自らが自分の位置情報と車両なら制御情報も含めて発信(放送)することにより、物陰や自律センサの距離限界に影響されず、互いの位置や進行方向、速度等を知ることができる。インフラ側のセンサも用いることによって、見通しの効かない交差点からの飛び出しは予測できるようになり、カーブの先の突然の渋滞開始も予見できるようになるのである。インフラ側のセンサの充実により路車間通信(V2I)が効力を発し、車々間通信(V2V)で車両相互の衝突防止が図られ、歩車間通信(V2P)により歩行者事故がなくなると期待できる。

 相互通信はまとめてV2Xと称し、世界統一の標準化活動も進んでいる。ヨーロッパはドイツが中心となり自律センサが主体となっているものの、アメリカではV2Xの活動が活発である。

| | コメント (0)

2019年4月16日 (火)

自動運転のためのセンサシステム入門(16)

 超音波センサとは、人間の可聴域(20~20000Hz)よりも周波数が高い超音波の物体までの発射受信時間から距離を計測するセンサである。1980年代にはバックソナーと称され、バンパーに埋め込んで後退駐車時の障害物警報として実用化されていた。

 バックソナーだけでなく、前方のバンパーに埋め込んでフロントソナーと称するものも現われた。また、バンパーのコーナーに装着し、コーナーソナーと称してバンパーのコーナーを擦ることへの警報装置も一般化した。

 日本で開発された超音波センサを応用した商品は、人間が駐車するときに警報で支援するものがほとんどだった。これに対し、ドイツでは超音波センサを利用した自動駐車システムの開発が進んでいた。超音波を前後バンパーに配置し、更に車両側面にも配置して車両全周囲を超音波センサで確認できるようし、自動的に駐車できるようステアリングとアクセル、ブレーキを制御したのである。2010年頃から高級車で実用化され、縦列駐車のような複雑な操作も自動化されたのである。超音波センサで駐車可能スペースを検知するため、5m程の検知距離が必要となる。日本では超音波センサだけで自動駐車するのではなく、バックカメラと併用しての自動駐車を目指していたため、超音波の検知距離は2m程度だった。ドイツでは長距離型の超音波センサを開発し、超音波センサだけで自動駐車できるよう努めたのである。

 ドイツの自動駐車はその後も進化し、ドライバが降車後に無人で自動駐車するシステムまで出現した。自動駐車に限っては、ドイツが世界一といえる。

| | コメント (0)

2019年4月15日 (月)

自動運転のためのセンサシステム入門(15)

 ディープラーニングの登場により、車載カメラが自動運転に応用できる可能性が大幅に向上したといえる。更に、モービルアイの秘密の認識アルゴリズムも必要なくなったともいえる。

 ディープラーニングの登場以前、カメラによる物体認識はその物体の画像上の特徴を発見するアルゴリズムの研究開発が中心だった。ところが、ディープラーニングは学習さえ行えば、どんな物体でも認識できてしまうのである。

 そんな魔法の様なディープラーニングがどうして生まれたのだろうか。ディープラーニングの基礎はニューラルネットワークである。ニューラルネットワークとは、生物の脳の神経細胞であるニューロンが、互いに結合しあって脳内でネットワークを作っている構造を模倣したものである。人工的に模倣したニューラルネットワークでは、3階層程しかうまく機能しなかった。これを1979年、NHKの研究所に勤めていた福島邦彦氏(後に大阪大学等の教授)が、脳の構造をうまく模倣した多層に及ぶネオコグニトロンというニューラルネットワークを発表し改善した。ネオコグニトロンは、学習によって視覚パターン認識能力を獲得していく画期的な方式であり、ほぼディープラーニングと同じ構造をしていた。しかし、当時はコンピュータの環境も今ほど一般的ではなく注目度も低かったのである。

 その後、ネオコグニトロンは海外で研究され、2012年、画像認識協議会で優勝して注目され始めました。ネオコグニトロンは、コンボリューションニューラルネットワークCNNConvolution Neural Network)と名前を変えられたものの、中心的な原理は福島先生が研究したネオコグニトロンそのものであります。

| | コメント (0)

2019年4月14日 (日)

自動運転のためのセンサシステム入門(14)

 一方、単眼カメラは機能を絞れば、ステレオカメラより早く実用化していた。1990年代から、車線認識センサとして登場していたのである。

 道路白線の検出は、物体検出に比べると容易であり機能も複雑でないため車載センサ化しやすい。そのため、車線逸脱警報システムや、前方走行車が自車線上を走行しているかどうかの判断に使われた。

 その他の歩行者認識や車両認識機能が実用化したのは、2000年以降になる。もともとAIの応用分野だったこともあり、多くの企業や大学で実用化が図られた。その中で最も成功しているが、イスラエルから企業したモービルアイ社である。モービルアイは二人の研究者が1999年に興したベンチャー企業で、運転支援システム用の前方監視車載カメラに向けたアルゴリズムの研究開発とチップ化に徹底し、現在の車載単眼カメラの認識チップを寡占している。モービルアイの開発したビジョン・チップは、前方走行車、歩行者、自転車、車線等の認識と距離計測機能があり、性能もすこぶる良い。これらの認識アルゴリズムは全て非公開のため、中味の詳しいことはわからないもののディープラーニングを使っていないことだけは公開されている。

 現在の車載カメラの心臓部はモービルアイの寡占状態なものの、今後はライバルが多数出現することが予想される。なぜなら、ディープラーニングが登場したからである。

| | コメント (0)

2019年4月13日 (土)

自動運転のためのセンサシステム入門(13)

 車載レーダから始まり、LiDARが実用化されても車載カメラの研究が続けられたのはなぜだろうか。それは、レーダやLiDARにない魅力がカメラにあるからである。

 レーダやLiDARの物体計測の基本は、自身が送信した物体からの電波や光の反射波を利用することである。そのため、反射波が帰って来ない物体や状況では適用できないのである。

 ところが、カメラは人間が見ているように、映像化された画像そのものが解析対象となる。つまり、画像からどの部分が対象とする物体かとか、その物体までの距離を検出する方法さえ発見発明すれば、すべての物体や状況に適応できる可能性があるということになる。実際、歩行者や自転車は電波でも光でも反射率が低いため、当時のレーダやLiDARでは検出が難しかった。また、車線を示す道路白線はレーダでは検出不可能である。これに対し、車載カメラは歩行者、自転車、車両、道路白線等、交通に重要なもの全てが検出対象である。そのため、前方走行車に絞らず、自動運転も見据えて全ての道路交通環境を認識しようとすると、カメラが必要になるのである。

 しかしながら、カメラには映像化できる環境しか使えないという避けがたい欠点がある。例えば、太陽を直視したり、真っ暗闇という状況では使用が難しい。

| | コメント (0)

2019年4月12日 (金)

自動運転のためのセンサシステム入門(12)

 車載カメラに映る画像をコンピュータで解析し、走行レーンと障害物を認識しようという研究は、1960年代アメリカのスタンフォード大学で始まった。人工知能AI(Artificial Intelligence) による画像解析である。

 日本でも1970年代、国立の機械技術研究所で車載カメラによって車線と障害物を認識するシステムが発表された。スタンフォード大学は単眼カメラで始め、機械技術研究所は2眼を用いるステレオカメラで始めたのである。

 単眼カメラ方式は、画像のパターンを解析して物体形状を認識するためAIが必要になる。これに対し、ステレオカメラ方式は、二つのカメラに映る物体の距離によるずれ(視差)を検出するため、単眼カメラに用いるAIよりは容易になる。そのため、本格的に車載カメラを運転支援システムに用いたシステムは、ステレオ方式を用いたものの方が実用化が早かったのである。世界に先駆けてステレオ方式の車載カメラを実用化したのは、1999年スバルである。スバルレガシィランカスターに搭載され、ランカスターADA(Active Driving Assist)という名称で発表された。ランカスターADAのステレオカメラは、道路の車線位置と先行車までの車間距離を検出し、車線逸脱警報、車間距離警報、ACC機能を実現したのである。

 ランカスターADAはその後アイサイトと名称を変え、追突防止機能を装備して現在に至る。世界に先駆けて車載カメラによる運転支援システムを実用化したことは、日本人としてとても嬉しく思う。

| | コメント (0)

2019年4月11日 (木)

自動運転のためのセンサシステム入門(11)

 2009年、Googleは自動運転の一般道での公道実験を開始した。スタンフォード大学のアーバン・チャレンジチームが引き抜かれ、方式も何もかもそのまま継続したのである。

 この方式は、ベロダイン社製のHDL64EなるスキャニングLiDARを車両天井に搭載し、事前走行して得た環境のポイントクラウドデータに対してNDTでスキャンマッチングしてSLAMを行うことが基本方式である。アーバン・チャレンジと違っていたのは、使用した車両くらいのものである。

 HDL64Eは2007年のアーバン・チャレンジのために開発されたLiDARである。当時、環境が複雑で地図のない一般道を、車両を自動で走行させるためには精度の良いポイントクラウドデータが必要なことがわかっていた。そのため、車両天井から縦方向に送射する64本のレーザビームを受光素子毎360°回転させ、自車周囲360°の環境の3D情報たるポイントクラウドデータを得るのがHDL64Eの使命だった。このLiDARがスキャンするレートは5~15Hzで、検知最大距離は100mである。つまり、1秒間に最大15回、自車周辺360°の100m以内のポイントクラウドデータが得られるのである。

 Googleシステムは、車両天井中央に配置されるLiDARがメインセンサーである。この方式で自動運転がやりやすいのはわかったものの、普段使用する量産車で天井中央に飛び出したLiDARが市民権を得られるかどうかは意見の分かれるとこだろう。

| | コメント (0)

2019年4月10日 (水)

自動運転のためのセンサシステム入門(10)

 ACC用センサとしては抜群の相性を示したミリ波レーダは、自動運転用センサとして使おうとすると大きな欠点がある。それは空間解像度が低く、追従走行以外には使いづらいということである。

 相対速度が容易にわかるため、高速道路では前方走行車とそれ以外からの反射物を分離することは問題なかった。ところが、空間解像度が低く物体形状を見ているわけではないので、停止車両とガードレールの区別は付かないのである。

 そのため、前方停止車に対する自動ブレーキ制御、いわゆる「ぶつからない車」への適用が難しいという問題があった。また、一般道路では交通環境が複雑になり、ACCとしての使用も難しくなり、高速道路以外で使うためには画像処理とのフュージョン等が必要になったのである。この頃から、Googleが自動運転の一般道路での公道実験を始め、自動運転の可能性を示し始めていた。Googleが使ったセンサはミリ波レーダではなく、スキャニングLiDARだった。Googleシステムは、2007年のアメリカ国防高等研究計画局DARPAが行ったアーバン・チャレンジに優勝したスタンフォード大学チームの方式をそのまま適用したものである。

 Googleシステムを使うと、ミリ波レーダでできなかった一般道路の自動運転が一気に可能になった。以降、この方式が現在までのデファクト方式となっている。

| | コメント (0)

2019年4月 9日 (火)

自動運転のためのセンサシステム入門(9)

 ドイツから始まったミリ波レーダの流れは日本にも波及し、日本のスキャニングLiDARもミリ波レーダに置き換わって行った。こうして2010年頃には、日本市場から車載LiDARは消えて行ったのである。

 LiDARからミリ波レーダに変わった理由は、性能差だけではなく適用システムに依存することころも大きかった。当時の最大の適用システムは、高速道路で前方車に追従走行するACCだったのである。

 ミリ波レーダが採用した物体検出に使う信号処理はFMCW(Frequency Modulated Continuous Wave)方式だった。FMCW方式、すなわち周波数変調連続波は、周波数を変調した連続波を送信し、送信波と反射波のビート周波数の差から距離を求める方式である。この方式の特徴は、距離だけでなく相対速度も同時に計測できることである。LiDARのTOF方式で相対速度を計測する場合、一回の計測では距離しか求めることができない。そこで、2回計測してそれらの距離差から相対速度を求めることになる。つまり、相対速度の計測が1回の計測分遅れることになる。ACCでは前方走行車の相対速度計測が重要な制御要因になるため、ACCへの適用はミリ波レーダが圧倒的に有利だったのである。

 ドイツのアウトバーンでACCを利用するとき、使用速度域の関係から車間計測距離が長く、相対速度を速く、そしてある程度の霧や霞でも使えることが重要である。そのため、当時、ACCへの適用はミリ派レーダがベストマッチといえた。

| | コメント (0)

2019年4月 8日 (月)

自動運転のためのセンサシステム入門(8)

 ファンビーム方式のLiDARの登場により、日本における高速道路でのACC用センサとしては、ほぼ問題はなくなっていた。ただし、それは晴天時に限ったことだった。

 当時、LiDARを使ったACCでは、雨天時に動作させない仕様が多かった。具体的には、ワイパースイッチがオン状態では、ACCが作動しないようになっていたのである。

 ACCが雨天時に作動させないのは、レーザ光は雨による減衰があるので、雨天時は計測精度が落ちるためと思われていた。実際は、雨による減衰はあるものの、車間距離計測の精度が極端に落ちるほどではなかった。問題は、LiDARを室外に設置しているため、前述のように投光レンズ窓の前に付着した雨粒により本来の光路が歪み、更に受光レンズ窓に付着した雨粒により光路が歪むため、対象物体の位置情報が大きくずれてしまったのである。更に、前方車が跳ね上げる路面水のスプラッシュ自体を検出し、車間距離を短く計測するという問題もあった。そのため、自動車業界ではLiDARは雨雪に弱いというレッテルが貼られた。

 ドイツではボッシュがミリ波レーダを登場させ、ACC用センサは固定ビームLiDARからミリ波レーダに置き換わった。ミリ波レーダはLiDARよりも車両検出距離が長く、雨に強かったのである。

| | コメント (0)

2019年4月 7日 (日)

自動運転のためのセンサシステム入門(7)

 ファンビーム方式のLiDARで計測した点は、自車前方の障害物の位置と形状を点(ポイント)で表し点群の雲のように見えるため、ポイントクラウド(Point Cloud)と呼ぶようになった。ファンビーム方式はレーザスキャナと同原理のため、レーザスキャナーで得られたデータもポイントクラウドと呼ぶ。

 ただし、全ての物体の表面のデータが得られるかというと、そうではなかった。LiDARが発するレーザビームが反射する点のみがデータ化されたのである。

 レーザ光は900nm付近の近赤外領域となるため、人間の目には見えず、光源を見つめると網膜が焼けてします危険性があるため、厳しく出力が規制されている。そのため、強いレーザビームを送信できず、反射率の高いものしか検出できなかったのである。幸いなことに自動車の後面にはリフレックスリフレクタという反射板が義務化されているため、前方走行車の検出には困らなかった。しかし、泥等で反射板が汚れてしまうと検出できない状況も発生していた。

 また、近赤外は霧に吸収されるため、霧中走行では使えなかった。雨が強くなると、LiDARのレンズに付着した水滴でビームが散乱する状況も生じた。

| | コメント (0)

2019年4月 6日 (土)

自動運転のためのセンサシステム入門(6)

 車載LiDARが出現したとき送信されるレーザビームは、太目のものを真っすぐ前方に1本と、検知範囲を広げるため検出距離を短めにした左右2本の計3本だった。3本のビームは固定式のため、自車前方レーンのみが検知範囲だった。

 このときのLiDARの機能は、車間距離を計測して接近し過ぎたときドライバに警報するだけのものだった。更に商品性をあげるべく、LiDARは前方走行車への追従が可能なアダプティブ・クルーズ・コントロールACC(Adaptive Crouse Control)用のセンサへと進化した。

 ACCと車間距離警報に必要な機能は、前方走行車までの車間距離計測であり、両者とも同じ性能で良さそうなものの、ACCが車間距離を制御することから、車間距離警報よりも高性能なものが求められる。すなわち、直進しているときだけでなくカーブでの走行時も前方走行車を連続して認識できないといけないのである。直進自車レーンだけだった検知範囲を、カーブ走行も考慮して、自車レーンの左右2レーン程を検出可能な範囲まで広げなければならなくなった。そのため、固定ビーム方式から、レーザビームを細く絞り左右上下に振るファンビーム方式を採用することになった。

 LiDARを固定ビームからファンビームに変更することは比較的容易である。レーザ光をミラーに送信し、ミラーを回転させればファンビームとなる。

| | コメント (0)

2019年4月 5日 (金)

自動運転のためのセンサシステム入門(5)

 レーザレーダが自動ブレーキを見据えたシステムとして、突然現れたのには理由がある。GMがサイクロン・コンセプトを発表した当時、レーザ光がまだ存在していなかったためである。

 レーザとは、Light Amplification by Stimulated Emission of Radiation(輻射の誘導放出による光増幅)の頭文字を並べたLASERなのである。人間が作り出した人工的な光であり、初めて登場したのが1960年だったのである。

 電波レーダの歴史はレーザより古く、1940年代には航空機の探知レーダが実用化していた。ちなみにレーダとは、Radio Detecting and Ranging(電波探知測距)の頭字後である。1980年代に半導体レーザが一般化し、電波よりも早く車載できるものが開発できたのである。レーザレーダという言葉は、レーダに対応したLiDAR(Light Detection and Ranging、またはLaser Imaging Detection and Ranging)という言葉に置き換われた。以降、ここでもレーザレーダをLiDARと称する。

| | コメント (0)

2019年4月 4日 (木)

自動運転のためのセンサシステム入門(4)

 レーダで前方を監視し、先行車が急ブレーキをかけたときドライバが脇見で気付かなければ自動でブレーキをかける自動ブレーキシステムは、誰もが実用化を望んだ。1959年、実用化の課題はコストとサイズだった。

 サイクロン・コンセプトのようなコンセプトカーなら、レーダのコストもサイズも大した問題にならない。しかし、量産車ではコストと、搭載に必要なスペースはクリアしないと話にならないのである。

 当時、自動車用レーダを量産したとしても、当時の見積ではコストが現代の感覚で30万円以上することがわかったのである。量産車に30万円もする部品は高すぎ、装備することは考えられない。また、車載可能だったとはいえ、他の部品に影響を与えずにバンパーやグリルに収まるサイズではなかったのである。そこで、車載レーダの現実的なコストとサイズを実現すべく実用化が始まった。ところが、思った他時間がかかり、先に市場に搭乗したのは電波ではなくレーザ光を物体に送信して反射させ、その受信光から距離を求めるレーザレーダだったのである。

 1992年、世界初となるレーザレーダを使ったシステムが三菱ディアマンテに搭載された。しかしまだ自動ブレーキ機能はなく、車間距離を警報するだけものものだった。

| | コメント (0)

2019年4月 3日 (水)

自動運転のためのセンサシステム入門(3)

    自動運転の魅力の一つが安全性である。その安全性の象徴が自動ブレーキといえる。

 自動車はハンドルをきるか、ブレーキをかけないと何かにぶつかってしまう。自動でハンドルをきるのは周辺も監視しないといけないので難しくなり、自動でブレーキをかけるのは前方監視だけで良さそうなの自動ハンドルより簡単そうに思える。

 自動運転を実現する前に、自動運転機能の要素から実現していく流れとなった。その要素で最も望まれたものが自動ブレーキである。自動ブレーキを道路に埋め込まれた磁気デバイスをセンシングという手段でなく、自律的に車載センサで前方の障害物を検出してブレーキを制御する方向になったのである。ここで、最も重要な技術が前方を監視する車載センサである。当時の技術で成立する可能があったものは、電波を発信し物体からの反射波を受信して物体の存在と距離を測る電波レーダだった。1950年代後半には、航空機で既に実用化していたものを車載可能なサイズまで小型化する目途が立ち、1959年に発表したGMの未来コンセプトカー「サイクロン」に搭載されたのである。

 サイクロンは自動ブレーキだけでなく、数々の未来装備に溢れていた。この写真で開いているドアとキャノピーは、音声コマンドで開閉するキーフリーシステムだったのである。Wpcontent252fuploads252f2015252f10252f19

| | コメント (0)

2019年4月 2日 (火)

自動運転のためのセンサシステム入門(2)

Electricdriverlesscargoingintothenewelec  この絵は1956年のアメリカの電力会社の新聞広告である。私の生まれる前から、自動運転の未来は約束されていたのである。

 自動運転が衆目の前に搭乗したのは、この広告から更にさかのぼった1939年だった。ニューヨークで開催された万国博覧会に出品したアメリカのゼネラルモーターズ(GM)の未来社会の展示だったのである。

 新聞広告のイラストは、万博に使われたもののようだ。絵をよく見てみると、高速道路の車線中央に黒いもの(磁気デバイス)が埋め込まれているように見える。自動車側がこの磁気デバイスを感知して左右方向を制御するようである。また、どの磁気デバイス上を走行しているかがわかるので、前後の車両と通信して安全な車間距離を確保する仕組みだ。当時、この仕組みは実際に実験も行い、実現可能な方式と思われていた。ところが、いざ実現しようとすると、仕組みの実現性ではなく道路に磁気デバイスを埋め込む大変さが問題となった。普通の道路とは比べられないほど、磁気デバイスのメンテナンスに費用がかかることがわかったのだ。

 そのため、インフラの力に頼らない自動運転の方向に研究開発がシフトしていった。そして生み出されたものが車載レーダーである。

| | コメント (0)

2019年4月 1日 (月)

自動運転のためのセンサシステム入門(1)

 今日からしばらくセンサシステム入門を始めます。最終的にセンサフュージョンに繋がります。

 いよいよ自動運転が実現しそうになってきた。欧米では使用区間を限定した自動運転サービスが既に現実のものとなっている。

 自動運転を実現するためのコア技術は、ハードウエア的にセンサ技術である。そして、今後普及するために必要なソフトウエア的なコア技術は、センサフュージョン技術であるといえる。

 自動運転車が人間に代わって現実の世界で運転するためには、外界の状況を認識するセンサが不可欠である。そのため、ハードウエア的にセンサ技術がコア技術になるのである。それでは、更になぜソフトウエア的にセンサフュージョンが必要なのだろうか。それは、一種類のセンサで外界を認識するのが不十分だからである。外界センサには、超音波センサから電波レーダ、レーザレーダ(LiDAR)やカメラ等がある。これらのセンサ一種類のみで、人間並みに外界を認識することはできない。それぞれ一長一短あり、どれがベストともいえない。そのため、それぞれの欠点を補うように組み合わせて使う必要があるのである。この組み合わせというのは、それぞれのセンサ出力をソフト的に組み合わせるのである。そしてこの組み合わせをセンサフュージョンという。

 ただ組み合わせれば良いのではなく、それぞれのセンサの特性を十分理解した上で組み合わせる必要がある。更に組合せにはノウハウがあり、そのためセンサフュージョンという専門用語が生まれたのである。

| | コメント (0)

« 2019年3月 | トップページ | 2019年5月 »