2017年7月24日 (月)

ボルボのEV化宣言

 ボルボは2019年に新型EVの販売を開始するとアナウンスした。2025年には、100万台のEVを販売したいとも言っている。

 ボルボが今後EV一辺倒になるかというと、そういうことはないと思われる。少なくとも、今後10年は収益の高いSUVのガソリン車を販売し続けるはずである。

 カリフォルニア州のゼロエミッションビークル(ZEV)規制から始まったEV化は、トヨタのハイブリッド車プリウスの一人勝ちで終わっている。プリウスに対抗すべく、GMはプラグイン・ハイブリッドを販売し対抗しているものの、収益率ではとても勝ち目はない。プラグイン・ハイブリッドには高価なバッテリーが必要なのである。EVで成功しているのテスラにしても、超高級車として利益を上げているのであり、モデル3で収益が上がるかは不明である。ボルボはテスラに対抗するつもりなのだろうか。

 ボルボの狙いは中国の大気汚染対策である。ボルボの親会社は、中国のジーリーホールディンググループである。

| | コメント (0) | トラックバック (0)

2017年7月23日 (日)

世界初レベル3自動運転のアウディA8

 バルセロナで2018年モデルのAudi A8が発表された。このA8は、世界初の自動運転レベル3の量産車である。

 A8のレベル3の仕様は、自動車専用道路で60km/h以下の走行に限ってのものである。アウディはこの仕様を「AI Traffic Jam Pilot」と呼んでいる。

 ライバルの自動運転はレベル2で、メルセデスベンツではステアリングホイールからドライバが手を離すと警報が鳴る。テスラでは、車線変更したいときはドライバが周囲を監視しながらターンシグナルを操作する必要がある。最新のキャデラックCT6では、赤外線カメラがドライバの目の動きを監視し、前方に注意を向けているかどうかを監視している。A8もドライバを監視し、ドライバが眠ってしまえば車両を自動停止させるようだ。しかし、運転を交代しろと要求しなければ、ライバルのレベル2とは全く異なるものである。目玉の環境センサーは、ヴァレオが提供するIBEO社が提供する前方監視用のライダーである。その他にも、モービルアイのカメラ(通常のカメラは全部で5台)、12個の超音波センサー、5台のレーダー、1台の夜間視界用赤外線カメラを搭載している。

 プラグイン・ハイブリッドと合わせて、今秋ヨーロッパで約9万ユーロで発売する予定である。その後、米国市場にも約10万ドルでリリースされることになっている。

| | コメント (0) | トラックバック (0)

2017年7月19日 (水)

ライダー(8)

 自動運転にライダーは欠かせない。ところが、ライダーだけでは不十分でカメラも必要である。

 なぜなら、ライダーは単一波長の反射波だけなので、見えないパターンを生じるからである。よって、カラー画像が取得できるカメラとライダーがあれば良いということになる。

 カラー情報とライダーによる距離情報を持った画像を、RGBD画像という。RGBが、赤(R)緑(G)青(B)のカラー情報で、Dが距離情報である。RGBD画像を処理できるシステムば、ほぼ人間と同様の認識が可能な情報のお膳立てができていると考えて良い。それでも、ライダーとカラーカメラをフュージョンしたシステムに種々の課題に何がある。例えば、ライダーとカメラを自動車のどこにいくつ搭載すれば良いかという課題がある。グーグルの自動運転では、360°センシングできるライダーをルーフ上に取り付けていた。こうすれば車両情報から全周囲を見渡すことができる。実際に量産される自動車で、自動運転になるからといってルーフ上にサイレンのように取り付けることは難しい。目立たなないくらいに小型できれば良いものの、当面はある程度の大きさは必要である。したがって、車両の前後のバンパーやグリルに複数個のライダーを埋め込むことになるだろう。

 コスト100ドルのライダーが実用化すれば、複数使用が可能になるだろう。それまでは、1個のライダーを各種センサが補間するような形で取り付くものと思われる。

| | コメント (0) | トラックバック (0)

2017年7月18日 (火)

ライダー(7)

 PCLによる3D物体認識の標準的な流れを見てみよう。それは、フィルター、特徴抽出、キーポイント抽出、位置合わせ、物体照合である。

 フィルターでは、ノイズ除去と平滑化を行う。ライダーによるセンシングでもノイズがあることもあり、また認識処理上、除去した方がすっきりするデータもある。

 特徴抽出とキーポイント抽出は、位置合わせや物体照合のために行う処理である。ポイントクラウドといえども、3D形状を再構成して、その3Dデータで位置合わせや物体照合をするわけではない。画像処理と同様に、特徴を計算してキーポイントに変換するのである。位置合わせは物体照合は、キーポイントで行う。そのため、特徴抽出を行うため、先ずはポイントの法線を計算する。そして、その法線をベクトルとして扱い、ポイントは座標とベクトルを持つものとしている。

 ベクトル化すると、同じ向きかどうかが計算できるので便利である。画像の微分値や微分の方向に相当する。

| | コメント (0) | トラックバック (0)

2017年7月17日 (月)

ライダー(6)

 PCLが始まったのは2010年である。ROSもPCLもBSDライセンスによるフリーソフトウエアなので、誰でもフリーで利用可能である。

 BSDライセンスとは、無保証であることの明記と、著作権およびライセンス条文の表示を再頒布の条件とするライセンスである。この条件さえ満たせば、ソースコードを複製・改変して作成したオブジェクトコードを、ソースコード未公開で頒布しても良い。

 PCLの基本機能は、フィルター、特徴抽出、キーポイント検出、位置合わせ、kdツリー、オクトツリー、分割、物体照合、面の再構成、距離画像生成、可視化等である。ロボット走行やロボット操作に必要な外観認識処理が全て含まれており、I/Oとしてサポートしているライダーを使えば、誰もが容易に外観認識を扱えることができるようになっている。そのため、ライダーベースによる自動運転に使えることは間違いない。

 PCLがサポートしているライダーのうち、自動走行に使えるものはベロダイン社製のものである。自動運転グーグルで使用していたライダーが、ベロダインのものである。

| | コメント (0) | トラックバック (0)

2017年7月16日 (日)

ライダー(5)

 ライダーが注目され始めたのは、アーバンチャレンジやロボットOS(ROS)の動向も大いに影響している。アーバンチャレンジやROSでライダーが多用されていたからである。

 アーバンチャレンジは、2004年に始まったアメリカ国防高等研究計画局(DARPA)のグランドチャレンジが2005年にも開催され、次の大会が2007年に開催されてアーバンチャレンジとなった。ROSが始まったのも2007年である。

 ROSはスタンフォード大学が始め、スタンフォード大学はグランドチャレンジやアーバンチャレンジに出場していた。彼らが使うメインの環境センサはライダーであり、ライダーによる実空間の認識が主流になったのである。完全自動運転を前提にしたロボット走行では、走行環境を走行する地面も含めて、すべて3Dセンシングする必要がある。それが可能なセンサーは、ライダーが最も適している。

 ROSではライダーで得たポイントクラウドから走行環境を認識する機能がサポートされている。そして、ROSからポイントクラウドの処理を特化したポイントクラウドライブラリーPCLが生まれた。

| | コメント (0) | トラックバック (0)

2017年7月15日 (土)

ライダー(4)

 ライダーが求められる理由は、各種認識対象が検出されるだけではない。空間解像度が電波レーダより、はるかに良いからである。

 電波レーダも環境中の物体を識別するため、複数のアンテナが設けられている。しかし、せいぜい10個程のアンテナしか設けられない。

 この複数のアンテナでフェーズド・アレイとし、それぞれのアンテナの受信強度から反射対象の方位角を計算している。そのため、くっきりとした対象物体の位置がわかってはいないのである。ところが、ライダーは非常に細く絞ったビームで空間を捜査するため、そのビームからの反射を各方向に散らばった距離情報を持つ点群データとして得ることができる。点群のことをポイント・クラウドと呼び、3次元空間の各種物体はポイント・クラウドで表現することができるのである。

 ポイント・クラウドは、画像並みの解像度を持つレベルが可能である。ポイント・クラウドで表現できる物体は、ほぼ人間が認識している物体形状と同じものである。

| | コメント (0) | トラックバック (0)

2017年7月14日 (金)

ライダー(3)

 自動運転になって、なぜライダーが必要になったのだろうか。運転支援システム時代のセンサーから考えてみよう。

 運転支援システムは、ドライバーの不注意をサポートすることが基本である。不注意が原因で、事故の件数も最も多いものが追突事故である。

 追突事故の検出対象は、前方走行車である。つまり、前方走行車との車間距離が計測できることが、運転支援システム時代には最重要項目だったといえる。前方走行車が認識でき、車間距離が計測でき、追跡できるようになると、追従走行も可能となる。すると、車間距離制御型クルーズコントロール(ACC)が可能となる。前方走行車の認識に限れば、レーザレーダよりも電波レーダの方が性能が良かった。電波レーダの方がレーザレーダより測距離が長く、FMCW方式では1回の計測で相対速度も検出できるため、ACC制御には都合が良い。そして、カメラで走行車線が認識できれば、ステアリング制御が可能となりレーンキーピングアシストが可能となった。すると、自動運転のレベル2が見えて来る。

 これをレベル3まで進化させようとすると、電波レーダでは難しくなる。なぜなら、レベル3はシステム側が環境認識しなくてはならなくなり、自動車だけでなく、歩行者、自転車、バイクからガードレール、電柱等も検出対象となり、主に金属に反応する電波レーダでは対応が難しくなった。

| | コメント (0) | トラックバック (0)

2017年7月13日 (木)

ライダー(2)

 自動運転が注目されるまで、運転支援システムの主要センサーは電波レーダとカメラだった。自動運転が視野に入ると、これにライダーが追加されることになった。

 つまり、今や自動運転の三種の神器は、電波レーダ、カメラ、ライダーといえる。これまで電波レーダとカメラしか量産していなかった大手電装メーカーも、続々とライダー量産の名乗りを上げ始めた。

 大手電装メーカーとは、ドイツのボッシュ、コンチネンタル、フランスのトムソン、日本のデンソーである。ボッシュが最王手で、ライダーを量産する方針を固めている。2017年2月、3Dライダー技術を手掛けるアメリカのベンチャー、テトラビュー社に1000万ドルを出資している。ボッシュはテトラビューの技術を取り入れ、同社独自のライダーを開発すると見られている。ボッシュが目指すライダーを使った自動運転用センサーは、ライダーのみではなく環境認識もセットになると思われる。同じドイツのコンチネンタルは、2020年の量産を発表している。

 先行しているのはトムソンで、既にイベオ社のライダー、スカラの量産を始めている。デンソーもライダーの量産を検討していることは間違いない。

| | コメント (0) | トラックバック (0)

2017年7月12日 (水)

ライダー(1)

 今日から、自動車用ライダーの最新状況をまとめる。現在のライダーに使用されているレーザ光の波長は、シリコンダイオードレーザを使用するため近赤外の905ナノメートルが主流である。ところが、目に対する安全性から送信パワーを制限する必要があり、200mの検出距離は難しい。

 これに対し、以前紹介したアメリカのベンチャー企業ルミナーテクノロジーズ社は、1550ナノメートルのレーザ光を使って、200mの検出距離を達成している。1550ナノのレーザは905ナノタイプに対し、40倍ものパワーで送信可能なのである。

 905ナノの光は人間の目には見えないものの、網膜で吸収されてしまう。そのため、レーザ光の送信出力が規制されている。角膜を通過し、網膜で吸収される光の最大波長は1400ナノである。したがって、1550ナノは目に対し安全ということになる。そのため、1550ナノのレーザ出力を上げて、距離を稼ぐことが可能なのである。また、波長が長くなれば、霧に対しても強くなり、一石二鳥といえる。欠点はコストである。1550ナノではシリコンに吸収されず、ガリウムヒ素を使わなくれはならない。ガリウムヒ素はシリコンより高価なのである。

 ルミナーテクノロジーズはコストを安くするため、モーターで駆動するミラーでファンビームを形成する方式を採用している。また、当面はコストよりも性能が重要だと考えているようだ。

| | コメント (0) | トラックバック (0)

より以前の記事一覧