« 2020年5月 | トップページ | 2020年7月 »

2020年6月30日 (火)

自動運転の課題(20)

 そして、最後の課題と思われるものが、倫理課題である。自動運転にも倫理感が必要ではないかということである。

 この課題は、トロッコ問題という倫理学の思考実験テーマで語られている。トロッコ問題とは、ブレーキが利かないトロッコがまっすぐ進めば5人、舵を切れば1人を轢く状況で舵を切るかどうかという問題である。

 自動運転のAIには、人との衝突を避けることに全力を尽くすよう学習させるはずである。すると、トロッコ問題に遭遇したときのジレンマを解決するため、どちらを選択すべきか学習させなければならない。しかし、この学習では意図的にどちらかを轢くことになり、人を轢くことを教えてしまうことになる。どちらを選ぶかという価値観も人を轢くことを教えることも、どちらも倫理的な問題を含むため、この開発過程の考え方が社会に受け入れらるのだろうか。

 倫理問題も学習させるべきか、あるいは、倫理問題が生じたらテイクオーバーでドライバに任せるか、今後決めていかなければならない。ただし、レベル5の自動運転ではドライバ不在のため、AI自身が倫理問題を取り扱わなければならない。

 

| | コメント (0)

2020年6月29日 (月)

自動運転の課題(19)

 法整備が整ってレベル3以上の自動運転車が加害者となる交通事故が起きた場合、その裁判は現状の裁判のままで良いだろうか。これは、現在のドライバ責任の範疇の裁判では、交通事故裁判がある種特殊な状況にあるからである。

 自動車同士の交通事故では、特に特殊な状況ではないと思われる。ところが、自動車対歩行者の事故になると様相が異なる。

 自動車と歩行者が事故を起こし歩行者側から訴えられた場合、自動車の責任10、歩行者の責任0から裁判は開始される。そして、歩行者側の過失が認められれば自動車の責任が減って行くものの、自動車側の責任が0になることは、非常に難しいと思われる。なぜなら、自動車にはドライバの監視義務があるため、例え歩行者が飛び出して来たとしても、ドライバは事故を回避しなければならないからである。そして、自動車の方が交通社会では歩行者より強者となるため、強者側に厳しくなるのは当然といえる。この課題としては、現状の姿勢を自動運転車にそのまま適用して良いかということである。自動運転が認識性能が人間よりも劣る状況で制度を構築したという前提では、裁判時の判断を変えなければならないかも知れない。

 社会が自動運転の性能を正しく理解した上で受入れれば、交通事故は激減する。しかし、自動運転の不十分ま点を悪用すると事故を誘発する可能性があるため、この点を裁判で正しく判定する必要が出てくるものと思われる。

 

| | コメント (0)

2020年6月28日 (日)

自動運転の課題(18)

 レベル3の自動運転は、当面自動車専用道路での使用が想定されている。なぜなら、一般道では外界センサーが対応していない状況が多く、インフラも整備されていないからである。

 自動車専用道路であれば、ほぼ外界センサーが想定している状況であるし、自動運転用インフラの整備も期待できる。つまり、レベル3では自動運転用のインフラが前提となるのである。

 自動運転用のインフラとは、まず自動運転車が限界状態で制御しなくても良いように、整備された道路が挙げられる。そして、道路状況を検知して車両に通信するシステムがある。これらインフラに支えられて、自動運転車は自車の外界センサーによる障害物検知と走行レーンの認識、及び余裕のある車両制御を行うことができる。もし、これらインフラの不備が起こり、それが原因となって事故が生じたとき、インフラに事故責任や賠償責任が生じる可能性がある。しかし、これも法整備ができておらず、今後の課題となっている。

 レベル2までの自動運転であれば、例えインフラに不備があったとしてもドライバの監視義務があるため、インフラに責任が及ぶことはない。よって、自動運転が事故を起こしたときの法整備が整うまで、レベル3の普及は難しいといえる。

 

| | コメント (0)

2020年6月27日 (土)

自動運転の課題(17)

 次に考えなければならない課題は、事故が起きた場合の賠償責任問題である。これまで、自動車事故の責任はある意味単純で、事故を起こした車両のドライバが責任を負うことになっていた。

 そのため、警察は事故を起こしたドライバを逮捕していた。それでは、自動運転車が事故を起こしたとき、警察は誰を逮捕するのだろうか。

 レベル2までの自動運転はドライバの監視義務があるため、事故が起きればドライバの責任である。上記の問題は、レベル3以上で発生する。レベル3以上の自動運転時の運転は、AIが行う。事故を起こせばAIの責任なので、AIが逮捕されることになる。ところが、AIを逮捕することはできないので、AIを開発販売した自動車メーカーが逮捕されることになる。自動車メーカーを逮捕するといっても、社長を逮捕するのか、開発者を逮捕するのか未だ決まっていない。

 つまり、レベル3以上の自動運転が事故を起こしたときの法整備が必要ということである。テスラが事故を起こしたことはあるが、それはドライバがレベル2のテスラでレベル3の使い方をしていたためであり、未だレベル3以上の自動運転の公道実験走行で逮捕レベルの事故は起きていない。

 

| | コメント (0)

2020年6月26日 (金)

自動運転の課題(16)

 レベル2と3では、ドライバが居眠りをしてしまう可能性があるので、ドライバ状態のモニタリングが必須といえる。ドライバのモニタリングで居眠り等を検知し、適切なテイクオーバーが可能かどうか判断しようというわけだ。

 適切なテイクオーバーが実施できないような状態にドライバがなったとモニタリングできたとき、次にどうするかが課題となる。居眠り警報を発するのか、自動運転を停止して車両もその場で止めてしまうのか。

 居眠り警報はこれまで数々のものが検討されているものの、決定的なものは思い当たらない。5感に訴える警報は、何にしてもドライバには不快なものになり、快適な自動運転状態を阻害することになる。また、居眠りで車両を停止させてしまっては、自動車本来の目的の移動という目的が達成できない。そこで考えられることは、運転操作をやらなくても良い状態で、眠くならず、かつ快適で負担にならないタスクをドライバに課すかということである。例えば、ドライバが趣味のゲームをスマホで遊ぶと、快適で眠くならず、普段好きでやっていることなので負担にもならないタスクとなる。

 よって、レベル3では眠くならない車内で実施可能な趣味(スマホ、カラオケ等)が良いことになるが、ドライバに強制できるだろうか。そして、監視義務のあるレベル2ではこのようなタスクはできないので、眠くならない状況監視の方法がないかを考えなければならない。

 

| | コメント (0)

2020年6月25日 (木)

自動運転の課題(15)

 次に考えなければならない課題は、自動運転から手動運転への切り替えである。この切り替えをテイクオーバーという。

 テイクオーバーが必要なのは、レベル2と3だけである。レベル1はドライバへの運転支援だけなので、テイクオーバーは発生しようがない。

 レベル2ではドライバは車両の操作から解放されるものの、自動運転が適切に制御しているか監視義務があり、不適切な制御ではテイクオーバーしなければならない。また、レベル3ではドライバの監視義務も不要となるものの、自動運転の限界を超えた状況になったり故障したときはテイクオーバーが必要になる。レベル2では監視義務があるため、自動運転で走行中もドライバは通常運転時と変わらず前方監視を中心とし、必要に応じて側方や後方も監視しなければならないため、居眠りはおろか視線を外界から逸らすことすらできないはずである。しかし、レベル2といえども、自動車専用道路ではほぼ完ぺきに自動運転制御はうまく動き、ドライバが気を抜いて監視義務を怠る懸念がある。レベル3では監視義務がなくなるため、ドライバは居眠りをしてしまうかも知れない。

 つまり、レベル2と3ではテイクオーバーが自動運転の前提となっているのに、ドライバが居眠りをしてしまってテイクオーバーできない状況を誘発してしまうのである。この状況を回避する何らかの対策が必要なのである。

 

| | コメント (0)

2020年6月24日 (水)

自動運転の課題(14)

 ドライバがコミュニケーションを取らなければならない相手は他車だけではない。歩行者や自転車等の交通参加者ともコミュニケーションしなければならない。

 例えば、歩行者や自転車の横断を譲るとき、ジェスチャーや笑顔、目配りでコミュニケーションを取ることができる。これと同じことが自動運転車にできるだろうか。

 人間は無意識に相手の表情を読み取り、コミュニケーションの補助にしている。そのため、歩行者は自動車の意志を読むため、ドライバの顔を見て判断している。ところが、運転手のいない自動運転車では、自動車のどこを見れば良いのだろうか。歩行者から自動運転車を見たときコミュニケーションできない不気味なロボットと映っている間は、自動運転車は社会に溶け込んでいるとはいえない。何らかの法整備等で決めるよりも、人間から自動運転車を見たとき直感的にコミュニケーションが取れるような機構やデザインを考えた方が良いはずである。

 ベンツは自動運転車が可視領域のレーザビームで路面に文字を描画し、歩行者に車両の意志を表示するシステムを提案した。また、車両周囲にドットマトリックスの表示ボードを装着し、外部にメッセージを表示するものも考えられる。

 

| | コメント (0)

2020年6月23日 (火)

自動運転の課題(13)

 通常、人間のドライバが他車を見て、どのような情報を得ているだろうか。他車のウインカーやハザードランプの点滅で他車の意志を確認するのは言うまでもない。

 その上で、交差点で右折のウインカーを出していたとしても、走行レーンや減速度で右折ウインカーの信頼性を確認している。ハザードにしても、停止するためや停止中と、割込み後のサンキューハザードを区別しているはずである。

 さらには、パッシングやホーンに加え、ドライバが見える状況ではドライバのジェスチャーや表情を読むこともある。他車のドライバのジェスチャーは、譲ってくれているのか、割込みを要求しているか、重要な情報源である。また、左折ウインカーを出さなくても道路左端にある大きなショップのパーキングに入ろうとしていることが推測できる。自動運転車も、多くの手動運転車の中で走行するなら、これら他車の意図を車載カメラの映像から読み取らなくてはならない。

 逆に、手動運転車から見た自動運転はどうなのだろうか。他車の人間のドライバとコミュニケーションを取ることができなければ、交通社会の中に溶け込めないのではないだろう。

 

| | コメント (0)

2020年6月22日 (月)

自動運転の課題(12)

 自動運転の外界センサーに誤認識があることを前提にするとして、これまで言及しなかった外界の物体認識に欠かせないものがある。それは、他車の状態である。

 外界センサーによる他車の認識は、物体認識の中でも比較的正確に行うことができる。この他車の認識に加えて状態の認識とは、他車を見て人間なら容易に判別可能な他車の意志を認識するということである。

 世の中の自動車が一斉に自動運転に置き換わるのであれば、自動車同士の認識は車々間通信が利用可能となる。車々間通信とは、各車両が自車位置や車両制御状態(車速、ステアリング角度、アクセル開度、ブレーキ状況等)を周囲に放送することにより、その情報を受信した各車両が自車周囲の他車の位置と制御状態を得ることができるシステムである。この考え方をインフラ、歩行者に展開したものが、路車間通信、歩車間通信である。外界センサーが不十分でも、車々間通信で他車の状態が認識できる。ところが、一斉に車々間通信が全車両に適用されることはないだろう。同様に、全車両が一斉に自動運転になることもない。

 つまり、レベル4以上の自動運転が一般道で実用化されたとき、人間のドライバが運転するレベル0車両と混在することになる。混在というよりは、周囲の他車両はほとんどが人間のドライバによる運転のはずである。

 

| | コメント (0)

2020年6月21日 (日)

自動運転の課題(11)

 これまでの説明で、自動運転のレベル4以上では人間並みの外界センサーが必要であることがわかったと思う。また、人間並みの外界センサーの実現はまだまだ難しいこともわかったはずだ。

 一般道を対象とせず自動車専用道路に限れば、現状の外界センサーの組合せで十分かも知れない。しかし、それではレベル4以上の自動運転が望まれる状況に合致しているとは言い難いし、レベル3と大差ない。

 レベル3でも自動運転システムが故障したり限界を超えなければ、ドライバに監視義務はなく、例え居眠りをしていても、レベルの定義からすれば問題はないのである。自動車専用道路では、インフラ整備状況が良く、インフラ設備からの異常時の情報提供が期待できる。そのため、レベル3と4は大差ないのである。また、日本では自動車専用道路での事故率が低いため、自動運転で安全性を向上させるというニーズへの訴求度は低い。自動運転は、ドライバが確保しにくい過疎地域での一般道での使用こそが望まれるのである。

 よって、レベル4以上の高度自動運転を一般道で実現するためには、外界センサーが不十分であるという事実を受け入れなければならない。これは、自動運転は誤認識をすることがある、ということである。

 

| | コメント (0)

2020年6月20日 (土)

自動運転の課題(10)

 現在のところ、外界センサーはいかに検出性能を向上するかに技術開発の視点が注がれている。LiDARだけでは点群の3D情報しかわからないので、カメラと組み合わせてパターン情報も織り込み性能向上を図るようなセンサフュージョンも研究されている。

 このような研究により、SLAMや物体検出性能が人間並みから、さらに人間の能力を超すことも期待されている。交通事故の大きな要因の一つはドライバが気付いていなかったことなので、ドライバ以上の能力のある物体検出による事故の低減も期待されている。

 しかし、これらセンサによる物体検出には、大きな前提条件を置いている。すなわちそれは、通常の走行状態での物体検出という前提条件である。例えば、道路の一部が凍結して滑りやすくなっているとき、カメラで路面の凍結を検出する難しい。あるいは、山道で片側が崖になっているような状況で、上方から落ちてくる岩を検出できるかどうかあやしいものである。カメラの視野が、ドライバなら必ず見ている上方まで広がっているかどうかでさえあやしい。また、落ちてくる岩を検出したとして、それをどのように判断するのだろうか。自動運転を人間並み、あるいは人間以上にスムーズに行い、かつ事故を回避するためには、交通状況の適切な判断が重要である。そういう意味で、センサが物体個々の認識しかできない状況では、交通状況の適切な判断は難しいのである。

 人間のドライバは、街中の交差点で信号を待つ歩行者の様子を窺う。そして、例え歩行者側が赤信号であっても、その歩行者が信号に気付かず渡りそうなら停止するはずである。カメラで歩行者を検出するのであれば、自動運転レベル4のカメラはそこまで物体を認識しなければならない。

 

| | コメント (0)

2020年6月19日 (金)

自動運転の課題(9)

 人工知能によって物体認識性能が100%になったとしても、物体の意味がわかっていない問題がある。これがわかっていないと、状況判断がうまく行かない。

 例えば、「止まれ」の標識を100%正確に認識できるようになったとしよう。人間並みに、標識の半分ほどが木陰になっていても問題なく認識可能とする。

 自動運転車が信号のない交差点で「止まれ」の標識を検出したとしよう。ところが、この「止まれ」は文字の向きが水平ではなく垂直だった。人間なら、昨日の大型台風で止まれの標識の隣にあった大木が倒れ、その衝撃で標識をなぎ倒した結果「止まれ」の文字が天地方向になっていることは瞬時にわかる。レベル4以上の自動運転車が一般道で走行する限りは、通常起こりうる状況を理解できないといけないものと思われる。このため、単に物体認識だけでなく、物体間の関係も理解し、画像に映るもの全てが矛盾なく意味的に結合されていなければならない。

 現在できているレベルは物体個々の認識であって、これら物体の関係を理解する統一的な記述方法が決まっていない。これからなのである。

 

| | コメント (0)

2020年6月18日 (木)

自動運転の課題(8)

 CNNや人工知能が起こすとんでもない間違いを紹介しよう。CNNでは、画像にある種のノイズが付加され人間なら見にくい画像になっただけで、認識結果が人間では思いも付かないような誤認識になる場合がある。

 このような誤認識がなぜ起こるのか、実はその理由がよくわかっていない。それは、CNNの中身がブラックボックスだからである。

 CNNの構成は、局所的な画像の特徴を検出する畳み込み層と、その特徴の位置ずれを吸収するプーリング層が連続して繰り返す層構造を画像全面に並列に配置し、最終層でこれらを全結合して教師データに合うように層間の結合係数をバックプロパゲーションで調整するものとなっている。このようにCNNの原理や構成は明らかなものの、学習が完了したCNNの各層の多数ある結合係数が正解かどうかは人間にはわからない。膨大な学習データから結合係数を計算するため、人間がこれら係数を計算するのは不可能であり、結局のところCNNはブラックボックスになっているのである。

 ブラックボックスでも100%の認識性能があれば良いかも知れない。CNNで100%の性能となる外界センサーを開発できるか、ブラックボックスを解明するかどちらが先になるかということになるが、どちらも当面は難しい。

 

| | コメント (0)

2020年6月17日 (水)

自動運転の課題(7)

 車載カメラによる外界認識は、2012年以降のディープラーニングの大ブームによって実用レベルになっている。ブレークスルーした技術は、ディープラーニングの一種のCNNである。

 CNN以前から機械学習で歩行者認識等の実用化が始まっており、CNNになってからは歩行者だけでなく外界の障害物や交通標識全般を認識可能になっている。条件によっては、ほぼ人間並みの障害物認識レベルに達している。

 車載カメラが人間並みの認識能力を持っていれば、自動運転用の外界センサーとして十分かと思われるかも知れない。しかし、車載カメラが人間並みの能力を持つのは、使用条件が良いときだけである。現在のところ、カメラはノイズ(雨)に弱く、昼夜の明るさが異なる状況では認識性能の差が大きい。さらに、人間と決定的に違うのは、人工知能の一種のCNNにより障害物を認識したとはいえ、人間のようにその障害物が何かという意味合いを理解しているわけではないのである。人工知能は、単にカメラに映る物体の特徴を学習し、障害物を歩行者、自転車、自動車等に分類しているだけなのである。

 物体が何かを理解していないと、誤認識したときにとんでもない間違いを起こすことがある。また、物体の意味がわかっていないため、状況を誤解することもある。

 

| | コメント (0)

2020年6月16日 (火)

自動運転の課題(6)

 ロボットの自律走行による目的地への自動運転では、自動車が走行するときのように交通ルールやインフラが整備されている状況ではなく、物理的に障害物を回避しながらの地図のない状況での使用が当たり前だった。そのため、自分で現在位置を特定する技術が要求された。

 ロボットは屋内で使用されることもあるため、現在位置の特定をGPSだけに頼ることはできない。そこで、SLAMが発達したのである。

 SLAMは記憶されている周囲の3Dデータや視覚情報を手掛かりに現在位置を特定する技術である。視覚情報でSLAMを行うことを Visual SLAM と呼ぶ。現在の技術で確実にSLAMができるのは、LiDARで周囲の3D情報を検知して、記憶している周囲の3D情報とマッチングすることである。VelodyneのLiDARはこのロボットの自律走行のSLAM用として開発されたものだ。したがって、VelodyneのLiDARを自動車に装着すれば、自動車がロボットの自律走行が可能になるということになる。

 自動車でもレベル3までの自動運転用にLiDARが使われている。しかし、このLiDARはSLAMではなく、障害物検知用としての使用である。

 

| | コメント (0)

2020年6月15日 (月)

自動運転の課題(5)

 従来、自動車用の運転支援システムで開発してきた外界センサーの組み合わせで実現できる自動運転レベルは、レベル3が限界である。レベル4以上の外界センサーは別アプローチのものでなければならない。

 自動運転レベル4の公道実験はGoogleが始めた。使われていた外界センサーは、VelodyneのLiDARだった。

 このLiDARは64本のレーザビームが360°回転して、レーザビーム照射された点までのLiDAR本体からの距離と角度情報を取得し、LiDAR全周囲のポイントクラウドを形成する。このLiDARを車両のルーフ上に設置すると、車両全周囲の3D情報を取得することが可能となる。この外界センサーの考え方は、従来の自動車の自動化延長線上ではなく、ロボットの自律走行のものである。ロボットは白線で区切られた道路を走行するだけでなく、道なき道も自律的に移動しないといけないため、LiDARで全周囲のポイントクラウドを取得し、人工知能AIで走行可能か判断しながら移動するのである。Googleはレベル5の自動運転を実現するためには、このロボットの考え方を使わなければならないと判断したのである。

 しかし、LiDARだけだと3D情報しかわからないため、カメラも併用する。AIの発達により、カメラ映像から走行に必要な情報を取り出せるようになってきたからである。

 

| | コメント (0)

2020年6月14日 (日)

自動運転の課題(4)

 通常の自動車が使われる交通環境では、交通参加者(自動車、二輪車、歩行者等)と走行車線を検出できれば自動運転ができそうである。特に、日本の自動車専用道路では、これらの検出を前提にレベル3の自動運転が開発されている。

 ところが、一般道路ではどうなるだろうか。特に、生活道路になると、自動車、二輪車、歩行者だけでなく、数々の参加者が出現する。

 さらに、生活道路の車線は不明瞭であり、道路端に白線のないところも多い。路面の整備状況も自動車専用道路より劣る。自動車専用道路の自動運転で、道路に不備による事故が起きれば道路管理者の責任が問えるかも知れない。しかし、生活道路で道路の整備不良があっても、人間のドライバが判断して通行することが前提のため、自動車専用道路での整備状況を前提につくられた自動運転車が生活道路で事故を起こしたとしても道路管理者の責任を問うのは難しいのではないだろうか。

 したがって、レベル3では条件付き自動運転として、自動車専用道路での使用を前提とするのである。それでは、レベル4以上の外界センサーはどうなるのだろうか。

 

| | コメント (0)

2020年6月13日 (土)

自動運転の課題(3)

 自動運転システムの技術を、認知・判断・制御のように分類してみよう。認知とは外界センサーで交通状況を認知することであり、判断とは認知状態からどのような制御を行うか判断することであり、制御とはステアリングやアクセル・ブレーキを制御することである。

 自動運転で難しいのは、認知と判断である。そのため、制御だけで行えるものをレベル1、ドライバが認知の判断下で行えるものをレベル2とし、それ以降は、認知と判断が機械で行うレベルとしている。

 認知は自動運転のキー技術であり、認知レベルの向上によって、自動運転のレベルが上がっているともいえる。認知が難しい理由は、これまで開発してきた外界センサーが、対応するシステムに特化したものだったからである。例えば、レベル1の代表的なシステムの車間距離を維持しながら定速走行するアダプティブ・クルーズコントロール(ACC)と、車線を維持するようステアリングを制御するレーン・キーピング・システム(LKS)をみてみよう。ACCに使われる外界センサーに必要な機能は高速道路で前方を走行する自動車の位置であるため、電波レーダーが用いられる。一方、LKSに使われる機能は走行車線を検知するため、道路両端の白線を検知するカメラが使われる。ACCとLKSを同時に作動させると、高速道路で一定速に車線を維持しながら自動運転ができるかも知れない。しかし、ACC用のレーダーもLKS用のカメラも、トラックが落とした荷物は検出することができない。したがって、ドライバが監視した状態でしか使えないのでレベル1や2なのである。

 レベル3として開発されている自動運転システムでは、現在のところ、前方車両検出用のレーダーと車線検出用のカメラに加え、車両以外の自転車や歩行者検出用にLiDAR、後方からの接近車の検出用のレーダー、駐車時の周辺の障害物検出用の超音波センサーと、これまで開発された外界センサーを全部搭載しようとしている。それでも、条件付きというのは、自動車専用道路以外では、これらセンサーだけでは検出できないものがあるからである。

 

| | コメント (0)

2020年6月12日 (金)

自動運転の課題(2)

 自動運転は技術レベルに応じた実用化が進められている。この技術レベルには、SAEのJ3016で提案された6段階のレベルがデファクトになっている。

 レベル0、1、2,3、4、5の6段階をまとめると、次のようになる。

レベル0(手動運転)自動運転要素なし、全ての操作制御はドライバが行う
レベル1(運転支援)ドライバの操作制御を一部自動化
レベル2(部分的自動運転)ドライバの監視下で運転操作制御を自動化
レベル3(条件付き自動運転)条件付きでの自動運転で、ドライバがバックアップ
レベル4(高度自動運転)自動運転可能、ただしドライバが必要で手動モードあり
レベル5(完全自動運転)あらゆる状況で自動運転可能、ドライバーも不要

 いわゆる自動運転は、ドライバの監視なしで走行可能なレベル3以上である。レベル2とレベル3の決定的な違いは、自動運転モードで走行中に事故が起こった場合、レベル2はドライバの監視下という制約があったので事故の責任はドライバにあり、レベル3ではドライバの監視下という制約がないので事故の責任は自動運転を提供したメーカーにあることである。

 

| | コメント (0)

2020年6月11日 (木)

自動運転の課題(1)

 今日からしばらくの間、自動運転の課題について考えていきたい。これは、今までのように既存の手法を紹介するのではなく、自動運転を実用化するにはどんな課題があり、どのように解決していけば良いかを考えるものである。

 自動運転の課題とは、センサ性能を向上させて人間並みの視覚機能を持たせるだけではない。さらに、人間並みの判断力を持たせて、複雑な交通環境下でうまく動くように制御することを加えてもまだまだ足りない。

 これら技術的課題だけでなく、社会が自動運転を受け入れること、すなわち社会受容性を獲得できるかどうかも自動運転の課題なのである。例えば、レベル5の完全自動運転が完成し、早速ドライバ不在の無人タクシーが利用できるようになったとしよう。君は安心して無人ドライバタクシーに乗り、目的地まで快適な乗車ができるだろうか。技術の粋を集めて造られた完全自動運転車だから事故は起こさないだろうが、他車がぶつかって来たらどうなるんだろうか。このタクシーの下に野良猫が隠れていて、出発するとき轢いてしまったらタクシーは止まるのだろうか?人間のドライバーなら適切に対応するだろうことが、急に心配になって来るのである。

 このような心配が起きるのは、完全自動運転といえども人間社会で自動で走行しようとすると、社会とのコミュニケーションは完全とはいえないのではないかと思えるからである。なぜ、社会とのコミュニケーションが完全と思えないのか、そして、完全でないものをどうのように実用化すれば良いのだろうか。

 

| | コメント (0)

2020年6月10日 (水)

CNNへの道のり(24)

 従来、ILSVRCでの物体認識は、Bag-of-Featuresと呼ばれる物体画像の局所特徴量をベースとする手法が用いられていた。ところが、2012年、トロント大学チームがCNNで出した結果はエラー率17%と、Bag-of-Features時代のエラー率26%から飛躍的に進歩した結果だった。

 そのため、このときから画像認識研究者に一気にCNNを使い始めたのである。しかし、トロント大学のこのときの論文にもネオコグニトロンの参照はなく、ヤン・ルカンの論文を参照にあげていた。

 現在では、CNNの源流はネオコグニトロンだと研究者(少なくとも日本の)はわかっている。欧米の研究者はどう思っているか、機会があれば確認してみよう。ウィキペディアのネオコグニトロンの英語版では、「the inspiration for convolutional neural networks」と紹介されている。ネオコグニトロンはCNNそのものだと思うのだが、世界的にはCNNのヒントになったと思われているのかも知れない。ネオコグニトロンがCNNの源流と認識されないのは、発表時期や場所、タイミングが冬の時代だったためブームに乗らなかったといえる。また、ヤン・ルカンの論文が出たときにアピールが不足していたのではないかと思われる。現代は世界中で一瞬にして技術が共有できる時代である。ただし、英語で情報発信すればという前提を忘れてはならない。

 CNNへの道のりは今回で終了する。明日からは新シリーズを予定している。

 

| | コメント (0)

2020年6月 9日 (火)

CNNへの道のり(23)

 オートエンコーダ(自己符号化器)は、入力層、隠れ層、出力層の3層で入力データを出力するよう次元を圧縮した隠れ層で教師付き学習を行う。これを入力側から順に3層づつ学習して積層していく、事前学習を行ったことが画期的だった。

 全体を積層した後、シグモイド関数による出力層(ロジスティック回帰層)での重みを調整するファインチューニングを行う。この工程によって、第二次ブームで解決できなかった多層ニューラルネットの学習を可能にしたのである。

 オートエンコーダを発表した2006年、ヒントン教授はディープ・ビリーフ・ネットワークを発表した。こちらは、オートエンコーダ層にボルツマンマシンを使ったものである。ヒントン教授の提案により、多層ニューラルネットワークが再び研究対象になった。オートエンコーダやディープ・ビリーフ・ネットワークにも課題はあったものの、現在ではほぼ解決され、オートエンコーダやディープ・ビリーフ・ネットワークが必ずしもディープラーニングの必須手法にはなっていない。

 そして、本格的なディープラーニングの幕開けが2012年にやって来た。ヒントン教授率いるトロント大学チームが、CNNを使ってコンピュータによる物体認識の精度を競う国際コンテストILSVRC(ImageNet Large Scale Visual Recognition Challenge)で優勝したのである。

 

| | コメント (0)

2020年6月 8日 (月)

CNNへの道のり(22)

 そして、ディープラーニングが注目される第三次ブームが到来する。ブームのきっかけは、トロント大学のヒントン教授が、今度はネイチャーではなくサイエンスのレポートで2006年に報告した「Reducing the Dimensionality of Data with Neural Networks」という論文である。

 この論文の要約を紹介しておこう。

 高次元データは、高次元入力ベクトルを再構成する小さな中心層を持つ多層ニューラルネットワークを訓練することにより、低次元の構成に変換できる。勾配降下法は、このような 「オートエンコーダ」 ネットワークのウェイトを微調整するために使用できるものの、最初のウェイトが適切な解に近い場合しかうまく機能しない。筆者らは、データの次元性を低減するためのツールとして、主成分分析よりもはるかに良く働く低次元コードを学習するため、深いオートエンコーダ・ネットワークを可能にする重みを初期化する効果的な方法を述べる。

 これも4ページに満たないショート・ペーパーながら、バックプロパゲーションが多層ネットでうまく動かなかった問題を解決していたのである。方法としては、深いネットを全層学習するのではなく、まず3層を教師付きで学習し、次に1層づつ増やすというやり方である。これを必要なだけ繰返し、最後に全層を学習する。これによって、バックプロパゲーションが4層以上でうまく動かない問題を解決したのである。

 

| | コメント (0)

2020年6月 7日 (日)

CNNへの道のり(21)

 バックプロパゲーションと名付けられた、1980年代半ばまでのニューラルネット技術の集大成でも5層以上(パーセプトロンを2層と数えれば4層以上)の深さではうまく動かなかった。ただし、ネオコグニトロンは、初めから5層以上の深い構造だったので話は別である。

 バックプロパゲーションによって再ブームになったとき、ネオコグニトロンも見直され始めたのである。S細胞とC細胞が繰返し現れる構造を応用した認識系の研究が進み始めた。

 後にフェイスブックのAIラボの所長になるヤン・ルカンが、ディープラーニングブームの発端となったトロント大学のジェフェリー・ヒントン教授の研究室でポスドクとして勤めていた頃から、ベル研究所へと移動した頃に発表した論文は、ネオコグニトロンの学習にバックプロパゲーションを用いて好成績を示した。ところが、彼の論文は脳の構造から特徴抽出とプーリングを繰り返す構造を導き、ネオコグニトロンを参考文献に挙げていなかったのである。ネオコグニトロンを知らなかったのか、学習方式が違うので参考には挙げなかったのかはわからない。ただし、現在ではネオコグニトロンの改善と見られている。

 甘利先生の確率的勾配降下法も、バックプロパゲーションの初出論文には参考文献に挙げられていなかった。このように、ニューラルネットワークは重要な手法の再発見が繰り返しながら、ある方向を目指して行ったのである。

 

 

| | コメント (0)

2020年6月 6日 (土)

CNNへの道のり(20)

 バックプロパゲーションは、パーセプトロンではなくニューラルネットワークという名称で、爆発的第二次ブームを起こした。当時、ソフトコンピューティングの世界では、何でもニューラルネットワークを適用しようという風潮だった。

 学会だけでなく、産業界でもニューラルネットワークを応用した商品も多数検討された。しかし、十分な成果をあげないまま、1990年代に入るとブームは去ってまた冬の時代が訪れたのである。

 バックプロパゲーション発表当時は、研究者はこれを使えばできそうだという思いが芽生え、再びニューラルネットワークに飛びついた。これを使えば非線形問題にも適用できそうだとか、複雑な画像認識ができるのではないかと思ったのである。ところが、次第にバックプロパゲーションだけでは何事も難しいということがわかってきたのだった。5層以上の深いネットになると、バックプロパゲーションでは収束せずうまく働かなかったのである。実は、バックプロパゲーションで提案された各種手法は、それまでに発表年を変え、研究者を変え何回か発表されたことであり、バックプロパゲーションが偉大な再発見といえるものだったからである。バックプロパゲーションが良かった点は、それまでに発表された手法がすべてバックプロパゲーションにまとめられ定着し、以降はバックプロパゲーションという名称に統一できたことだろう。

 僕が思うのは、ネイチャーに掲載されたからブームに火が付いたのだろうと思われる。改めてネイチャーの論文をみてみると、フルペーパーではなく参考文献が4件だけの4ページにも満たないレターである。当時の研究者はこの論文をみて、そういえばこうするとうまく行きそうだと思ったのだろうか。

 

| | コメント (0)

2020年6月 5日 (金)

CNNへの道のり(19)

 この論文で提案されたのは、活性化関数にシグモイド関数を使うこと、最急降下法で学習するとき合成関数の偏微分のチェインルールを使うこと、そして、この合成関数の偏微分で重みを計算するとき出力側から入力側に向かって計算する逆伝搬を使うことであった。学習方法としては、教師あり学習である。

 ニューロンが発火する条件を決めるものが活性化関数であり、パーセプトロンではステップ状の単純な関数が用いられていた。ところが、ステップ関数では微分できないため、微分によって重みを計算する手法ではシグモイド関数のように何度でも微分できる関数が必要になるのである。

 シグモイド関数は、

y = 1/(1+e^(-x))

と表され、微分すると、

y'=(1-y)/y

と自分自身が出現し、無限回微分可能となる。ニューロンjの入力xj、出力yi、重みwjiとすると、

xi=Σyi・wji

である。実際の出力と所望の出力の差Eを入力xjで微分するときにチェインルールを使うと、

∂E/∂xj=∂E/∂yj・dyj/dxj

となるため、シグモイド関数を反映させ、

∂E/∂xj=∂E/∂yj・(1-yj)/yj

となる。重みについても、

∂E/∂wji=∂E/∂xj・∂xj/∂wji=∂E/∂xj・yi

となるため、∂E/∂xj・∂xj/∂yi=∂E/∂xj・wjiから、

∂E/∂yi=Σ∂E/∂xj・wji

となり、誤差Eを出力で微分計算可能となる。この計算は出力側から入力側に向かって計算することになり、バックプロパゲーションという名称が付けられた理由になる。

| | コメント (0)

2020年6月 4日 (木)

CNNへの道のり(18)

 1986年、世界的な物理科学誌のネイチャーに「Learning representations by back-propagating errors」という論文が掲載された。著者はカリフォルニア大学サンディエゴ校の教員デビッド・ラメルハートら3人である。

 ラメルハートは、back-propagating errors をバックプロパゲーションと呼びやすい名称に命名し、世間ではバックプロパゲーション(誤差逆伝播法)として広まった。バックプロパゲーションが、長らく冬の時代だったパーセプトロンを第二次ブームとして蘇らせたのである。

 ネイチャーに掲載されたオリジナル論文の要約を以下に紹介しよう。

 ニューラルのようなネットワークのための新しい学習手順として、バックプロパゲーションについて述べる。これは、ネットワークの実際の出力ベクトルと所望の出力ベクトル間の誤差を最小にするように、ネットワーク内の接続の重みを繰り返し調整する計算手順を取るものである。重み調整の結果、入力または出力の一部ではない内部の隠れユニットが、タスク領域の重要な特徴を表すようになり、タスクにおける規則性がこれらのユニットの相互作用によって捕捉される。バックプロパゲーションは、パーセプトロンのような初期の簡単な手法とは、全く異なる有用な新機能を有する。

 

| | コメント (0)

2020年6月 3日 (水)

CNNへの道のり(17)

 ネオコグニトロンが提案したS細胞とC細胞が繰り返される構造は、現在でも馴染みがあるものである。なぜなら、これがコンボリューションニューラルネットワーク(CNN:Convolution Neueral Network)の畳み込み層とプーリング層だからである。

 CNNは学習方法にバックプロパゲーションを使っているため、ネオコグニトロンそのままではない。しかし、畳み込み層とプーリング層が繰り返される構造はネオコグニトロンそのものである。

 ネオコグニトロンが英語で発表された1980年から、CNNがディープラーニングによって画像認識の主流となった2012年までの32年間に、ネオコグニトロンは多くの研究者が育て、名前を変えていったのである。ネオコグニトロンが発表された時代は、第一次パーセプトロンが過ぎ去ってニューラルネットワークが注目されなくなった冬の時代だった。次にニューラルネットワークが注目され第二次ブームが起こるのが1986年である。CNNは第二次ブームのニューラルネットワークを起点に発達したようになっており、世界的にはネオコグニトロンの名前が定着しなかったのが残念である。

 現在のディープラーニングは、ニューラルネットワークの第三次ブームといえる。ディープラーニングは、第二次ブームが終わる原因を改善したといえる。

 

| | コメント (0)

2020年6月 2日 (火)

CNNへの道のり(16)

 ネオコグニトロンの挙動は、まず、入力パターンが与えられるごとにS細胞間に競合が起こる。競り勝ったS細胞だけがシナプス結合を変化させ、与えられた特徴に選択的に反応するようになる。

 この競合が層内の各所で同時に起こり、入力パターンの局所的な特徴を抽出する細胞が並列的に作られる。次の段のS細胞では、前の段のS細胞に比べて少し大きい受容野を持ち大局的な特徴を抽出する。

 一方、C細胞は複数個のS細胞から固定した結合を受け取り、そのうちのどれか一つのS細胞が出力を出せばC細胞も出力を出す。これらS細胞はいずれも同じ形の特徴を抽出するが、受容野の位置はS細胞ごとに少しだけ異なる。すなわち、C細胞は少しの違った場所から同じ特徴を抽出するS細胞の組の出力を受け取るのである。したがって、C細胞は、S細胞が抽出した特徴の位置ずれの影響を、吸収する性質を持っているといえる。S細胞とC細胞は交互に繰り返して階層的に結合されので、入力パターンの情報は、ネオコグニトロンの各段でS細胞による特徴抽出とC細胞による位置ずれの許容を繰り返しながら上位層へと送られていく。よって、下位層で抽出された局所的特徴が,次第に大局的特徴として伝達され、かつ、入力パターンの拡大縮小や位置ずれの影響をC細胞が吸収するため、最終的に入力パターンの変形に対しロバストな認識ができるのである。

 ネオコグニトロンの認識率を調べるため、手書き数字の大規模データベースETL-1を使って、3000個の手書き数字を学習した認識実験を行うと98.6%の認識率を示した。1980年頃では画期的な認識率であり、1982年、電子情報通信学会は福島 先生に業績賞を贈っている。

 

| | コメント (0)

2020年6月 1日 (月)

CNNへの道のり(15)

 コグニトロンの自己組織化は、教師なし学習でうまく働いた。ところが、入力パターンの呈示位置や大きさを変えると、別のパターンとして処理する改善点があった。

 そこで、福島先生はヒューベルとウィーゼルの仮説をベースに、呈示位置や大きさには影響されない多層ニューラルネットを提案された。そして、コグニトロンを改善したものということで、そのニューラルネットをネオコグニトロンと名付けられた。

 ヒューベルとウィーゼルの大脳視覚野の階層仮説は、網膜から外側膝状態を経て、単純形細胞→複雑形細胞→低次超複雑形細胞→高次超複雑形細胞という順で繋がるというものである。ここで、単純形細胞と複雑形細胞間の構造と、低次超複雑形細胞と高次複雑形細胞の構造には類似性があるとしていた。また、階層が上位になるほど特定のパターンを選択的に反応し、パターン呈示の位置と大きさにロバストになる。これらのことから、福島先生は単純と複雑を組とした構造が繰り返され最終層に到達すると仮定されたのである。

 福島先生は、単純細胞をS(simpleから)細胞、複雑細胞をC(complexから)細胞と名付け、S細胞とC細胞の2層を基本単位とし、これらが何段もカスケードに接続した構造をネオコグニトロンとされた。シナプス結合の重み変化については、S細胞の入力で行われると仮定された。

 

| | コメント (0)

« 2020年5月 | トップページ | 2020年7月 »