« CNNへの道のり(6) | トップページ | CNNへの道のり(8) »

2020年5月24日 (日)

CNNへの道のり(7)

 脳にも通じる神経細胞をモデル化したとされたパーセプトロンは、1960年代に大ブームとなった。学習がうまくいけば、どんな計算も自動的に可能となる万能アルゴリズムともてやはされた。

 1969年、MITで人工知能を研究していたマービン・ミンスキー教授が「パーセプトロン」という書籍を出版した。その書籍はパーセプトロンを徹底的に限界を解説し、入力層、中間層、出力層で構成される単純パーセプトロンは線形分離できる問題しか解けないことを明確に説いたのだった。

 線形分離とは、2種類のパターンのクラスタを、2次元なら直線で、3次元なら平面で、n次元なら(n-1)次元の超平面で分離できることである。例えば、AND回路は2入力x1軸とx2軸の平面で考えると、

x2 = -x1 + 1.6

なる直線で、ANDの結果の0と1を分離することができる。すなわち、AND回路は線形分離可能なのである。ところが、XOR回路になると、一本の直線で分離することはできない線形非分離になる。そのため、パーセプトロンでXOR回路を実現するときは、3層の単純パーセプトロンを二つカスケードに繋いだのである。ミンスキー教授の解説により、単純パーセプトロンは、自動的に学習してどんな問題も解くことができる人工知能の基本となりうるものではなく、単に直線で分離できる問題の一解法に過ぎないという認識に変わった。そして、パーセプトロンのブームは去った。

 奇しくも、パーセプトロンを発表したローゼンブラットとミンスキー教授は高校時代の同級生だった。ミンスキー教授がパーセプトロンのブームに強烈な冷水をかぶせたのは、パーセプトロンに流れていた研究予算を自身が考えていたフレーム理論に向けるためだったのだろうか。

 

|

« CNNへの道のり(6) | トップページ | CNNへの道のり(8) »

コメント

コメントを書く



(ウェブ上には掲載しません)




« CNNへの道のり(6) | トップページ | CNNへの道のり(8) »