« CNNへの道のり(13) | トップページ | CNNへの道のり(15) »

2020年5月31日 (日)

CNNへの道のり(14)

 コグニトロンは、これら2つの特性を持たせた規則に従って、何層にも重なったニューラルネットワークを構成していく。ただし、コグニトロンの入力は画像そのものではなく、特徴抽出が行われた画像が入力されるという前提を置いた。

 コグニトロンでは、層を重ねていくときの結合可能領域の広がりをどのようにとるかが重要となる。結合のやり方としては、各層とも同じ大きさにする方法、奥の層になるほど広げる方法、各層の出力が枝分かれし、枝の行先を確率的にばらつかせる方法が考えられる。

 各層とも同じ大きさにすると、入力層の情報は最終層全面には広がらない。奥の層になるほど広げると、最終層全面に入力情報を反映させることができる。しかし、最終層のどの細胞をとっても同じような結合可能性を持ってしまう。確率的にばらつかせる方法では、出発点から離れるものは結合密度を小さくするようにすれば、最終層全面で入力情報を反映しつつ、同じ結合可能性を持つことにはならない。よって、コグニトロンの各層の結合方式は、各層の出力が枝分かれし行先が確率的にばらつくようになった。

 こうして、コグニトロンは多少のノイズも吸収して認識することができる、自己組織化能力をもつ多層ニューラルネットが提案された。自己組織化というのは、入力パターンの呈示を繰り返すだけの教師なし学習である。

 

|

« CNNへの道のり(13) | トップページ | CNNへの道のり(15) »

コメント

コメントを書く



(ウェブ上には掲載しません)




« CNNへの道のり(13) | トップページ | CNNへの道のり(15) »