« 統計分析の基本(17) | トップページ | CNNへの道のり(2) »

2020年5月18日 (月)

CNNへの道のり(1)

 当研究室でもディープラーニングの中のコンボリューション・ニューラル・ネットワーク(CNN)が重要な研究となっているため、今日からしばらくの間CNNへの道のりとして解説する。過去にもディープラーニングを解説したが、今回はより古くから最新までをトレースしようと思う。

 始まりは、1943年だった。マサチューセッツ工科大学に勤務していた神経生理学者で外科医のウォーレン・マカロックと論理学者で数学者のウォルター・ピッツの共著で発表した形式ニューロンだった。

 形式ニューロンは、生物の神経細胞をモデル化したものである。単純なものは入力層と出力層の2層で、複雑になると中間層を組み込んだ3層以上として、ニューロンのモデルを次の様に提案した。

H ( ∑wi・xi − h )
 
ここで、wは重み、xは0または1の入力信号、hはしきい値、Hはヘヴィサイドの階段関数で出力が0か1になるものである。

 例としては、論理演算のANDなら、

H (x1 + x2 − 1.5 )

とモデル化する。x1とx2が入力なので、両方が1でないとH()は0以上にならず、両方が1のときのみ1が出力されることがわかる。同様に、ORであれば、

H (x1 + x2 − 0.5 )

とかける。こちらはどちらかが1であれば、出力が1になることがわかる。

 

|

« 統計分析の基本(17) | トップページ | CNNへの道のり(2) »

コメント

コメントを書く



(ウェブ上には掲載しません)




« 統計分析の基本(17) | トップページ | CNNへの道のり(2) »