# ニューラルネットワーク~基礎~ 2017 / 12 / 11 ## ニューロンモデル再掲 ![](https://i.imgur.com/8zNhPP6.jpg) ## 単純パーセプトロン 複数のニューロンを縦に並べることで,層を成す. 以下の形の,入力層と出力層から成るニューラルネットワークは単純パーセプトロンと呼ばれる. ![](https://i.imgur.com/aYeWkXd.jpg) 単純パーセプトロンにより,論理和OR.論理積AND,否定論理積NANDをそれぞれ構成してみる. なお,ここでは活性化関数としてへヴィサイドの階段関数を用いる. へヴィサイドの階段関数とは以下である. ![](https://i.imgur.com/aqfTNNw.jpg) ### 論理和OR ![](https://i.imgur.com/JgNw5DG.jpg) ![](https://i.imgur.com/0VhDEo8.jpg) ### 論理積AND ![](https://i.imgur.com/WzpbzRd.jpg) ![](https://i.imgur.com/TTucPBu.jpg) ### 否定論理積NAND ![](https://i.imgur.com/uWNcNdg.jpg) ![](https://i.imgur.com/nynUiIj.jpg) ## 多層パーセプトロン 排他的論理和XORを単純パーセプトロンで構成してみようとすると分かるが,実現不可能である.つまりこれは線形分離不可能な関数であり,多層のニューラルネットワークにする必要がある.これを多層パーセプトロンと呼び,複数のパーセプトロンを組み合わせることで実現する. ### 排他的論理和XOR ![](https://i.imgur.com/0uNp3sv.jpg) ![](https://i.imgur.com/pfSG8wM.jpg) ## 参考 * [Perceptron - Wikipedia](https://en.wikipedia.org/wiki/Perceptron)
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up