神经网络基础

一、神经元模型

  神经元是神经网络中最基本的机构,神经元的两种状态:兴奋和抑制。大多数时候是处于抑制状态下,当收到刺激,导致点位超过阔值,神经元会被激活,处于“兴奋”状态,进而向其他神经元传播化学物质(信息)
神经元结构图

根据生物神经元构造了人工神经元(Artificial Neural Networks,简称ANN),也是常用的“M-P神经元模型”。
Artificial Neural Networks

神经元的输出
$$ y=f(\sum_{i=0}^n w_ix_i-\theta)$$
其中$\theta$为阔值,函数为激活函数。其中函数可以用阶跃函数表示,由于阶跃函数不连续,不可导,所以常用sigmoid 函数来表函数。

sigmoid函数的表达式和分布图如下:

Sigmoid
$$f(x) = \frac{1}{1+e^-x}$$

###二、神经网络部分清单

overview

  • 1.前馈神经网络(FFNN/FF)
    前馈神经感知网络与感知机(FF or FFNN:Feed forward neural networks ad P:perceptrons),信息从前往后流动(分别对应输入和输出)

一般在描述神经网络时,都是从层说起,即相互平行的输入层、隐含层或者输出层神经结构。单独的神经系统层内部,神经元之间互不相连;而一般相邻的两个神经细胞则是全连接(一层的每个神经元和另一层的每个神经元相连)。一个最简单却最实用性的神经网络由两个输入神经元和一个输出神经元构成,也就是一个逻辑模型。给神经网络一堆数据集(分别是“输入数据集”和“我们期望的输出数据集”),一般通过反向传播算法来训练前馈神经网络。

这就是监督式学习,与之相反的是无监督学习:我们只给输入,然后让神经网络去寻找数据当中的规律,反向传播的误差往往是神经网络当前输出和给定输出之前差值的某种变体(比如MSE或者仅仅是差值的现行变化)。如果神经网络具有足够的隐层神经元,那么理论上它总是能够建立输入数据和输出数据之间的关系,在实践中,FFNN的使用具有很大的局限性,但是它们通常和其他神经网络一起组合成新的架构(说明神经网络是可以相互组合的)

反向传播算法介绍。

参考文献-反正我是看不懂的

坚持记录世界,分享世界