卷积神经网络 CNN
循环神经网络 RNN
生成对抗网络 GAN
深度强化学习等
神经网络中信息只向一个方向移动,从输入节点向前移动,通过隐藏节点,向输出节点移动
同一层的神经元之间没有连接
第N层的每个神经元和第N-1层的所有神经元相连 → full connected
每个连接都有一个权值
本质是向神经网络中引入非线性因素,通过激活函数,神经网络可以拟合各种曲线。
Sigmoid/logistics函数
sigmoid函数一般只用于二分类的输出层
tanh 双曲正切曲线
隐藏层使用
RELU
目前最常用
LeakReLu
softmax
“映射为概率值”
用于多分类,目的是将分类的结果以概率的形式展现出来
其他激活函数
隐藏层
优先选择RELU激活函数
如果RELU效果不好,尝试其他
不使用sigmoid
输出层
随机初始化
标准初始化
Xavier初始化
基本思想:各层的激活值和梯度的方差在传播过程中保持一致
tf.keras实现方法
He初始化
Kaiming初始化
基本思想:正向传播时,激活值的方差保持不变; 反向传播时,关于状态值的梯度的方差保持不变
tf.keras实现方法
利用Sequential构建
利用function API构建
Model类构建