①权重矩阵的参数非常多(每层之间两两连接)
②局部不变特征(难以提取不改变性质的操作<如旋转、缩放、平移>或局部特征)
给定一个输入信号序列x和滤波器w,卷积的输出为:
卷积的作用:
当令滤波器w=[1/2,0,-1/2]时,可以近似信号序列的一阶微分方程

当令滤波器w=[1,-2,1]时,可以近似信号序列的二阶微分

滤波器w=[1/3,1/3,1/3]可以检测低频信息
滤波器w=[1,-2,1]可以检测高频信息
引入滤波器的滑动步长S和零填充P
滑动步长:窗口的长度
零填充:为了窗口取整,在两端补若干个0
窄卷积:步长S=1,两端不补零P=0,输出长度为M-K+1
宽卷积:步长S=1,两端补零P=K-1,输出长度为M+K-1
等宽卷积:步长S=1,两端补零P=(K-1)/2,输出长度M
Y=W*X 

是一种前馈神经网络;受生物学感受野机制(只有特定区域接收刺激才能激活神经元)提出
特征: ①局部连接 ②权重共享 ③空间或时间上的次采样
使用卷积层代替全连接层


计算卷积需要进行卷积核翻转;卷积操作的目标:提取特征-->并不一定需要翻转
互相关:
除非特别申明,卷积一般指“互相关”
卷积核可以视为一个特征提取器,为了增强卷积层的能力,可以引入多个卷积核
以二维为例:特征映射(图像讲过卷积后得到的特征)
卷积层输入:D个特征映射M × N × D
卷积层输出:P个特征映射

各输入信号通过卷积后,再汇总得到输出信号,虽然卷积方式为单连接,但是输出和输入之间可以等效为全连接。

典型的卷积层为3维结构

卷积层的作用:减少连接数量(但无法减少特征映射的神经元)
可以通过增加步长来减少神经元的数量
汇聚:将数据划分为若干区域,每个区域选取一个具有代表性的数据

卷积层 + 汇聚层 + 全连接层 堆叠形成

典型结构: ①趋于小卷积、大深度
②趋于全卷积
作用:增加输出单元的感受野
在卷积核中插入空洞,变相的增加卷积核的大小(投射的时候增加空位)

低维特征映射到高维特征(放大)
减小步长,在输入上插入空洞(S=1/2)

LeNet-5主要用于识别手写数字,共7层

使用GPU进行并行训练,采用ReLU作为非线性激活函数,使用Dropout防止过拟合
一共5个卷积层、3个汇聚层、3个全连接层

由大量的inception模块和少量的汇聚层堆叠而成

inception模块
包含多个大小不同的卷积操作(1x1、3x3、5x5等大小不同的卷积核),并将得到的特征映射在深度上拼接(堆叠)起来作为输出特征映射。

1X1的作用:让不同深度的特征进行融合
inception模块V3
用多层的小卷积核来替代大的卷积核,减少计算量和参数量(两层3X3来替代5X5,用连续的nX1和1Xn替代nXn)

层数极多(152层)
通过给非线性卷积层增加直连边来提高信息的传播率
将目标函数拆分为两个部分:恒等函数、残差函数


残差单元

由于每个单元有一条直连边(x),所以即使堆叠得很深也不会出现梯度消失的问题。

Ngram:连接相邻的n个单词(滑动窗口)
使用Lookuptable将词转换为向量。

可将其视为一维卷积(窗口大小为k,深度为d)或二维卷积(卷积核大小为dxk)

