视频链接:
7.1 MobileNet网络详解_哔哩哔哩_bilibili
7.1.2 MobileNetv3网络详解_哔哩哔哩_bilibili
目录
3. Depthwise Convolution(DW 卷积)
现有模型参数量大 VGG:490M、ResNet152:644M,本论文专注于移动端或嵌入式设备的轻量级 CNN。和 VGG16 对比,MobileNet 在 ImageNet 数据集上准确率下降 0.9%,但模型的参数量只有 VGG 的 1/32。
DW 卷积由两部分组成:Depthwise Conv + Pointwise Conv(卷积核大小为 1*1 的普通卷积)
节省计算量的计算:
类 VGG 结构
相比起 MobileNet V1 网络,准确率更高,模型更小。
激活函数用的是 ReLU6 函数
指的是在 bottleneck 结构里最后一层 1*1 卷积层的激活函数用的是线性激活函数。
现象:随机初始化一个矩阵 T,将输入映射到一个 n 维空间里,经过 ReLU;再将结果乘上 T^-1,得到。
说明:维度(n)越高,经过 relu 函数损失的信息越少。
由于 bottleneck 结构是一个两端维度低,中间维度(C)高的结构,所以最后一层 1*1 卷积的输出不能接 relu 激活函数,避免损失过多信息。
类 ResNet 结构
相比起 MobileNet V2 网络,更准确,更高效。
图中的 NL:非线性激活函数
SE 模块:
这是 NAS 搜索出来的结果
H-Sigmoid 和 H-Swish 激活函数:
补充:量化是用更少的数据位宽表示数据,可以起到节约资源、提升性能的作用。(来源:弹幕)
表中两个结论: