• MXNet对GoogLeNet的实现(并行连结网络)


    论文地址:Going deeper with convolutions

    随着在AI方面新的论文的发表,可以看出神经网络的发展,越来越往人脑结构的方向在研究,从最开始的感知器到全连接层结构(稠密结构),再到卷积神经网络(稀疏结构),尤其是随着网络越来越深和复杂,将更加凸显稀疏结构的优势,为什么呢,因为人脑的神经元之间的连接就是一种稀疏的结构,类似于赫布理论。其中“neurons that fire together, wire together”神经元一起激活(放电),一起连接,这个很有意思,也就是说,大脑的神经元是依靠放电来传递信号,如果不同神经元经常性同时放电,那么它们之间的连接就会越紧密。
    论文中模型的设计遵循了实践直觉,即视觉信息应该在不同的尺度上处理然后聚合,为的是下一阶段可以从不同尺度同时抽象特征。结论也指出了通过易获得的密集构造块来近似期望的最优稀疏结果是改善计算机视觉神经网络的一种可行方法,也就是GoogLeNet“含并行连结的网络”模型的意义,因为这样的一种全新思想打破了以往的串联加深层的做法,往更稀疏的方向发展,我觉得这才是这篇paper最重要的价值。

    我们先来看两张图片,直观感受下,一张Inception模块,另一张就是GoogLeNet模型,由于GoogLeNet模型的层数比较深,避免图片尺寸太大,注意看我画箭头指向的方向以及使用颜色区分的模块。

     

    Inception模块

    上面图片可以看出,核心部分就是Inception模块,里面有4组并行的线路组成,代码实现如下:

    1. import d2lzh as d2l
    2. from mxnet import gluon,init,nd
    3. from mxnet.gluon import nn
    4. #四条并行的线路,然后在通道维进行连结
    5. class Inception(nn.Block):
    6. def __init__(self,c1,c2,c3,c4,**kwargs):
    7. super(Inception,self).__init__(**kwargs)
    8. #线路1
    9. self.p1=nn.Conv2D(c1,kernel_size=1,activation='relu')
    10. #线路2
    11. self.p2_1=nn.Conv2D(c2[0],kernel_size=1,activation='relu')
    12. self.p2_2=nn.Conv2D(c2[1],kernel_size=3,padding=1,activation='relu')
    13. #线路3
    14. self.p3_1=nn.Conv2D(c3[0],kernel_size=1,activation='relu')
    15. self.p3_2=nn.Conv2D(c3[1],kernel_size=5,padding=2,activation='relu')
    16. #线路4
    17. self.p4_1=nn.MaxPool2D(pool_size=3,strides=1,padding=1)
    18. self.p4_2=nn.Conv2D(c4,kernel_size=1,activation='relu')
    19. def forward(self,x):
    20. p1=self.p1(x)
    21. p2=self.p2_2(self.p2_1(x))
    22. p3=self.p3_2(self.p3_1(x))
    23. p4=self.p4_2(self.p4_1(x))
    24. return nd.concat(p1,p2,p3,p4,dim=1)#通道维进行连结

    构建GoogLeNet整个模型

    1. #五大模块
    2. B1=nn.Sequential()
    3. B1.add(nn.Conv2D(64,kernel_size=7,strides=2,padding=3,activation='relu'),
    4. nn.MaxPool2D(pool_size=3,strides=2,padding=1))
    5. B2=nn.Sequential()
    6. B2.add(nn.Conv2D(64,kernel_size=1,activation='relu'),
    7. nn.Conv2D(192,kernel_size=3,padding=1,activation='relu'),
    8. nn.MaxPool2D(pool_size=3,strides=2,padding=1))
    9. B3=nn.Sequential()
    10. B3.add(Inception(64,(96,128),(16,32),32),
    11. Inception(128,(128,192),(32,96),64),#输出通道数128+192+96+64=480
    12. nn.MaxPool2D(pool_size=3,strides=2,padding=1))
    13. B4=nn.Sequential()
    14. B4.add(Inception(192,(96,208),(16,48),64),
    15. Inception(160,(112,224),(24,64),64),
    16. Inception(128,(128,256),(24,64),64),
    17. Inception(112,(144,288),(32,64),64),
    18. Inception(256,(160,320),(32,128),128),
    19. nn.MaxPool2D(pool_size=3,strides=2,padding=1))
    20. B5=nn.Sequential()
    21. B5.add(Inception(256,(160,320),(32,128),(128)),
    22. Inception(384,(192,384),(48,128),128),
    23. nn.GlobalAvgPool2D())
    24. net=nn.Sequential()
    25. net.add(B1,B2,B3,B4,B5,nn.Dense(10))
    26. #查看各层输出形状
    27. X=nd.random.uniform(shape=(1,1,96,96))
    28. net.initialize()
    29. for layer in net:
    30. X=layer(X)
    31. print(layer.name,'输出形状:',X.shape)
    32. '''
    33. sequential0 输出形状: (1, 64, 24, 24)
    34. sequential1 输出形状: (1, 192, 12, 12)
    35. sequential2 输出形状: (1, 480, 6, 6)
    36. sequential3 输出形状: (1, 832, 3, 3)
    37. sequential4 输出形状: (1, 1024, 1, 1)
    38. dense0 输出形状: (1, 10)
    39. '''

    训练模型

    受限于GPU,还是以Fashion-MNIST数据集为例,注意的是关注这个网络模型的新特性才是学习的重点。

    1. lr,num_epochs,batch_size,ctx=0.1,5,128,d2l.try_gpu()
    2. net.initialize(force_reinit=True,ctx=ctx,init=init.Xavier())
    3. trainer=gluon.Trainer(net.collect_params(),'sgd',{'learning_rate':lr})
    4. train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size,resize=96)
    5. d2l.train_ch5(net,train_iter,test_iter,batch_size,trainer,ctx,num_epochs)
    6. '''
    7. epoch 1, loss 2.1157, train acc 0.210, test acc 0.511, time 154.6 sec
    8. epoch 2, loss 0.8424, train acc 0.666, test acc 0.782, time 143.6 sec
    9. epoch 3, loss 0.5345, train acc 0.802, test acc 0.847, time 143.9 sec
    10. epoch 4, loss 0.4107, train acc 0.846, test acc 0.870, time 144.0 sec
    11. epoch 5, loss 0.3557, train acc 0.865, test acc 0.875, time 142.4 sec
    12. '''
  • 相关阅读:
    在家靠python爬虫兼职月入3w+:成年人的世界,钱是底气!
    【Linux私房菜】—— 远程登录与数据传输、Vim与Vi的基础用法、关机与重启、登录与注销
    Java--ArrayList的浅拷贝问题--原因/解决方案
    必知必会的 LightGBM 各种操作
    跨境分析 | 疫情之下跨境电商如何选品?这类商品亚马逊销量不降反增
    C#中.NET 7.0控制台应用使用LINQtoSQL、LINQtoXML
    Python 08学习之文件操作
    军用软件开发文档通用要求常见缩略语
    网络安全(黑客)自学
    深度学习--神经网络基础
  • 原文地址:https://blog.csdn.net/weixin_41896770/article/details/125569077