• wangshusen学习笔记


    wangshusen课程

    Keywords:

    1. Parameters:参数 -> 权重 weights(卷积核、参数矩阵…)
    2. Hyper-parameters:超参 -> 搭建神经网络、开始训练之前需要设置的数值;包括 Architecture(网络结构:多少个卷积核、每个卷积核多大、stride大小等)、Algorithm(lr、epochs…)
    3. hyper-parameters + train data = parameters -> accuracy

    NAS(Neural Architecture Search):

    定义:找到可以得到准确率最高的神经网络结构(或者其他指标更好:比如效率、资源利用…)
    eg: ResNet has better accuracy than VGG
    MobileNet is more efficient than ResNet but less accuracy.

    CNN Architecture

    overall

    1. 卷积层数
    2. 一个卷积层中的卷积核大小、stride大小、卷积核数量
    3. 全连接层宽度(输出向量大小)

    每个卷积层包括:

    1. 卷积核数量
    2. 卷积核大小
    3. stride

    Search Space

    超参组合总数(the set containing all the possible architectures)

    Hyper-Parameters TypesCandidates
    # of filters{24, 36, 48, 64}
    size of filters{3x3, 5x5, 7x7}
    stride{1, 2}

    如果用上述超参搭建20个卷积层可能的组合有(4 * 3 * 2) ^ 20 = 4 x 10 ^ 27种

    outcome of NAS

    layer1layer2layer20
    # of filters244864
    size of filters5x53x33x3
    stride112

    baseline: random search

    随机设置超参 --train–> CNN model --evaluate–> val acc
    重复该过程多次,选择其中val acc 最好的超参配置
    这种方法叫:cross validation 交叉验证

    难点:1. 每次尝试消耗巨大;2. search space巨大,尝试数量太小,不容易找到特别好的结构;

    NAS: RNN + RL

    通过RNN获得CNN Architectures
    由于该controller RNN的训练过程不可微,用强化学习训练RNN

    难度:计算量巨大 – 需要每次从0开始训练CNN,最后用CNN的val 作为奖励来训练controller RNN

    Differentiable NAS

    DARTS

    并行计算与机器学习

    线性回归 linear predictor

    并行架构

    架构

    1. client-server
    2. peer to peer

    实现

    1. MapReduce 架构(google 不开源):同步,cs架构,每个worker全部完成工作后才会进行下一轮;更多用于大数据处理
      – apache hadoop(开源)
      – apache spark (比hadoop快很多)

    2. Parameter Server:异步,cs架构;Ray(推荐的开源系统,better than spark);要求所有work必须比较稳定

    3. Decentralized Network(去中心化网络):peer to peer,

  • 相关阅读:
    蚂蚁集团最新业绩出炉:净利润同比下降63%,连续三个季度下滑
    ubuntu在线服务器python Package安装到离线服务器
    同源策略,跨域,请求,网络安全详细知识
    luajit简介
    SpringMVC组件和注解解析
    毕业设计-基于机器视觉的行人车辆跟踪出入双向检测计数
    Java基础题目
    Unix系统的进程相关操作
    C语言入门 Day_14 for循环
    计算机竞赛 深度学习手势识别 - yolo python opencv cnn 机器视觉
  • 原文地址:https://blog.csdn.net/Ives_WangShen/article/details/132852305