• wangshusen学习笔记


    wangshusen课程

    Keywords:

    1. Parameters:参数 -> 权重 weights(卷积核、参数矩阵…)
    2. Hyper-parameters:超参 -> 搭建神经网络、开始训练之前需要设置的数值;包括 Architecture(网络结构:多少个卷积核、每个卷积核多大、stride大小等)、Algorithm(lr、epochs…)
    3. hyper-parameters + train data = parameters -> accuracy

    NAS(Neural Architecture Search):

    定义:找到可以得到准确率最高的神经网络结构(或者其他指标更好:比如效率、资源利用…)
    eg: ResNet has better accuracy than VGG
    MobileNet is more efficient than ResNet but less accuracy.

    CNN Architecture

    overall

    1. 卷积层数
    2. 一个卷积层中的卷积核大小、stride大小、卷积核数量
    3. 全连接层宽度(输出向量大小)

    每个卷积层包括:

    1. 卷积核数量
    2. 卷积核大小
    3. stride

    Search Space

    超参组合总数(the set containing all the possible architectures)

    Hyper-Parameters TypesCandidates
    # of filters{24, 36, 48, 64}
    size of filters{3x3, 5x5, 7x7}
    stride{1, 2}

    如果用上述超参搭建20个卷积层可能的组合有(4 * 3 * 2) ^ 20 = 4 x 10 ^ 27种

    outcome of NAS

    layer1layer2layer20
    # of filters244864
    size of filters5x53x33x3
    stride112

    baseline: random search

    随机设置超参 --train–> CNN model --evaluate–> val acc
    重复该过程多次,选择其中val acc 最好的超参配置
    这种方法叫:cross validation 交叉验证

    难点:1. 每次尝试消耗巨大;2. search space巨大,尝试数量太小,不容易找到特别好的结构;

    NAS: RNN + RL

    通过RNN获得CNN Architectures
    由于该controller RNN的训练过程不可微,用强化学习训练RNN

    难度:计算量巨大 – 需要每次从0开始训练CNN,最后用CNN的val 作为奖励来训练controller RNN

    Differentiable NAS

    DARTS

    并行计算与机器学习

    线性回归 linear predictor

    并行架构

    架构

    1. client-server
    2. peer to peer

    实现

    1. MapReduce 架构(google 不开源):同步,cs架构,每个worker全部完成工作后才会进行下一轮;更多用于大数据处理
      – apache hadoop(开源)
      – apache spark (比hadoop快很多)

    2. Parameter Server:异步,cs架构;Ray(推荐的开源系统,better than spark);要求所有work必须比较稳定

    3. Decentralized Network(去中心化网络):peer to peer,

  • 相关阅读:
    camtasia 2023怎么导出mp4
    35.搜索插入位置
    Sui参会必备|Token 2049活动一览
    Windows Linux常见编译器 msvc gcc clang
    final语法
    vue 使用v-cloak
    MindSpore端侧手机应用实战:AI垃圾分类应用
    数据结构-链表(3)
    【树莓派/入门】1.69inch LCD屏幕的连接与测试
    文心一言 VS CHATGPT
  • 原文地址:https://blog.csdn.net/Ives_WangShen/article/details/132852305