要指定所有层按顺序连接的神经网络的架构,请直接创建层数组。要指定层可以有多个输入或输出的网络架构,请使用 LayerGraph 对象。使用以下函数创建不同的图层类型。
输入层:
可学习层:
功能 | 描述 |
---|
卷积2d层 |
- 对输入应用滑动过滤器。
- 它通过沿输入垂直和水平移动滤波器并计算权重和输入的点积,然后添加偏差项来对输入进行卷积。
|
转置Conv2d层 |
|
全连接层 |
。 |
层 |
- 它是一个循环神经网络 (RNN) 层,支持网络中的时间序列和序列数据。
- 它执行附加交互,这有助于改善训练期间长序列的梯度流。
- 它们最适合学习长期依赖性
|
激活层:
功能 | 描述 |
---|
重新定义层 |
- 它对输入的每个元素执行阈值操作,其中任何小于零的值都设置为零。
|
LeakyRelu层 |
- 它执行简单的阈值运算,其中任何小于零的输入值都乘以固定标量
|
剪裁Relu层 |
- 它执行简单的阈值操作,其中任何小于零的输入值都设置为零。
- 高于剪裁上限的任何值都将设置为该剪裁上限。
|
归一化层和 Dropout 层:
功能 | 描述 |
---|
批量归一化层 |
- 它标准化小批量中的每个输入通道。
- 该层首先通过减去小批量平均值并除以小批量标准差来标准化每个通道的激活。
- 然后,该层将输入移动可学习的偏移量,并按可学习的比例因子对其进行缩放。
- 在卷积层和非线性层之间使用批量归一化层(例如 ReLU 层),可以加快卷积神经网络的训练速度并降低对网络初始化的敏感性。
|
跨通道标准化层 |
|
丢弃层 |
|
池化层:
功能 | 描述 |
---|
平均池化2d层 |
- 它通过将输入划分为矩形池化区域并计算每个区域的平均值来执行下采样。
|
最大池化2d层 |
- 它通过将输入划分为矩形池化区域并计算每个区域的最大值来执行下采样。
|
最大Unpooling2dLayer |
|
组合层:
功能 | 描述 |
---|
加法层 |
- 它按元素添加多个输入。
- 创建图层时指定图层的输入数量。
- 输入的名称为“in1”、“in2”、...、“inN”,其中 N 是输入的数量。
- 使用 connectLayers 或 disconnectLayers 将图层连接到其他图层或断开与其他图层的连接时,请使用输入名称。
- 添加层的所有输入必须具有相同的维度。
|
深度串联层 |
- 它需要具有相同高度和宽度的多个输入。
- 它将它们沿着三维连接起来。
|
输出层:
功能 | 描述 |
---|
软最大层 |
|
分类层 |
- 它保存软件用于训练网络进行多类分类的损失函数的名称
|
回归层 |
- 它保存软件用于训练回归网络的损失函数的名称以及响应名称。
|