本章内容主要包含两部分:
提醒
在本书中,对《神经网络与深度学习》中一些术语的翻译进行修正。
Normalization翻译为规范化、Dropout翻译为暂退法。
在具体实现中,梯度下降法可以分为三种方式:
区别在于批大小(Batch Size)不同。根据不同的数据量和参数量,可选择不同的实现形式。
影响神经网络优化的主要超参有三个:
NNDL 实验7 - HBU_DAVID - 博客园 (cnblogs.com)
11. 优化算法 — 动手学深度学习 2.0.0-beta1 documentation (d2l.ai)
4.5. 权重衰减 — 动手学深度学习 2.0.0-beta1 documentation (d2l.ai)
4.6. 暂退法(Dropout) — 动手学深度学习 2.0.0-beta1 documentation (d2l.ai)