| \ | 低方差 | 高方差 |
|---|---|---|
| 低偏差 | 预测准,且较集中 | 预测准,但较分散 |
| 高偏差 | 预测不准,且较集中 | 预测不准,且比较分散 |

L1正则化:使参数稀疏化
损失函数
=
原始损失函数
+
λ
2
m
∑
i
=
1
n
∣
w
i
∣
\text{损失函数} = \text{原始损失函数} + \frac{\lambda}{2m}\sum_{i=1}^{n} |w_i|
损失函数=原始损失函数+2mλi=1∑n∣wi∣
L2正则化:降低参数范围
损失函数
=
原始损失函数
+
λ
2
m
∑
i
=
1
n
w
i
2
\text{损失函数} = \text{原始损失函数} + \frac{\lambda}{2m} \sum_{i=1}^{n} w_i^2
损失函数=原始损失函数+2mλi=1∑nwi2
Dropout 对神经网络的节点进行随机的失活,训练时失活,预测是全部节点
集成学习是打比赛进行提点的一个很重要的方法
原理:图节点,边和整体进行训练
原理:生成器和判别器